Der Satz, der über unserer Startseite steht, ist kein Dekor: „Ist das Ganze ethisch vertretbar?" Er ist die Leitfrage, die wir allen anderen Fragen voranstellen — auch der Frage nach Compliance, Effizienz oder Wettbewerbsvorteil.
KI-Ethik wird derzeit gern als Checkliste verkauft. Transparenz, Fairness, Nachvollziehbarkeit, Privatsphäre — schon abgehakt. Das hilft in der Kommunikation und wenig sonst. Ein Prinzip, das in jeder Situation gilt, gilt in keiner Situation präzise. Ethik beginnt dort, wo Prinzipien sich widersprechen und eine begründete Entscheidung notwendig wird.
Diese Seite skizziert, wie wir KI-Ethik als Praxis verstehen — nicht als Ornament, nicht als Marketing, sondern als Urteilsarbeit, die sich in jeder konkreten Implementierung entscheidet.
Ausgangspunkt: die Leitfrage
Jede ernsthafte ethische Prüfung eines KI-Systems beginnt nicht mit wie, sondern mit ob. Ob das System gebraucht wird. Ob der Zweck das Mittel rechtfertigt. Ob die Betroffenen einverstanden wären, wenn man sie fragen würde. Ob es eine weniger eingreifende Alternative gibt.
Erst wenn diese Fragen beantwortet sind, geht es sinnvoll weiter zu wie: wie das System gestaltet, überwacht, korrigiert werden muss. Organisationen, die diese Reihenfolge vertauschen, stehen am Ende vor KI-Systemen, deren einzige Rechtfertigung lautet: Wir haben schon so viel investiert.
Ethik, Recht, Compliance
Diese drei Begriffe werden oft synonym gebraucht. Sie sind es nicht.
- Recht ist, was in einer Jurisdiktion gilt. Das ändert sich mit Gesetzen, Urteilen, politischen Mehrheiten.
- Compliance ist die Praxis, das geltende Recht einzuhalten. Sie setzt das Recht als Maßstab und fragt: Erfüllen wir die Anforderungen?
- Ethik fragt hinter das Recht. Sie prüft, ob das, was erlaubt ist, auch verantwortbar ist — und was zu tun wäre, wenn das Gesetz schweigt oder falsch liegt.
Der EU AI Act ist eine Rechtsnorm. Er benennt Grenzen, die nicht unterschritten werden dürfen. Er sagt nicht, wie eine Organisation auf gute Weise mit KI umgeht — wo sie sich selbst zurücknehmen sollte, auch wenn sie dürfte. Diese Lücke zu füllen, ist die Arbeit der Ethik.
Drei Disziplinen, eine Technologie
KI durchquert Felder, die bisher getrennte ethische Traditionen hatten. Wer sie ernst prüfen will, muss diese Traditionen aufnehmen — nicht als Dekor, sondern als Werkzeug.
Technikethik
Verantwortung für Folgen technischer Artefakte. Wer ein System baut, das Entscheidungen vorstrukturiert, trägt Verantwortung für die Struktur dieser Entscheidungen — auch wenn er sie nicht selbst trifft. Das ist die Arbeit seit Hans Jonas.
Medizinethik
Die vier Prinzipien (Autonomie, Nicht-Schaden, Wohltun, Gerechtigkeit) sind in der Medizin über Jahrzehnte eingeübt. KI in Diagnose, Triage, Dokumentation greift direkt in dieses Feld ein. Die Fragen lauten dann nicht allgemein Fairness, sondern präzise: Wer hat eingewilligt, wer haftet, wer korrigiert, wer wird benachteiligt?
Kriegsethik
Verhältnismäßigkeit, Unterscheidung zwischen Kombattanten und Zivilpersonen, Verantwortung für autonome Entscheidungen — der Diskurs um autonome Waffen, um KI in Aufklärung und Zielauswahl führt dorthin, wo schon die Just-War-Tradition gearbeitet hat. Wer in diesem Feld arbeitet, kann nicht bei „sei fair" stehen bleiben.
CAIE nimmt diese drei Felder zusammen — nicht weil wir Generalisten wären, sondern weil KI als Technologie keines dieser Felder respektiert. Ein KI-System, das in einem Krankenhaus läuft, ist technikethisch und medizinethisch gleichzeitig relevant. Ein System zur Lagebeurteilung in einer sicherheitsrelevanten Behörde berührt Technik- und Kriegsethik zugleich.
Wie ein ethisches Urteil entsteht
Ein ethisches Urteil ist keine Meinung. Es ist eine begründete Entscheidung, die nachvollziehbar auf Prinzipien, Fakten und abgewogenen Alternativen beruht. In der Praxis läuft das in vier Schritten:
- Sachverhalt klären. Was genau soll das System tun, für wen, mit welchen Daten, mit welcher Fehlerquote, in welchem Kontext? Ethik ohne Empirie ist Spekulation.
- Betroffene benennen. Wer profitiert, wer trägt Risiken, wer wird gar nicht erst gefragt? Ein ethisches Urteil, das die Stimmen der Betroffenen nicht kennt, ist ein schlechtes Urteil.
- Prinzipien anwenden und Konflikte offenlegen. Datenschutz vs. Patientensicherheit, Effizienz vs. Teilhabe, Genauigkeit vs. Erklärbarkeit — diese Konflikte verschwinden nicht durch schöne Worte.
- Entscheiden und dokumentieren. Wer hat mit welchem Wissen auf welcher Grundlage was entschieden? Das ist nicht nur Ethik, das ist auch Art. 26 und Art. 27 EU AI Act.
Ethik in der Organisation
Ethik wird in Organisationen nicht durch Leitbilder eingelöst, sondern durch Form: durch Rollen, Prozesse, Eskalationswege, Dokumentation, Beteiligung. Drei Strukturen haben sich bewährt:
- Ethikreview vor Einführung
- Bevor ein KI-System live geht, wird es ethisch geprüft — nicht nur rechtlich. Das ist kein Zusatz, das ist Teil des Go/No-Go.
- Benannte Verantwortung
- Eine Person oder Funktion, die für die ethische Dimension eines Systems ansprechbar ist — und dafür auch Entscheidungsgewalt hat, nicht nur Meinungsrecht.
- Möglichkeit zur Korrektur
- Betroffene müssen widersprechen, eine menschliche Prüfung verlangen, Fehler melden können. Ohne diese Rückkanäle bleibt Ethik Papier.
Wie CAIE das angeht
Im CAIE-Vorstand trägt Patrick Casey Prager BA das Ethik-Profil. Er studiert Interdisziplinäre Ethik an der Universität Wien mit Spezialisierungen in Technikethik, Medizinethik und Kriegsethik — also genau die drei Felder, die bei KI zusammenkommen. Ergänzt wird das durch Jahre Erfahrung in IT-Beratung und Organisationsleitung, also durch das Wissen, wie ethische Arbeit in organisationalen Realitäten überhaupt Fuß fasst.
In der Beratung heißt das: Wir prüfen KI-Vorhaben nicht nur auf AI-Act-Konformität, sondern auf ethische Tragfähigkeit — mit dokumentierter Abwägung, mit Einbeziehung der Betroffenen, mit klarer Empfehlung, auch wenn sie unbequem ist. Und wir sagen nein, wenn ein Vorhaben trotz rechtlicher Zulässigkeit ethisch nicht haltbar ist.
Häufige Fragen
01 Ist KI-Ethik nicht einfach dasselbe wie Compliance mit dem EU AI Act?
Nein. Der EU AI Act definiert, was in Europa rechtlich zulässig ist. Ethik fragt, was darüber hinaus verantwortbar ist. Vieles, was der AI Act erlaubt, ist ethisch trotzdem schwierig — etwa die Art und Weise, wie ein Unternehmen KI einführt, wer informiert wird, wer widersprechen darf, welche Alternativen geprüft wurden. Compliance ist die Untergrenze, nicht das Ziel.
02 Wer entscheidet, was in einer konkreten Situation ethisch ist?
Keine einzelne Person und kein einzelnes Framework. Ethik ist ein begründetes Urteil, nicht eine Meinung. In Organisationen braucht es dafür eine Form: benannte Verantwortliche, dokumentierte Abwägungen, Einbeziehung der Betroffenen, Möglichkeit zur Korrektur. Wo das fehlt, entscheidet in der Praxis der, der am schnellsten ist — das ist keine Ethik, das ist Zufall.
03 Was ist Technikethik, Medizinethik, Kriegsethik — und warum spielt das bei KI eine Rolle?
Ethik hat über Jahrzehnte Werkzeuge entwickelt, um schwierige Fragen in spezifischen Feldern zu prüfen: Technikethik fragt nach Verantwortung für Folgen von Artefakten, Medizinethik nach Einwilligung und Nicht-Schaden, Kriegsethik nach Verhältnismäßigkeit und Unterscheidung. KI berührt alle drei Felder gleichzeitig. Wer ernsthaft über KI-Ethik spricht, kann nicht bei einem Prinzipienkatalog stehen bleiben, sondern muss die Arbeit dieser Disziplinen aufnehmen.
04 Berät CAIE ethische Fragen oder nur rechtliche?
Beides, und bewusst nicht getrennt. Eine Organisation, die uns wegen des AI Acts anspricht, bekommt die ethische Ebene mitverhandelt — nicht als Zusatzmodul, sondern als Teil der Analyse. Umgekehrt fließt bei rein ethischen Anfragen die rechtliche Landkarte ein, damit die Empfehlung umsetzbar bleibt.