Es gibt da diese Frage, die mir in Gesprächen über meinen Ethics-as-a-Service-Ansatz immer wieder begegnet: „Nutzt du eigentlich KI dafür?“
Die ehrliche Antwort ist (wie so oft): jein. Und das „nein“ ist mindestens so interessant wie das „ja“.
Ich habe das im Rahmen eines Forschungsprojekts systematisch durchgearbeitet – alle drei Phasen eines Ethik-Assessment-Prozesses, Teilschritt für Teilschritt, auf ihre Eignung für LLM-Unterstützung abgeklopft. Das Ergebnis ist (leider?) ein bisschen differenzierter, als es die meisten KI-Enthusiasten und die meisten KI-Skeptiker erwarten würden.
Was KI echt gut kann: Rohstoff verarbeiten
In Phase 1 – dem Wissensaufbau – geht es darum, möglichst viel relevantes Wissen über ein Projekt zu kompilieren. Dokumente, Whitepapers, Meetingprotokolle, Wiki-Einträge, Chat-Verläufe. Das ist, offen gesagt, oft eine Menge unstrukturierter Text aus vielen verschiedenen Quellen.
Hier ist ein LLM tatsächlich sehr gut: Zusammenfassen, clustern, sortieren, priorisieren – in einem Bruchteil der Zeit, die ein Mensch dafür bräuchte. Das ist kein kleines Potenzial. Das ist massiver Effizienzgewinn.
Dasselbe gilt für Phase 3, den Report. Der hat eine weitgehend standardisierte Struktur. Erkenntnisse rein, Empfehlungen raus, verständlich formuliert. Auch hier kann ein LLM unterstützen – beim Formulieren, beim Strukturieren, beim Überführen von Ethik-Jargon in lesbare Sprache.
Soweit, so gut.
Die großen ABERs: Datenschutz und Geheimhaltung
Jetzt kommt das große Aber.
Die Projekte, für die ich Ethik Assessments durchführe, sind EU-Horizon-geförderte Forschungs- und Innovationsprojekte.
Das bedeutet: Die Informationen, mit denen ich arbeite, sind in der Regel durch NDAs geschützt und datenschutzrechtlich sensibel.
Der Moment, in dem ich vertrauliche Projektinformationen in ein öffentliches LLM – also ChatGPT, Claude, was auch immer — eingebe, wäre der Moment, in dem ich gegen gängige Geheimhaltungsvereinbarungen und wahrscheinlich gegen die DSGVO verstoße.
Das ist kein Graubereich. Das ist ein klares Problem.
Mögliche Auswege gibt es: eine On-Premise-Installation eines LLMs (oder eines Small-Language Modells), oder die umfassende Anonymisierung der Daten vor der Verarbeitung. Ob der Aufwand dafür in einem vernünftigen Verhältnis zum Ergebnis steht, wird im Einzelfall bewertet. Einfach so geht es jedenfalls nicht.
Wo KI grundsätzlich an ihre Grenzen stößt
Die Sache mit dem Datenschutz lässt sich lösen – mit ein bisschen Aufwand und den richtigen technischen Mitteln.
Was sich nicht lösen lässt, sind die inhaltlichen Grenzen von LLMs. Und die sind im Kontext eines Ethik Assessments erheblich.
Erstens: Kreativität und Intentionalität.
Ein gutes Ethik Assessment ist kein Deduktionsprozess. Es ist nicht: Fakten rein, Ableitung raus. Manchmal muss um die Ecke gedacht werden – Rückfragen gestellt, Verbindungen gezogen, die nicht auf der Hand liegen.
Ein LLM kann deduzieren. Es kann nicht wollen. Es hat keine Intentionalität. Und genau die braucht man, wenn man aus gesammeltem Wissen etwas machen will, das größer ist als die Summe seiner Teile.
Zweitens: Diplomatie.
Ein Ethik-Beauftragter bewegt sich oft in heiklem Terrain. Er wird vom Unternehmen beauftragt – ist aber der Förderstelle gegenüber rechenschaftspflichtig. Manchmal muss man Mängel benennen, ohne eine Beziehung zu beschädigen. Das erfordert ein bisschen Fingerspitzengefühl. Ein LLM kann zufällig diplomatisch formulieren. Gezielt kann es das nicht.
Drittens: Verantwortung.
Der Report, den ich am Ende eines Assessments abliefere, trägt meine Unterschrift. Klar – das ist der übliche formale Akt; aber mehr: Das ist die Übernahme inhaltlicher und rechtlicher Verantwortung. Ein Konzept, das Mündigkeit voraussetzt. Und Mündigkeit ist keine Eigenschaft, die man einem LLM zuschreiben kann.
Also: Wie halte ich es in der Praxis?
KI unterstützt mich dort, wo es um die Verarbeitung großer Mengen unstrukturierten Materials geht – und wo der Datenschutz das zulässt. Für alles andere – die eigentliche Analyse, die Ableitung von Empfehlungen, die Formulierung des finalen Reports – bin ich der Mensch, der denkt, abwägt und unterschreibt.
Das ist kein Misstrauen gegenüber der Technologie. Es ist eine nüchterne Einschätzung dessen, was sie kann – und was nicht.
Wer KI im Ethik Assessment unkritisch einsetzt, riskiert schlechte Ergebnisse, Datenschutzverstöße und Berichte, für die niemand wirklich die Hand ins Feuer legen würde.
Und wer grundsätzlich auf KI verzichtet, verschenkt Effizienzpotenziale, die im ressourcenintensiven Kontext von Horizon-Projekten erheblich sein können.
Die eigentlich interessante Frage ist also nicht: KI oder kein KI? Sondern: Wo genau zieht man die Linie – und warum?

