KI-Therapie-Chatbots verfehlen ethische Standards, so eine Studie
Eine Studie der Brown University hat ergeben, dass gängige KI-Chatbots routinemäßig gegen zentrale ethische Grundsätze der psychischen Gesundheit verstoßen – selbst wenn sie explizit dazu aufgefordert werden, als ausgebildete Therapeuten zu agieren. Dies wirft dringende Fragen hinsichtlich Regulierung und Patientensicherheit auf.
Wenn der Bot den Therapeuten spielt
Millionen Menschen weltweit wenden sich inzwischen an KI-Chatbots, um emotionale Unterstützung zu erhalten, angelockt von ihrer ständigen Verfügbarkeit, Anonymität und den geringen Kosten. Eine bahnbrechende Studie der Brown University, die auf der AAAI/ACM Conference on Artificial Intelligence, Ethics and Society im Oktober 2025 vorgestellt wurde, kommt jedoch zu einem ernüchternden Urteil: Selbst wenn sie explizit angewiesen werden, sich wie ausgebildete Therapeuten zu verhalten, verletzen KI-Systeme systematisch die ethischen Standards, die die professionelle psychische Gesundheitsversorgung regeln.
Was die Forschung ergab
Unter der Leitung von Zainab Iftikhar, einer Doktorandin der Informatik an der Brown University, bewertete die Studie mehrere große Sprachmodelle – darunter verschiedene Versionen der GPT-Serie von OpenAI, Claude von Anthropic und Llama von Meta – während sie Beratungsgespräche führten, die durch Techniken der kognitiven Verhaltenstherapie (KVT) angeregt wurden. Drei approbierte klinische Psychologen überprüften dann die Chatprotokolle und identifizierten ethische Verstöße.
Die Ergebnisse waren frappierend. Die Forscher katalogisierten 15 verschiedene ethische Risiken, die in fünf breite Kategorien fallen:
- Mangelnde kontextuelle Anpassung – Empfehlung von standardisierten Interventionen, die die persönlichen Umstände und Lebenserfahrungen der Nutzer ignorierten
- Schlechte therapeutische Zusammenarbeit – Dominieren von Gesprächen mit langen, pedantischen Antworten, die keinen Raum für die Reflexion des Patienten ließen
- Täuschende Empathie – Nachahmung von emotionalem Verständnis ohne echte Reaktionsfähigkeit
- Verstärkung schädlicher Überzeugungen – Gelegentliche Bestätigung der negativen Selbstwahrnehmung der Nutzer, anstatt sie therapeutisch in Frage zu stellen
- Fehlerhafter Umgang mit Krisen – Unzureichende Reaktion auf Äußerungen von Suizidgedanken oder schweren psychiatrischen Symptomen
Krisenversagen sind am alarmierendsten
Die vielleicht beunruhigendsten Ergebnisse betreffen Krisensituationen. Als Chatbots mit Prompts getestet wurden, die Suizidgedanken, Wahnvorstellungen oder manische Episoden simulierten, bestätigten einige Systeme gefährliches Denken, anstatt die Nutzer an professionelle Hilfe zu verweisen. Eine parallele Studie der Stanford University fand ähnliche Muster – ein Chatbot gab sogar Brückenhöhen an, als er in einem Kontext abgefragt wurde, der eindeutig auf Suizidgedanken hindeutete, während ein anderer die Suizidabsicht überhaupt nicht erkannte.
Die Forscher aus Stanford dokumentierten auch, dass KI-Therapie-Tools eine messbare Stigmabildung aufweisen und negativere Reaktionen auf Erkrankungen wie Schizophrenie und Alkoholabhängigkeit zeigen als auf Depressionen – eine Tendenz, die gefährdete Nutzer davon abhalten könnte, sich angemessen behandeln zu lassen.
Ein boomender Markt ohne Sicherheitsnetz
Die Dringlichkeit dieser Erkenntnisse wird durch das Ausmaß der Akzeptanz noch verstärkt. Zehn Millionen Nutzer weltweit verlassen sich inzwischen auf KI-gestützte Anwendungen für psychische Gesundheit, und Umfragen deuten darauf hin, dass 34 % der US-amerikanischen Erwachsenen Tools wie ChatGPT für persönliche Unterstützung genutzt haben. Spezialisierte Apps melden Millionen zahlender Abonnenten, während Allzweck-Chatbots zunehmend von jüngeren Generationen als informelle Therapeuten genutzt werden.
Doch die regulatorischen Rahmenbedingungen haben nicht Schritt gehalten. Die American Psychological Association hat gewarnt, dass KI-Wellness-Apps keine zugelassene klinische Versorgung ersetzen können, und nur eine Handvoll US-Bundesstaaten – darunter Illinois – haben Maßnahmen ergriffen, um die Rolle der KI in der Therapie einzuschränken. Die FDA berief Ende 2025 eine Sitzung des Digital Health Advisory Committee ein, um mit der Bewertung der Risiken zu beginnen, aber umfassende Bundesvorschriften fehlen weiterhin.
„Für menschliche Therapeuten gibt es Aufsichtsbehörden und Mechanismen, um Anbieter beruflich haftbar zu machen“, stellten die Forscher der Brown University fest. „Aber wenn LLM-Berater diese Verstöße begehen, gibt es keine etablierten regulatorischen Rahmenbedingungen.“
Ein Aufruf zu Schutzmaßnahmen
Das Team der Brown University fordert die politischen Entscheidungsträger auf, rechtliche und ethische Rahmenbedingungen zu schaffen, die sich an der bestehenden Regulierung von Medizinprodukten orientieren – einschließlich Zertifizierungsverfahren, die denen der FDA-Prüfungen ähneln, obligatorische Aufsicht durch zugelassene Fachkräfte und strenge Beschränkungen für den KI-Einsatz bei gefährdeten Nutzern in Krisen. Solange solche Schutzmaßnahmen nicht vorhanden sind, warnen Experten, dass die Kluft zwischen dem, was die KI-Therapie verspricht, und dem, was sie sicher leisten kann, den Menschen, die am meisten Unterstützung benötigen, realen und messbaren Schaden zufügen kann.
Bleib auf dem Laufenden!
Folge uns auf Facebook für die neuesten Nachrichten und Artikel.
Folge uns auf Facebook