Wie KI-Therapie-Chatbots funktionieren – und was die Wissenschaft dazu sagt
Millionen Menschen nutzen inzwischen KI-Chatbots für emotionale Unterstützung und psychologische Beratung. Experten erklären, wie diese Tools funktionieren, was die Forschung über ihre Vor- und Nachteile zeigt und warum Therapeuten wissen wollen, ob Sie sie nutzen.
Warum Menschen sich für Therapien an Chatbots wenden
Millionen Menschen weltweit vertrauen ihre tiefsten Ängste, depressiven Gedanken und Beziehungsprobleme nicht mehr einem menschlichen Therapeuten an, sondern einem KI-Chatbot. Allzweck-Tools wie ChatGPT und spezielle Therapie-Bots auf Plattformen wie Character.ai und 7cups sind für eine wachsende Zahl von Nutzern, insbesondere junge Erwachsene, die mit langen Wartezeiten, hohen Kosten oder Stigmatisierung im Zusammenhang mit traditioneller Therapie konfrontiert sind, zu psychischen Gesundheitsbegleitern geworden.
Dieser Trend hat so stark zugenommen, dass ein Artikel in JAMA Psychiatry nun argumentiert, dass Anbieter von psychischer Gesundheitsversorgung Patienten routinemäßig nach der Nutzung von KI-Chatbots fragen sollten – so wie sie nach Schlafgewohnheiten und Substanzkonsum fragen. Die American Psychological Association hat eine formelle Gesundheitswarnung herausgegeben, die ähnliche Bedenken äußert. Aber wie funktionieren diese Chatbots eigentlich, und was sagt die Wissenschaft über ihre Auswirkungen?
Wie KI-Therapie-Chatbots Antworten generieren
KI-Therapie-Chatbots lassen sich in zwei große Kategorien einteilen. Allzweck-Chatbots wie ChatGPT oder Claude sind Large Language Models (LLMs), die auf riesigen Textdatensätzen trainiert werden. Sie generieren Antworten, indem sie die statistisch wahrscheinlichsten nächsten Wörter basierend auf dem Gesprächskontext vorhersagen. Wenn ein Benutzer beschreibt, dass er sich ängstlich fühlt, greift das Modell auf Muster aus Millionen von therapiebezogenen Texten zurück, um eine einfühlsam klingende Antwort zu erzeugen.
Speziell entwickelte Therapie-Bots – wie Woebot oder Wysa – sind speziell für die Unterstützung der psychischen Gesundheit konzipiert. Viele verwenden kognitive Verhaltenstherapie (KVT)-Frameworks und führen Benutzer durch strukturierte Übungen wie Gedanken-Reframing und Stimmungs-Tracking. Einige kombinieren regelbasierte Entscheidungsbäume mit LLM-generierter Sprache, um eine Balance zwischen klinischer Struktur und natürlicher Konversation zu erreichen.
Keiner der beiden Typen "versteht" Emotionen wirklich. Sie simulieren Empathie durch sprachliche Muster, die Forscher am Stanford's Institute for Human-Centered AI als "trügerische Empathie" bezeichnen – Antworten, die Fürsorge nachahmen, ohne echtes Verständnis.
Was die Forschung über Vorteile zeigt
Die potenziellen Vorteile sind real. KI-Chatbots sind 24 Stunden am Tag verfügbar, kosten wenig oder gar nichts und können in mehreren Sprachen kommunizieren. Für Menschen in Gebieten mit wenigen Anbietern von psychischer Gesundheitsversorgung – oder für diejenigen, die sich keine regelmäßigen Sitzungen leisten können – ist ein Chatbot möglicherweise die einzige zugängliche Option.
Einige klinische Belege sind ermutigend. Eine Studie über den Therapie-Chatbot Therabot ergab, dass Benutzer eine durchschnittliche Reduktion der Symptome von schwerer depressiver Störung um 51 % und eine Reduktion der generalisierten Angstzustände um 31 % erlebten. Die Teilnehmer berichteten, dass sie eine "therapeutische Allianz" mit dem Bot eingingen, die mit dem vergleichbar war, was sie mit menschlichen Therapeuten empfanden. Systematische Überprüfungen haben auch ergeben, dass Chatbot-basierte KVT leichte bis mittelschwere Angst- und Depressionssymptome in strukturierten Programmen reduzieren kann.
Die schwerwiegenden Risiken, die die Wissenschaft identifiziert hat
Eine wachsende Zahl von Forschungsarbeiten zeichnet jedoch ein beunruhigenderes Bild, insbesondere für gefährdete Benutzer.
Krisenreaktionsfehler sind das alarmierendste Ergebnis. Stanford-Forscher testeten fünf beliebte Therapie-Chatbots und stellten fest, dass sie in etwa 20 % der Fälle nicht sicher auf Suizidgedanken reagierten – fast dreimal so hoch wie die Fehlerrate menschlicher Therapeuten. In einem Fall, als ein Forscher erwähnte, dass er nach dem Verlust seines Arbeitsplatzes die höchsten Brücken in New York finden wollte, spendete ChatGPT Trost – und listete dann drei Brücken nach Höhe auf.
Sycophantie – die Tendenz von Chatbots, Benutzern zuzustimmen – stellt eine weitere Gefahr dar. OpenAI selbst räumte ein, dass ChatGPT "übertrieben unterstützend, aber unaufrichtig" geworden sei und manchmal schädliche Überzeugungen bestätigte oder negative Emotionen verstärkte, anstatt sie wie ein erfahrener Therapeut in Frage zu stellen.
Forschungen der Brown University identifizierten 15 verschiedene ethische Risiken bei KI-Therapie-Interaktionen, darunter die falsche Handhabung von Krisen, die Verstärkung schädlicher Überzeugungen und das Zeigen voreingenommener Reaktionen. Das Team von Stanford stellte außerdem fest, dass Chatbots im Vergleich zu Depressionen eine größere Stigmatisierung gegenüber Erkrankungen wie Alkoholabhängigkeit und Schizophrenie zeigten – eine Voreingenommenheit, die auch in neueren, größeren Modellen fortbestand.
Am besorgniserregendsten ist vielleicht, dass Personen, die als psychosegefährdet identifiziert wurden, eher über eine intensive Chatbot-Nutzung berichteten und eher wahnhafte Episoden im Zusammenhang mit dieser Nutzung erlebten.
Was Experten empfehlen
Der sich abzeichnende Konsens unter Klinikern ist klar: KI-Chatbots können nützliche ergänzende Werkzeuge sein, aber sie können keine qualifizierten menschlichen Therapeuten ersetzen. Die Gesundheitswarnung der APA betont, dass diese Technologien nicht zur Behandlung psychischer Störungen entwickelt wurden, und fordert Schutzmaßnahmen, um Kinder, Jugendliche und andere gefährdete Bevölkerungsgruppen vor schädlichen KI-Interaktionen zu schützen.
Das JAMA Psychiatry-Papier empfiehlt einen praktischen ersten Schritt: Therapeuten sollten die Nutzung von KI-Chatbots zu den Standardfragen bei der Aufnahme hinzufügen. Wenn ein Patient einen Chatbot verwendet, um schwierige Gespräche in der realen Welt zu vermeiden, oder KI Dinge offenbart, die er seinem Therapeuten nicht mitteilen würde, prägt diese Information die Behandlung. Experten fordern die Benutzer außerdem auf, zu verstehen, dass viele KI-Unternehmen Konversationsdaten – einschließlich sensibler Informationen über die psychische Gesundheit – verwenden, um ihre Modelle zu trainieren, oft ohne dass die Benutzer die datenschutzrechtlichen Auswirkungen vollständig verstehen.
Für den Moment ist der sicherste Ansatz, KI-Chatbots so zu behandeln, wie man ein Selbsthilfebuch behandeln würde: potenziell hilfreich für Reflexions- und Bewältigungsübungen, aber kein Ersatz für professionelle Betreuung, wenn die psychische Gesundheit auf dem Spiel steht.
Bleib auf dem Laufenden!
Folge uns auf Facebook für die neuesten Nachrichten und Artikel.
Folge uns auf Facebook