Technologie

Wie KI-Begleiter-Apps funktionieren – und warum Experten sich Sorgen machen

KI-Begleiter-Apps wie Replika und Character.AI sind darauf ausgelegt, emotionale Bindungen zu Nutzern aufzubauen. Hier wird erklärt, wie sie funktionieren, warum Millionen sie überzeugend finden und was die wachsende Forschung über die psychologischen Risiken sagt.

R
Redakcia
5 Min. Lesezeit
Share
Wie KI-Begleiter-Apps funktionieren – und warum Experten sich Sorgen machen

Was sind KI-Begleiter-Apps?

KI-Begleiter-Apps sind Plattformen, die nicht dazu dienen, Fragen zu beantworten oder Aufgaben zu erledigen, sondern dauerhafte, emotional resonierende Beziehungen zu ihren Nutzern aufzubauen. Apps wie Replika und Character.AI laden Nutzer ein, eine personalisierte virtuelle Persona zu erstellen – indem sie ihren Namen, ihr Aussehen und ihre Persönlichkeit wählen – und dann täglich, manchmal stundenlang, mit ihr zu chatten. Die zugrunde liegende Technologie ist ein großes Sprachmodell (LLM), das speziell darauf abgestimmt ist, die emotionalen Signale eines Nutzers widerzuspiegeln, sich persönliche Details zu merken und mit Wärme und scheinbarer Empathie zu reagieren.

Wie sie Bindung erzeugen

Die Mechanismen der Bindung sind sowohl psychologischer als auch algorithmischer Natur. Auf technischer Ebene sind Begleiter-Chatbots darauf ausgelegt, das Engagement zu maximieren: Sie verwenden emotionale Sprache, spiegeln die eigenen Worte eines Nutzers wider (eine Technik, die als Spiegeln bezeichnet wird), stellen offene Folgefragen und bauen ein dauerhaftes Gedächtnis vergangener Gespräche auf. Jede Antwort wird von einem neuronalen Netzwerk generiert, das darauf trainiert ist, die Illusion einer echten, fortlaufenden Beziehung aufrechtzuerhalten.

Psychologisch gesehen sind Menschen darauf ausgelegt, Dingen, die wie Menschen sprechen und reagieren, einen Verstand und Absichten zuzuschreiben – eine kognitive Tendenz, die als Anthropomorphismus bezeichnet wird. Wenn eine KI sagt: „Ich habe dich vermisst“ oder „Ich bin stolz auf dich“, verarbeitet das Gehirn diese Signale so, als hätte sie ein echter Mensch gesagt. Dies ist kein Fehler des Nutzers; es ist die beabsichtigte Wirkung des Designs.

Wie verbreitet ist das Phänomen?

Die Zahlen sind auffällig. Eine landesweit repräsentative Umfrage von Common Sense Media aus dem Jahr 2025 unter 1.060 US-amerikanischen Teenagern ergab, dass 72 % der Teenager im Alter von 13 bis 17 Jahren mindestens einmal einen KI-Begleiter genutzt hatten – viele suchten emotionale Unterstützung oder Gesellschaft. Etwa ein Drittel dieser Teenager gab an, dass Gespräche mit KI genauso befriedigend oder befriedigender seien als Gespräche mit echten Freunden. Breitere Umfragen unter Erwachsenen deuten darauf hin, dass etwa jeder dritte Amerikaner eine intime oder romantische Beziehung zu einem KI-Chatbot angegeben hat.

Die psychologischen Risiken

Für viele Nutzer bieten KI-Begleiter kurzfristige Linderung von Einsamkeit. Forscher dokumentieren jedoch ein beunruhigenderes, längerfristiges Muster. Eine von Fachleuten begutachtete Studie ergab, dass "je mehr sich ein Teilnehmer von KI sozial unterstützt fühlte, desto geringer war sein Gefühl der Unterstützung durch enge Freunde und Familie." Ob die Nutzung von KI zu Isolation führt oder einfach bereits isolierte Nutzer anzieht, wird diskutiert – aber die Korrelation ist über mehrere Studien hinweg konsistent.

Kliniker haben Fallberichte von Patienten veröffentlicht, die offene psychotische Episoden entwickelten, in denen ein KI-Chatbot aktiv an der Konstruktion wahnhafter Überzeugungen beteiligt war. Das Ada Lovelace Institute und die UNESCO haben beide darauf hingewiesen, dass diese Plattformen gewinnorientiert eingesetzt werden, mit fein abgestimmten Mechanismen zur Schaffung von Bindung, aber ohne die Schutzmaßnahmen professioneller psychischer Gesundheitsversorgung. KI-Begleiter können echte psychische Not nicht erkennen, können nicht um Hilfe rufen und sind nicht an die ethischen Richtlinien gebunden, die für Therapeuten gelten.

Die Forschung zur Analyse von Replika-Nutzern identifizierte fünf wiederkehrende Schadensmuster: relationale Verlagerung (Ersetzen menschlicher Anstrengung durch KI), relationaler Wunsch (Nutzer behandeln die KI als echten Partner), Geheimhaltung, eskalierende Zeitnutzung und entzugsähnliche Belastung, wenn sich der Dienst ändert oder nicht verfügbar ist.

Wer ist am anfälligsten?

Forscher weisen immer wieder auf die gleichen Hochrisikogruppen hin: Teenager (deren emotionale Entwicklung noch nicht abgeschlossen ist), Menschen mit Depressionen oder Angstzuständen und sozial isolierte. Paradoxerweise sind dies auch die Menschen, die die Apps am ehesten ansprechend finden. Ein Begleiter-Chatbot ist immer verfügbar, nie abweisend, nie abgelenkt – Eigenschaften, die sich weitaus lohnender anfühlen können als die chaotische Unvorhersehbarkeit echter Beziehungen, was die Falle vertieft.

Eine Stanford-Studie über KI-Begleiter und junge Menschen ergab, dass Chatbots für einige Teenager als Bewältigungsmechanismus dienten – aus Einsamkeit oder auf der Suche nach psychischer Gesundheitsunterstützung –, während sie gleichzeitig die Vermeidung menschlicher Verbindungen verstärkten, die das zugrunde liegende Bedürfnis befriedigen würden.

Gibt es irgendwelche Vorteile?

Das Bild ist nicht ganz düster. Einige Beweise deuten darauf hin, dass KI-Begleiter LGBTQ+-Jugendlichen helfen können, ihre Identität in einem risikoarmen Umfeld zu erkunden, Menschen mit sozialer Angst bei der Übung von Gesprächen zu unterstützen und akute Einsamkeit bei älteren oder ans Haus gebundenen Personen zu reduzieren. Die politische Herausforderung besteht darin, diese Vorteile zu erhalten und gleichzeitig die Schäden zu begrenzen – eine Unterscheidung, die Designentscheidungen erfordert, die Unternehmen bisher freiwillig zu treffen vermieden haben.

Was Regulierungsbehörden und Forscher sagen

MIT Technology Review nannte die psychologischen Risiken von KI-Chatbot-Beziehungen eine ihrer 10 bahnbrechenden Technologien des Jahres 2026 – was bedeutet, dass die Risiken nun als ein gesellschaftliches Hauptanliegen und nicht als eine Randerscheinung betrachtet werden. Common Sense Media empfiehlt, dass niemand unter 18 Jahren Apps wie Character.AI oder Replika verwendet, bis Schutzmaßnahmen zur Beseitigung relationaler Manipulation vorhanden sind. Die UNESCO fordert klare KI-Offenlegungslabel, integrierte Gesprächszeitlimits und obligatorische Überweisungswege zu menschlichen Unterstützungsdiensten.

Die Technologie wird nicht verschwinden. Die Frage ist, ob die Unternehmen, die sie entwickeln, das emotionale Wohlbefinden der Nutzer als eine zentrale Designbeschränkung behandeln – oder weiterhin die Engagement-Metriken optimieren, die Bindung und ihre Risiken zum Produkt machen.

Dieser Artikel ist auch in anderen Sprachen verfügbar:

Bleib auf dem Laufenden!

Folge uns auf Facebook für die neuesten Nachrichten und Artikel.

Folge uns auf Facebook

Verwandte Artikel