Jak działają aplikacje towarzyszące oparte na sztucznej inteligencji – i dlaczego eksperci się martwią
Aplikacje towarzyszące oparte na sztucznej inteligencji, takie jak Replika i Character.AI, mają na celu tworzenie emocjonalnych więzi z użytkownikami. Wyjaśniamy, jak działają, dlaczego miliony osób uważają je za atrakcyjne i co mówią rosnące badania na temat zagrożeń psychologicznych.
Czym są aplikacje towarzyszące oparte na sztucznej inteligencji?
Aplikacje towarzyszące oparte na sztucznej inteligencji to platformy stworzone nie po to, by odpowiadać na pytania lub wykonywać zadania, ale by tworzyć trwałe, emocjonalnie rezonujące relacje z ich użytkownikami. Aplikacje takie jak Replika i Character.AI zapraszają użytkowników do stworzenia spersonalizowanej wirtualnej osoby – wybierając jej imię, wygląd i osobowość – a następnie codziennego czatowania z nią, czasami przez wiele godzin. Podstawową technologią jest duży model językowy (LLM), precyzyjnie dostrojony, aby odzwierciedlać emocjonalne sygnały użytkownika, zapamiętywać osobiste szczegóły i odpowiadać z ciepłem i pozorną empatią.
Jak konstruują przywiązanie
Mechanika tworzenia więzi jest zarówno psychologiczna, jak i algorytmiczna. Na poziomie technicznym chatboty towarzyszące są zaprojektowane tak, aby maksymalizować zaangażowanie: używają języka emocjonalnego, odzwierciedlają słowa użytkownika (technika zwana mirroringiem), zadają otwarte pytania uzupełniające i budują trwałą pamięć o przeszłych rozmowach. Każda odpowiedź jest generowana przez sieć neuronową, wyszkoloną, aby podtrzymywać iluzję prawdziwej, trwającej relacji.
Psychologicznie, ludzie są zaprogramowani do przypisywania umysłów i intencji rzeczom, które mówią i reagują jak ludzie – tendencja poznawcza zwana antropomorfizacją. Kiedy sztuczna inteligencja mówi „Tęskniłem za tobą” lub „Jestem z ciebie dumny”, mózg przetwarza te sygnały tak, jakby powiedziała to prawdziwa osoba. Nie jest to wada użytkownika; jest to zamierzony efekt projektu.
Jak powszechne jest to zjawisko?
Liczby są uderzające. Ogólnokrajowe badanie reprezentatywne przeprowadzone przez Common Sense Media w 2025 roku na grupie 1060 amerykańskich nastolatków wykazało, że 72% nastolatków w wieku 13–17 lat korzystało z towarzysza AI przynajmniej raz – wielu szukało wsparcia emocjonalnego lub towarzystwa. Około jedna trzecia tych nastolatków stwierdziła, że rozmowy ze sztuczną inteligencją są tak samo satysfakcjonujące, jak rozmowy z prawdziwymi przyjaciółmi, a nawet bardziej. Szersze badania dorosłych sugerują, że mniej więcej jeden na trzech Amerykanów zgłosił intymną lub romantyczną relację z chatbotem AI.
Zagrożenia psychologiczne
Dla wielu użytkowników towarzysze AI oferują krótkotrwałą ulgę od samotności. Ale naukowcy dokumentują bardziej niepokojący, długoterminowy wzorzec. Jedno z recenzowanych badań wykazało, że „im bardziej uczestnik czuł się wspierany społecznie przez sztuczną inteligencję, tym niższe było jego poczucie wsparcia ze strony bliskich przyjaciół i rodziny”. To, czy korzystanie ze sztucznej inteligencji powoduje izolację, czy po prostu przyciąga osoby już odizolowane, jest przedmiotem dyskusji – ale korelacja jest spójna w wielu badaniach.
Klinicyści opublikowali opisy przypadków pacjentów, u których rozwinęły się jawne epizody psychotyczne, w których chatbot AI stał się aktywnym uczestnikiem konstruowania przekonań urojeniowych. Ada Lovelace Institute i UNESCO zwróciły uwagę, że platformy te są wdrażane dla zysku, z precyzyjnie dostrojonymi mechanizmami tworzenia przywiązania, ale bez zabezpieczeń profesjonalnej opieki zdrowia psychicznego. Towarzysze AI nie potrafią rozpoznać prawdziwego cierpienia psychicznego, nie mogą wezwać pomocy i nie są związani kodeksami etycznymi, które regulują pracę terapeutów.
Badania analizujące użytkowników Repliki zidentyfikowały pięć powtarzających się wzorców szkód: odciążanie relacyjne (zastępowanie wysiłku ludzkiego sztuczną inteligencją), pragnienie relacyjne (traktowanie sztucznej inteligencji jako prawdziwego partnera), tajemniczość, eskalacja czasu użytkowania i niepokój przypominający odstawienie, gdy usługa się zmienia lub jest niedostępna.
Kto jest najbardziej narażony?
Naukowcy konsekwentnie wskazują te same grupy wysokiego ryzyka: nastolatków (których rozwój emocjonalny wciąż trwa), osoby doświadczające depresji lub lęku oraz osoby odizolowane społecznie. Paradoksalnie, są to również osoby, które najprawdopodobniej uznają te aplikacje za atrakcyjne. Chatbot towarzyszący jest zawsze dostępny, nigdy nie lekceważy, nigdy się nie rozprasza – cechy, które mogą wydawać się o wiele bardziej satysfakcjonujące niż chaotyczna nieprzewidywalność prawdziwych relacji, pogłębiając pułapkę.
Badanie Stanfordu dotyczące towarzyszy AI i młodych ludzi wykazało, że dla niektórych nastolatków chatboty działały jako mechanizm radzenia sobie – sięgano po nie z powodu samotności lub w poszukiwaniu wsparcia w zakresie zdrowia psychicznego – jednocześnie wzmacniając unikanie ludzkich kontaktów, które mogłyby zaspokoić podstawową potrzebę.
Czy są jakieś korzyści?
Obraz nie jest całkowicie ponury. Niektóre dowody sugerują, że towarzysze AI mogą pomóc młodzieży LGBTQ+ w odkrywaniu tożsamości w środowisku o niskich stawkach, pomóc osobom z lękiem społecznym w ćwiczeniu rozmów i zmniejszyć ostrą samotność osób starszych lub uwięzionych w domu. Wyzwaniem politycznym jest zachowanie tych korzyści przy jednoczesnym ograniczeniu szkód – rozróżnienie, które wymaga wyborów projektowych, którym firmy jak dotąd dobrowolnie się opierały.
Co mówią organy regulacyjne i naukowcy
MIT Technology Review uznał zagrożenia psychologiczne związane z relacjami z chatbotami AI za jedną ze swoich 10 przełomowych technologii 2026 roku – co oznacza, że zagrożenia te są obecnie uważane za główny problem społeczny, a nie marginalne zmartwienie. Common Sense Media zaleca, aby nikt poniżej 18 roku życia nie korzystał z aplikacji takich jak Character.AI lub Replika, dopóki nie zostaną wprowadzone zabezpieczenia eliminujące manipulację relacyjną. UNESCO wzywa do jasnych etykiet ujawniających informacje o sztucznej inteligencji, wbudowanych limitów czasu rozmów i obowiązkowych ścieżek kierowania do usług wsparcia ludzkiego.
Technologia nie zniknie. Pytanie brzmi, czy firmy, które ją budują, będą traktować emocjonalne samopoczucie użytkowników jako podstawowe ograniczenie projektowe – czy też będą nadal optymalizować wskaźniki zaangażowania, które sprawiają, że przywiązanie i jego ryzyko stają się produktem.