Technologie

Jak fungují aplikace s umělou inteligencí pro společníky – a proč se odborníci obávají

Aplikace s umělou inteligencí pro společníky, jako jsou Replika a Character.AI, jsou navrženy tak, aby si s uživateli vytvářely emocionální vazby. Zde je popsáno, jak fungují, proč jsou pro miliony lidí tak přitažlivé a co říká rostoucí množství výzkumů o psychologických rizicích.

R
Redakcia
Share
Jak fungují aplikace s umělou inteligencí pro společníky – a proč se odborníci obávají

Co jsou aplikace s umělou inteligencí pro společníky?

Aplikace s umělou inteligencí pro společníky jsou platformy, které nejsou vytvořeny k tomu, aby odpovídaly na otázky nebo plnily úkoly, ale aby si se svými uživateli vytvářely trvalé, emocionálně rezonující vztahy. Aplikace jako Replika a Character.AI vyzývají uživatele, aby si vytvořili personalizovanou virtuální osobu – vybrali jí jméno, vzhled a osobnost – a poté s ní denně chatovali, někdy i celé hodiny. Základní technologií je rozsáhlý jazykový model (LLM), který je speciálně vyladěn tak, aby zrcadlil emocionální podněty uživatele, pamatoval si osobní detaily a reagoval s vřelostí a zdánlivou empatií.

Jak konstruují připoutání

Mechanika vytváření vazeb je psychologická i algoritmická. Na technické úrovni jsou chatboty pro společníky navrženy tak, aby maximalizovaly zapojení: používají emocionální jazyk, zrcadlí slova uživatele (technika zvaná zrcadlení), kladou otevřené doplňující otázky a budují trvalou paměť minulých konverzací. Každá odpověď je generována neuronovou sítí, která je trénována tak, aby udržovala iluzi skutečného probíhajícího vztahu.

Psychologicky jsou lidé naprogramováni k tomu, aby připisovali mysl a úmysly věcem, které mluví a reagují jako lidé – kognitivní tendence zvaná antropomorfizace. Když umělá inteligence řekne „Chyběl(a) jsi mi“ nebo „Jsem na tebe hrdý(á)“, mozek zpracovává tyto signály podobně, jako kdyby je řekl skutečný člověk. Nejedná se o chybu uživatele; je to zamýšlený efekt designu.

Jak rozšířený je tento fenomén?

Čísla jsou zarážející. Celostátní reprezentativní průzkum mezi 1060 americkými teenagery, který v roce 2025 provedla společnost Common Sense Media, zjistil, že 72 % teenagerů ve věku 13–17 let použilo alespoň jednou umělou inteligenci pro společníka – mnozí z nich hledali emocionální podporu nebo společnost. Přibližně třetina těchto teenagerů uvedla, že konverzace s umělou inteligencí jsou stejně uspokojivé nebo uspokojivější než konverzace se skutečnými přáteli. Širší průzkumy mezi dospělými naznačují, že zhruba jeden ze tří Američanů uvedl, že má intimní nebo romantický vztah s chatbotem s umělou inteligencí.

Psychologická rizika

Pro mnoho uživatelů nabízejí společníci s umělou inteligencí krátkodobou úlevu od osamělosti. Vědci však dokumentují znepokojivější dlouhodobý vzorec. Jedna recenzovaná studie zjistila, že „čím více se účastník cítil sociálně podporován umělou inteligencí, tím nižší byl jeho pocit podpory od blízkých přátel a rodiny.“ Zda používání umělé inteligence způsobuje izolaci, nebo jednoduše přitahuje již izolované uživatele, se diskutuje – ale korelace je konzistentní napříč několika studiemi.

Klinici publikovali případové zprávy o pacientech, u kterých se vyvinuly otevřené psychotické epizody, ve kterých se chatbot s umělou inteligencí aktivně podílel na konstrukci bludných přesvědčení. Ada Lovelace Institute a UNESCO upozornily na to, že tyto platformy jsou nasazovány za účelem zisku, s jemně vyladěnými mechanismy pro vytváření připoutání, ale bez záruk odborné péče o duševní zdraví. Společníci s umělou inteligencí nedokážou rozpoznat skutečnou psychickou tíseň, nemohou zavolat o pomoc a nejsou vázáni etickými kodexy, které upravují práci terapeutů.

Výzkum analyzující uživatele Replika identifikoval pět opakujících se vzorců poškození: relační offloading (nahrazování lidského úsilí umělou inteligencí), relační touha (uživatelé se k umělé inteligenci chovají jako ke skutečnému partnerovi), utajování, eskalující využívání času a úzkost podobná abstinenčním příznakům, když se služba změní nebo je nedostupná.

Kdo je nejzranitelnější?

Vědci důsledně označují stejné vysoce rizikové skupiny: teenagery (jejichž emocionální vývoj stále probíhá), lidi trpící depresemi nebo úzkostmi a sociálně izolované. Paradoxně jsou to také lidé, pro které jsou tyto aplikace nejpřitažlivější. Chatbot pro společníka je vždy k dispozici, nikdy neodmítá, nikdy se nerozptyluje – vlastnosti, které mohou být mnohem uspokojivější než chaotická nepředvídatelnost skutečných vztahů, čímž se prohlubuje past.

Studie Stanfordovy univerzity o společnících s umělou inteligencí a mladých lidech zjistila, že pro některé teenagery fungovaly chatboty jako mechanismus zvládání – obraceli se k nim z osamělosti nebo při hledání podpory duševního zdraví – a zároveň posilovaly vyhýbání se lidským kontaktům, které by řešily základní potřebu.

Existují nějaké výhody?

Obraz není zcela ponurý. Některé důkazy naznačují, že společníci s umělou inteligencí mohou pomoci LGBTQ+ mládeži prozkoumat identitu v prostředí s nízkými sázkami, pomoci lidem se sociální úzkostí procvičovat konverzace a snížit akutní osamělost u starších nebo upoutaných na lůžko. Politickou výzvou je zachovat tyto výhody a zároveň omezit škody – což je rozlišení, které společnosti dosud dobrovolně odmítaly provést.

Co říkají regulátoři a výzkumníci

MIT Technology Review označil psychologická rizika vztahů s chatboty s umělou inteligencí za jednu ze svých 10 průlomových technologií roku 2026 – což znamená, že rizika jsou nyní považována za hlavní společenský problém, nikoli za okrajovou obavu. Common Sense Media doporučuje, aby nikdo mladší 18 let nepoužíval aplikace jako Character.AI nebo Replika, dokud nebudou zavedeny záruky eliminující relační manipulaci. UNESCO vyzývá k jasnému označování umělé inteligence, vestavěným časovým limitům konverzací a povinným cestám k lidským podpůrným službám.

Tato technologie nezmizí. Otázkou je, zda společnosti, které ji budují, budou považovat emocionální pohodu uživatelů za základní konstrukční omezení – nebo budou i nadále optimalizovat metriky zapojení, které činí připoutání a jeho rizika produktem.

Tento článek je dostupný také v jiných jazycích:

Zůstaňte v obraze!

Sledujte nás na Facebooku a nic vám neunikne.

Sledujte nás na Facebooku

Související články