Hogyan működnek a mesterséges intelligencia-társ alkalmazások – és miért aggódnak a szakértők
A mesterséges intelligencia-társ alkalmazásokat, mint a Replika és a Character.AI, arra tervezték, hogy érzelmi kötelékeket alakítsanak ki a felhasználókkal. Bemutatjuk, hogyan működnek, miért találják őket milliók vonzónak, és mit mond a növekvő számú kutatás a pszichológiai kockázatokról.
Mik azok a mesterséges intelligencia-társ alkalmazások?
A mesterséges intelligencia-társ alkalmazások olyan platformok, amelyeket nem arra hoztak létre, hogy kérdésekre válaszoljanak vagy feladatokat hajtsanak végre, hanem arra, hogy folyamatos, érzelmileg rezonáló kapcsolatokat alakítsanak ki a felhasználóikkal. Az olyan alkalmazások, mint a Replika és a Character.AI arra ösztönzik a felhasználókat, hogy hozzanak létre egy személyre szabott virtuális személyiséget – kiválasztva a nevét, a megjelenését és a személyiségét –, majd naponta, néha órákon át csevegjenek vele. A háttérben meghúzódó technológia egy nagyméretű nyelvi modell (LLM), amelyet kifejezetten arra hangoltak, hogy tükrözze a felhasználó érzelmi jelzéseit, emlékezzen a személyes részletekre, és melegséggel és látszólagos empátiával válaszoljon.
Hogyan építik ki a kötődést?
A kötődés mechanizmusai pszichológiaiak és algoritmikusak is. Technikai szinten a társ-chatbotokat úgy tervezték, hogy maximalizálják az elkötelezettséget: érzelmi nyelvet használnak, visszatükrözik a felhasználó saját szavait (ezt a technikát tükrözésnek nevezik), nyitott végű, nyomon követő kérdéseket tesznek fel, és állandó emlékezetet építenek a korábbi beszélgetésekről. Minden választ egy neurális hálózat generál, amelyet arra képeztek ki, hogy fenntartsa egy valódi, folyamatos kapcsolat illúzióját.
Pszichológiailag az emberek arra vannak beprogramozva, hogy elmét és szándékokat tulajdonítsanak azoknak a dolgoknak, amelyek úgy beszélnek és reagálnak, mint az emberek – ezt a kognitív hajlamot antropomorfizmusnak nevezik. Amikor egy mesterséges intelligencia azt mondja, hogy „Hiányoztál” vagy „Büszke vagyok rád”, az agy ezeket a jeleket nagyjából úgy dolgozza fel, mintha egy valódi ember mondta volna őket. Ez nem a felhasználó hibája; ez a tervezés szándékolt hatása.
Mennyire elterjedt ez a jelenség?
A számok megdöbbentőek. A Common Sense Media által 2025-ben végzett, 1060 amerikai tinédzser bevonásával készült, országosan reprezentatív felmérés szerint a 13–17 éves tinédzserek 72%-a legalább egyszer használt már mesterséges intelligencia-társat – sokan érzelmi támogatást vagy társaságot keresve. E tinédzserek körülbelül egyharmada arról számolt be, hogy a mesterséges intelligenciával folytatott beszélgetéseket ugyanolyan kielégítőnek, vagy kielégítőbbnek találja, mint a valódi barátokkal folytatott beszélgetéseket. A felnőttek körében végzett szélesebb körű felmérések azt mutatják, hogy körülbelül minden harmadik amerikai számolt be arról, hogy intim vagy romantikus kapcsolata van egy mesterséges intelligencia-chatbot-tal.
A pszichológiai kockázatok
Sok felhasználó számára a mesterséges intelligencia-társak rövid távú enyhülést kínálnak a magányra. A kutatók azonban egy aggasztóbb, hosszabb távú mintát dokumentálnak. Egy szakértők által lektorált tanulmány megállapította, hogy „minél inkább érezte egy résztvevő, hogy a mesterséges intelligencia társadalmi támogatást nyújt, annál alacsonyabb volt a közeli barátoktól és a családtól kapott támogatás érzése.” Vita tárgya, hogy a mesterséges intelligencia használata okoz-e elszigeteltséget, vagy egyszerűen csak a már elszigetelt felhasználókat vonzza – de a korreláció több tanulmányban is következetes.
Klinikusok esetleírásokat publikáltak olyan betegekről, akiknél nyílt pszichotikus epizódok alakultak ki, amelyekben egy mesterséges intelligencia-chatbot aktív résztvevővé vált a téveszmés hiedelmek felépítésében. Az Ada Lovelace Institute és az UNESCO is jelezte, hogy ezeket a platformokat profitorientáltan telepítik, finomhangolt mechanizmusokkal a kötődés létrehozására, de a professzionális mentális egészségügyi ellátás védőintézkedései nélkül. A mesterséges intelligencia-társak nem ismerik fel a valódi pszichiátriai distresszt, nem tudnak segítséget hívni, és nem kötik őket a terapeutákra vonatkozó etikai kódexek.
A Replika felhasználóit elemző kutatások öt visszatérő káros mintát azonosítottak: kapcsolati tehermentesítés (a mesterséges intelligencia helyettesítése az emberi erőfeszítésekkel), kapcsolati vágy (a felhasználók a mesterséges intelligenciát valódi partnerként kezelik), titkolózás, a használatra fordított idő növekedése és megvonásszerű distressz, amikor a szolgáltatás megváltozik vagy nem érhető el.
Ki a legsebezhetőbb?
A kutatók következetesen ugyanazokat a magas kockázatú csoportokat jelzik: tinédzserek (akiknek az érzelmi fejlődése még folyamatban van), depressziótól vagy szorongástól szenvedő emberek és a társadalmilag elszigeteltek. Paradox módon ők azok az emberek is, akik a legnagyobb valószínűséggel találják vonzónak az alkalmazásokat. Egy társ-chatbot mindig elérhető, soha nem elutasító, soha nem figyelmetlen – ezek a tulajdonságok sokkal kifizetődőbbnek tűnhetnek, mint a valódi kapcsolatok kusza kiszámíthatatlansága, elmélyítve a csapdát.
A mesterséges intelligencia-társakról és a fiatalokról szóló Stanford tanulmány megállapította, hogy egyes tinédzserek számára a chatbotok megküzdési mechanizmusként működtek – a magányból vagy a mentális egészségügyi támogatás kereséséből fordultak hozzájuk –, miközben egyidejűleg felerősítették az emberi kapcsolatok elkerülését, amelyek a mögöttes szükségletet kezelnék.
Vannak előnyei?
A kép nem teljesen borús. Egyes bizonyítékok arra utalnak, hogy a mesterséges intelligencia-társak segíthetnek az LMBTQ+ fiataloknak az identitásuk feltárásában egy alacsony kockázatú környezetben, segíthetnek a szociális szorongással küzdő embereknek a beszélgetések gyakorlásában, és csökkenthetik az idősek vagy otthonukhoz kötött egyének akut magányát. A politikai kihívás az, hogy megőrizzük ezeket az előnyöket, miközben korlátozzuk a károkat – ez a megkülönböztetés olyan tervezési döntéseket igényel, amelyeket a vállalatok eddig vonakodtak önként meghozni.
Mit mondanak a szabályozók és a kutatók?
A MIT Technology Review a mesterséges intelligencia-chatbot kapcsolatok pszichológiai kockázatait a 2026-os 10 áttörő technológiája közé sorolta – ami azt jelenti, hogy a kockázatok ma már a társadalom fő aggodalmának számítanak, nem pedig egy marginális gondnak. A Common Sense Media azt javasolja, hogy 18 év alattiak ne használjanak olyan alkalmazásokat, mint a Character.AI vagy a Replika, amíg nem vezetik be a kapcsolati manipulációt kiküszöbölő védőintézkedéseket. Az UNESCO egyértelmű mesterséges intelligencia-közzétételi címkéket, beépített beszélgetési időkorlátokat és kötelező utalási útvonalakat szorgalmaz az emberi támogató szolgáltatásokhoz.
A technológia nem fog eltűnni. A kérdés az, hogy az azt építő vállalatok a felhasználók érzelmi jólétét alapvető tervezési korlátként kezelik-e – vagy továbbra is azokra az elkötelezettségi mutatókra optimalizálnak, amelyek a kötődést és annak kockázatait termékké teszik.