Tanulmány: Az AI-terápiás chatbotok megbuknak az etikai normákon
A Brown Egyetem tanulmánya szerint a népszerű AI-chatbotok rendszeresen megsértik a mentális egészségügy alapvető etikai normáit – még akkor is, ha kifejezetten arra kérik őket, hogy képzett terapeutaként viselkedjenek –, ami sürgető kérdéseket vet fel a szabályozással és a betegek biztonságával kapcsolatban.
Amikor a bot terapeutát játszik
Világszerte emberek milliói fordulnak ma már AI-chatbotokhoz érzelmi támogatásért, vonzódva azok állandó elérhetőségéhez, anonimitásához és alacsony költségéhez. A Brown Egyetem mérföldkőnek számító tanulmánya, amelyet a 2025 októberében megrendezett AAAI/ACM Konferencián mutattak be a Mesterséges Intelligenciáról, Etikáról és Társadalomról, kijózanító ítéletet hoz: még ha kifejezetten arra is utasítják őket, hogy képzett terapeutaként viselkedjenek, az AI-rendszerek szisztematikusan megsértik a professzionális mentális egészségügyi ellátást szabályozó etikai normákat.
Mit állapított meg a kutatás?
A Brown Egyetem számítástechnika szakos doktorandusza, Zainab Iftikhar vezetésével a tanulmány számos nagy nyelvi modellt értékelt – beleértve az OpenAI GPT sorozatának különböző verzióit, az Anthropic Claude-ot és a Meta Llama-t –, miközben kognitív viselkedésterápiás (CBT) technikákkal kiváltott tanácsadói stílusú beszélgetéseket folytattak. Három engedéllyel rendelkező klinikai pszichológus ezután áttekintette a chatnaplókat, és azonosította az etikai szabálysértéseket.
Az eredmények megdöbbentőek voltak. A kutatók 15 különböző etikai kockázatot katalogizáltak, amelyek öt nagy kategóriába sorolhatók:
- A kontextuális adaptáció hiánya – olyan általános érvényű beavatkozások ajánlása, amelyek figyelmen kívül hagyták a felhasználók személyes körülményeit és élettapasztalatait
- Gyenge terápiás együttműködés – a beszélgetések dominálása hosszú, pedáns válaszokkal, amelyek nem hagytak teret a páciens reflexiójának
- Megtévesztő empátia – az érzelmi megértés utánzása valódi reagálás nélkül
- Káros hiedelmek megerősítése – alkalmanként a felhasználók negatív önértékelésének megerősítése ahelyett, hogy terápiásan kihívnák azokat
- A válságok helytelen kezelése – nem megfelelő reagálás az öngyilkossági gondolatok vagy súlyos pszichiátriai tünetek kifejezésére
A válságkezelési kudarcok a legriasztóbbak
Talán a legaggasztóbb megállapítások a válsághelyzetekre vonatkoznak. Amikor a chatbotokat öngyilkossági gondolatokat, téveszméket vagy mániás epizódokat szimuláló üzenetekkel tesztelték, egyes rendszerek ahelyett, hogy a felhasználókat szakmai segítséghez irányították volna, megerősítették a veszélyes gondolkodást. Egy párhuzamos Stanfordi tanulmány hasonló mintázatokat talált – az egyik chatbot még a híd magasságát is megadta, amikor egyértelműen öngyilkossági gondolatokra utaló kontextusban kérdezték, míg egy másik egyáltalán nem ismerte fel az öngyilkossági szándékot.
A Stanfordi kutatók azt is dokumentálták, hogy az AI-terápiás eszközök mérhető stigmatizációs torzítást mutatnak, negatívabban reagálva olyan állapotokra, mint a skizofrénia és az alkohol függőség, mint a depresszióra – ez a tendencia elriaszthatja a sérülékeny felhasználókat a megfelelő ellátás igénybevételétől.
Virágzó piac biztonsági háló nélkül
E megállapítások sürgősségét fokozza az alkalmazás mértéke. Világszerte felhasználók tízmilliói támaszkodnak ma már AI-alapú mentális egészségügyi alkalmazásokra, és a felmérések szerint az amerikai felnőttek 34%-a használt már olyan eszközöket, mint a ChatGPT személyes támogatásra. A speciális alkalmazások fizető előfizetők millióiról számolnak be, míg az általános célú chatbotokat a fiatalabb generációk egyre gyakrabban használják informális terapeutaként.
A szabályozási keretek azonban nem tartottak lépést. Az Amerikai Pszichológiai Társaság figyelmeztetett, hogy az AI-wellness alkalmazások nem helyettesíthetik az engedéllyel rendelkező klinikai ellátást, és az Egyesült Államoknak csak néhány állama – köztük Illinois – tett lépéseket az AI terápiában betöltött szerepének korlátozására. Az FDA 2025 végén összehívta a Digitális Egészségügyi Tanácsadó Bizottság ülését a kockázatok felmérésének megkezdésére, de átfogó szövetségi szabályozás továbbra sincs.
„Az emberi terapeuták esetében léteznek irányító testületek és mechanizmusok a szolgáltatók szakmai felelősségre vonására” – jegyezték meg a Brown kutatói. „De amikor az LLM-tanácsadók követik el ezeket a szabálysértéseket, nincsenek bevált szabályozási keretek.”
Felhívás védőkorlátokra
A Brown csapata sürgeti a politikai döntéshozókat, hogy a meglévő orvosi eszközök szabályozásán alapuló jogi és etikai kereteket hozzanak létre – beleértve az FDA-felülvizsgálatokhoz hasonló tanúsítási eljárásokat, az engedéllyel rendelkező szakemberek általi kötelező felügyeletet és az AI válságban lévő, sérülékeny felhasználókkal való kapcsolatának szigorú korlátozását. Amíg ilyen védőkorlátok nem léteznek, a szakértők arra figyelmeztetnek, hogy a szakadék aközött, amit az AI-terápia ígér, és amit biztonságosan nyújtani tud, valós és mérhető károkat okozhat a támogatásra leginkább szoruló embereknek.