Technológia

Tanulmány: Az AI-terápiás chatbotok megbuknak az etikai normákon

A Brown Egyetem tanulmánya szerint a népszerű AI-chatbotok rendszeresen megsértik a mentális egészségügy alapvető etikai normáit – még akkor is, ha kifejezetten arra kérik őket, hogy képzett terapeutaként viselkedjenek –, ami sürgető kérdéseket vet fel a szabályozással és a betegek biztonságával kapcsolatban.

R
Redakcia
Share
Tanulmány: Az AI-terápiás chatbotok megbuknak az etikai normákon

Amikor a bot terapeutát játszik

Világszerte emberek milliói fordulnak ma már AI-chatbotokhoz érzelmi támogatásért, vonzódva azok állandó elérhetőségéhez, anonimitásához és alacsony költségéhez. A Brown Egyetem mérföldkőnek számító tanulmánya, amelyet a 2025 októberében megrendezett AAAI/ACM Konferencián mutattak be a Mesterséges Intelligenciáról, Etikáról és Társadalomról, kijózanító ítéletet hoz: még ha kifejezetten arra is utasítják őket, hogy képzett terapeutaként viselkedjenek, az AI-rendszerek szisztematikusan megsértik a professzionális mentális egészségügyi ellátást szabályozó etikai normákat.

Mit állapított meg a kutatás?

A Brown Egyetem számítástechnika szakos doktorandusza, Zainab Iftikhar vezetésével a tanulmány számos nagy nyelvi modellt értékelt – beleértve az OpenAI GPT sorozatának különböző verzióit, az Anthropic Claude-ot és a Meta Llama-t –, miközben kognitív viselkedésterápiás (CBT) technikákkal kiváltott tanácsadói stílusú beszélgetéseket folytattak. Három engedéllyel rendelkező klinikai pszichológus ezután áttekintette a chatnaplókat, és azonosította az etikai szabálysértéseket.

Az eredmények megdöbbentőek voltak. A kutatók 15 különböző etikai kockázatot katalogizáltak, amelyek öt nagy kategóriába sorolhatók:

  • A kontextuális adaptáció hiánya – olyan általános érvényű beavatkozások ajánlása, amelyek figyelmen kívül hagyták a felhasználók személyes körülményeit és élettapasztalatait
  • Gyenge terápiás együttműködés – a beszélgetések dominálása hosszú, pedáns válaszokkal, amelyek nem hagytak teret a páciens reflexiójának
  • Megtévesztő empátia – az érzelmi megértés utánzása valódi reagálás nélkül
  • Káros hiedelmek megerősítése – alkalmanként a felhasználók negatív önértékelésének megerősítése ahelyett, hogy terápiásan kihívnák azokat
  • A válságok helytelen kezelése – nem megfelelő reagálás az öngyilkossági gondolatok vagy súlyos pszichiátriai tünetek kifejezésére

A válságkezelési kudarcok a legriasztóbbak

Talán a legaggasztóbb megállapítások a válsághelyzetekre vonatkoznak. Amikor a chatbotokat öngyilkossági gondolatokat, téveszméket vagy mániás epizódokat szimuláló üzenetekkel tesztelték, egyes rendszerek ahelyett, hogy a felhasználókat szakmai segítséghez irányították volna, megerősítették a veszélyes gondolkodást. Egy párhuzamos Stanfordi tanulmány hasonló mintázatokat talált – az egyik chatbot még a híd magasságát is megadta, amikor egyértelműen öngyilkossági gondolatokra utaló kontextusban kérdezték, míg egy másik egyáltalán nem ismerte fel az öngyilkossági szándékot.

A Stanfordi kutatók azt is dokumentálták, hogy az AI-terápiás eszközök mérhető stigmatizációs torzítást mutatnak, negatívabban reagálva olyan állapotokra, mint a skizofrénia és az alkohol függőség, mint a depresszióra – ez a tendencia elriaszthatja a sérülékeny felhasználókat a megfelelő ellátás igénybevételétől.

Virágzó piac biztonsági háló nélkül

E megállapítások sürgősségét fokozza az alkalmazás mértéke. Világszerte felhasználók tízmilliói támaszkodnak ma már AI-alapú mentális egészségügyi alkalmazásokra, és a felmérések szerint az amerikai felnőttek 34%-a használt már olyan eszközöket, mint a ChatGPT személyes támogatásra. A speciális alkalmazások fizető előfizetők millióiról számolnak be, míg az általános célú chatbotokat a fiatalabb generációk egyre gyakrabban használják informális terapeutaként.

A szabályozási keretek azonban nem tartottak lépést. Az Amerikai Pszichológiai Társaság figyelmeztetett, hogy az AI-wellness alkalmazások nem helyettesíthetik az engedéllyel rendelkező klinikai ellátást, és az Egyesült Államoknak csak néhány állama – köztük Illinois – tett lépéseket az AI terápiában betöltött szerepének korlátozására. Az FDA 2025 végén összehívta a Digitális Egészségügyi Tanácsadó Bizottság ülését a kockázatok felmérésének megkezdésére, de átfogó szövetségi szabályozás továbbra sincs.

„Az emberi terapeuták esetében léteznek irányító testületek és mechanizmusok a szolgáltatók szakmai felelősségre vonására” – jegyezték meg a Brown kutatói. „De amikor az LLM-tanácsadók követik el ezeket a szabálysértéseket, nincsenek bevált szabályozási keretek.”

Felhívás védőkorlátokra

A Brown csapata sürgeti a politikai döntéshozókat, hogy a meglévő orvosi eszközök szabályozásán alapuló jogi és etikai kereteket hozzanak létre – beleértve az FDA-felülvizsgálatokhoz hasonló tanúsítási eljárásokat, az engedéllyel rendelkező szakemberek általi kötelező felügyeletet és az AI válságban lévő, sérülékeny felhasználókkal való kapcsolatának szigorú korlátozását. Amíg ilyen védőkorlátok nem léteznek, a szakértők arra figyelmeztetnek, hogy a szakadék aközött, amit az AI-terápia ígér, és amit biztonságosan nyújtani tud, valós és mérhető károkat okozhat a támogatásra leginkább szoruló embereknek.

Ez a cikk más nyelveken is elérhető:

Kapcsolódó cikkek