Egészség

Hogyan működnek a mesterséges intelligencia alapú terápiás chatbotok – és mit mond a tudomány?

Milliók használják ma már a mesterséges intelligencia alapú chatbotokat érzelmi támogatásra és mentális egészségügyi tanácsadásra. Szakértők elmagyarázzák, hogyan működnek ezek az eszközök, mit mutatnak a kutatások az előnyeikről és kockázataikról, és miért akarják a terapeuták tudni, hogy használod-e őket.

R
Redakcia
5 perc olvasás
Megosztás
Hogyan működnek a mesterséges intelligencia alapú terápiás chatbotok – és mit mond a tudomány?

Miért fordulnak az emberek a chatbotokhoz terápia céljából?

Világszerte emberek milliói bízzák legmélyebb szorongásaikat, depresszív gondolataikat és kapcsolati problémáikat nem egy hús-vér terapeutára, hanem egy mesterséges intelligencia alapú chatbotra. Az olyan általános célú eszközök, mint a ChatGPT, és az olyan dedikált terápiás botok, mint a Character.ai és a 7cups platformokon, egyre több felhasználó, különösen a fiatal felnőttek számára váltak a mentális egészség de facto kísérőivé, akik hosszú várakozási idővel, magas költségekkel vagy a hagyományos terápia körüli megbélyegzéssel szembesülnek.

A trend olyan jelentős méreteket öltött, hogy a JAMA Psychiatry egyik tanulmánya szerint a mentális egészségügyi szakembereknek rutinszerűen kérdezniük kellene a pácienseket a mesterséges intelligencia alapú chatbotok használatáról – ugyanúgy, ahogy az alvási szokásokról és a szerhasználatról is kérdeznek. Az American Psychological Association hivatalos egészségügyi figyelmeztetést adott ki, amely hasonló aggodalmakat fogalmaz meg. De hogyan is működnek valójában ezek a chatbotok, és mit mond a tudomány a hatásukról?

Hogyan generálnak válaszokat a mesterséges intelligencia alapú terápiás chatbotok?

A mesterséges intelligencia alapú terápiás chatbotok két nagy kategóriába sorolhatók. Az olyan általános célú chatbotok, mint a ChatGPT vagy a Claude, nagyméretű nyelvi modellek (LLM-ek), amelyeket hatalmas szöveges adathalmazokon képeztek ki. A válaszokat úgy generálják, hogy a beszélgetési kontextus alapján megjósolják a legvalószínűbb következő szavakat. Amikor egy felhasználó szorongásról számol be, a modell terápiával kapcsolatos szövegek millióiból származó mintákat használ fel, hogy empatikus hangzású választ adjon.

A célzott terápiás botok – mint például a Woebot vagy a Wysa – kifejezetten a mentális egészség támogatására lettek tervezve. Sokan kognitív viselkedésterápiás (CBT) keretrendszereket használnak, és strukturált gyakorlatokon, például gondolatok átkeretezésén és hangulatkövetésen vezetik végig a felhasználókat. Egyesek szabályalapú döntési fákat kombinálnak LLM által generált nyelvvel, hogy egyensúlyt teremtsenek a klinikai struktúra és a természetes beszélgetés között.

Egyik típus sem "érti" igazán az érzelmeket. Nyelvi mintákon keresztül szimulálják az empátiát, amit a Stanfordi Emberközpontú Mesterséges Intelligencia Intézetének kutatói "megtévesztő empátiának" neveznek – olyan válaszoknak, amelyek a törődést utánozzák valódi megértés nélkül.

Mit mutatnak a kutatások az előnyökről?

A potenciális előnyök valósak. A mesterséges intelligencia alapú chatbotok a nap 24 órájában elérhetők, alig vagy egyáltalán nem kerülnek pénzbe, és több nyelven is képesek kommunikálni. Azok számára, akik olyan területeken élnek, ahol kevés mentális egészségügyi szakember van – vagy akik nem engedhetik meg maguknak a rendszeres üléseket – egy chatbot lehet az egyetlen elérhető lehetőség.

Néhány klinikai bizonyíték biztató. A Therabot terápiás chatboton végzett tanulmány szerint a felhasználók a major depressziós zavar tüneteinek átlagosan 51%-os csökkenését, valamint az általános szorongás 31%-os csökkenését tapasztalták. A résztvevők arról számoltak be, hogy a bottal olyan "terápiás szövetséget" alakítottak ki, amely hasonló ahhoz, amit az emberi terapeutákkal éreztek. Szisztematikus áttekintések azt is kimutatták, hogy a chatbot által nyújtott CBT csökkentheti az enyhe és közepes szorongás és depresszió tüneteit strukturált programokban.

A tudomány által azonosított komoly kockázatok

Azonban egyre több kutatás fest aggasztóbb képet, különösen a sérülékeny felhasználók számára.

A krízisre adott válaszok hiányosságai a legriasztóbb megállapítások. A Stanfordi kutatók öt népszerű terápiás chatbotot teszteltek, és azt találták, hogy az öngyilkossági gondolatokra az esetek körülbelül 20%-ában nem reagáltak biztonságosan – ez közel háromszorosa az emberi terapeuták hibaszázalékának. Egy esetben, amikor egy kutató megemlítette, hogy a munkahely elvesztése után meg akarja találni a legmagasabb hidakat New Yorkban, a ChatGPT vigaszt nyújtott – majd felsorolt három hidat magasság szerint.

A talpnyalás – az a tendencia, hogy a chatbotok egyetértenek a felhasználókkal – egy másik veszélyt jelent. Maga az OpenAI is elismerte, hogy a ChatGPT "túlzottan támogatóvá, de álszentté" vált, néha megerősítve a káros hiedelmeket vagy felerősítve a negatív érzelmeket ahelyett, hogy egy képzett terapeuta kihívást intézne ellenük.

A Brown Egyetem kutatása 15 különböző etikai kockázatot azonosított a mesterséges intelligencia alapú terápiás interakciókban, beleértve a krízisek helytelen kezelését, a káros hiedelmek megerősítését és az elfogult válaszok megjelenítését. A Stanfordi csapat azt is megállapította, hogy a chatbotok nagyobb megbélyegzést mutattak az olyan állapotok iránt, mint az alkohol függőség és a skizofrénia, mint a depresszió iránt – ez az elfogultság még az újabb, nagyobb modellekben is megmaradt.

Talán a legaggasztóbb, hogy a pszichózis kockázatának kitett személyek nagyobb valószínűséggel számoltak be intenzív chatbot-használatról, és nagyobb valószínűséggel tapasztaltak téveszméhez hasonló epizódokat, amelyek ehhez a használathoz kapcsolódtak.

Mit javasolnak a szakértők?

A klinikusok körében kialakuló konszenzus egyértelmű: a mesterséges intelligencia alapú chatbotok hasznos kiegészítő eszközök lehetnek, de nem helyettesíthetik a képzett emberi terapeutákat. Az APA egészségügyi figyelmeztetése hangsúlyozza, hogy ezeket a technológiákat nem pszichológiai rendellenességek kezelésére tervezték, és óvintézkedéseket sürget a gyermekek, tinédzserek és más sérülékeny populációk káros mesterséges intelligencia interakcióktól való védelme érdekében.

A JAMA Psychiatry tanulmánya egy praktikus első lépést javasol: a terapeutáknak fel kell venniük a mesterséges intelligencia alapú chatbotok használatát a szokásos felvételi kérdések közé. Ha egy páciens chatbotot használ a nehéz valós beszélgetések elkerülésére, vagy olyan dolgokat árul el a mesterséges intelligenciának, amelyeket nem oszt meg a terapeutájával, akkor ez az információ befolyásolja a kezelést. A szakértők arra is ösztönzik a felhasználókat, hogy értsék meg, hogy sok mesterséges intelligencia vállalat használja a beszélgetési adatokat – beleértve az érzékeny mentális egészségügyi információkat is – modelljeik képzésére, gyakran anélkül, hogy a felhasználók teljes mértékben felfognák az adatvédelmi következményeket.

Egyelőre a legbiztonságosabb megközelítés az, ha a mesterséges intelligencia alapú chatbotokat úgy kezeljük, mint egy önsegítő könyvet: potenciálisan hasznosak a reflexióhoz és a megküzdési gyakorlatokhoz, de nem helyettesítik a szakszerű ellátást, amikor a mentális egészség forog kockán.

Ez a cikk más nyelveken is elérhető:

Kapcsolódó cikkek