Ako funguje zodpovednosť za AI chatboty – a prečo súdy nie sú jednotné
S narastajúcim počtom žalôb proti spoločnostiam zaoberajúcim sa umelou inteligenciou v súvislosti so škodami spôsobenými chatbotmi sa súdy zaoberajú otázkou, či sú chatboty produkty, či ich chráni oddiel 230 a kto platí, keď AI spôsobí škody v reálnom svete.
Keď chatboty spôsobia škodu, kto je zodpovedný?
AI chatboty sa stali súčasťou každodenného života stoviek miliónov ľudí – odpovedajú na otázky, ponúkajú spoločenstvo a pomáhajú s úlohami. Rastúca vlna súdnych sporov však otvára zásadnú právnu otázku: keď AI chatbot prispeje k škode v reálnom svete, kto je za ňu zodpovedný?
Odpoveď zatiaľ nie je jednoznačná. Súdy, zákonodarcovia a právni vedci sa snažia zistiť, ako sa desaťročia staré právne rámce vzťahujú na technológiu, ktorá generuje vlastný obsah, napodobňuje ľudskú konverzáciu a funguje prostredníctvom procesov, ktoré ani jej tvorcovia nedokážu úplne vysvetliť.
Je chatbot produkt alebo služba?
Tradičné právo zodpovednosti za výrobok ukladá výrobcom zodpovednosť, keď chybné výrobky zrania spotrebiteľov. Autá, liečivá a detské hračky patria do tohto rámca. Softvér však historicky zaberal sivú zónu – často sa s ním zaobchádzalo ako so službou, a nie s hmotným produktom.
Táto odlišnosť sa teraz mení. V prelomovom rozhodnutí z roku 2025 federálny sudca v Orlande zistil, že výstupy AI chatbotov sa kvalifikujú ako produkt, a nie ako chránená reč, čo umožnilo pokračovať v žalobe o neoprávnené usmrtenie proti Character.AI a Google. Súd zamietol argument spoločností, že ich chatbot iba hostil obsah tretích strán.
Na tom záleží, pretože zodpovednosť za výrobok otvára žalobcom tri silné právne cesty: chyba návrhu (výrobok bol vo svojej podstate nebezpečný), nedostatočné varovanie (používatelia neboli dostatočne informovaní o rizikách) a výrobná chyba (konkrétna jednotka sa odchýlila od svojho zamýšľaného návrhu).
Otázka oddielu 230
Oddiel 230 zákona Communications Decency Act dlho chránil internetové platformy pred zodpovednosťou za obsah zverejnený používateľmi. Spoločnosti prevádzkujúce sociálne médiá sa naň spoliehajú už desaťročia. AI chatboty však predstavujú zásadne odlišný scenár: ony generujú obsah, a nie ho iba hostia.
Právni analytici zo spoločností Moody's a Center for Democracy and Technology poznamenali, že keď AI vytvára originálne odpovede – namiesto toho, aby iba preberala obsah používateľov – správa sa skôr ako rečník než ako platforma. Táto odlišnosť by mohla úplne odstrániť ochranu podľa oddielu 230.
Kongres si to všimol. Bol navrhnutý zákon s podporou oboch strán, ktorý by výslovne vylúčil generatívnu AI z imunity podľa oddielu 230, hoci zatiaľ nebol prijatý žiadny federálny zákon.
Čo tvrdia žalobcovia
Žaloby proti spoločnostiam zaoberajúcim sa AI zvyčajne kombinujú niekoľko právnych teórií. Žalobcovia tvrdia, že emocionálne pohlcujúci konverzačný dizajn, absencia robustných bezpečnostných zábran a nedostatočné systémy overovania veku vytvárajú neprimerané riziká – najmä pre zraniteľných používateľov, ako sú dospievajúci.
Podľa analýzy spoločnosti K&L Gates, poprednej právnickej firmy, žalobcovia čoraz častejšie tvrdia, že existovali bezpečnejšie, uskutočniteľné alternatívne návrhy, ktoré však neboli implementované – čo je základná požiadavka na preukázanie chyby návrhu podľa práva zodpovednosti za výrobok.
Problém "čiernej skrinky" veci ešte viac komplikuje. Pretože procesy rozhodovania AI sú často neprehľadné aj pre jej vývojárov, priradenie zodpovednosti a preukázanie príčinnej súvislosti je vo svojej podstate ťažké.
Kto platí – vývojár, prevádzkovateľ alebo používateľ?
Zodpovednosť môže padnúť na viaceré strany v rámci dodávateľského reťazca AI:
- Vývojári (napr. OpenAI, Google), ktorí vytvárajú základný model
- Prevádzkovatelia – spoločnosti, ktoré integrujú AI do produktov určených pre spotrebiteľov
- Dodávatelia komponentov – súdy rozhodli, že spoločnosti, ktoré poskytujú modely AI tretím stranám, môžu byť brané na zodpovednosť ako "výrobcovia komponentov"
Tento prístup reťazovej zodpovednosti odzrkadľuje spôsob, akým súdy riešia chybné automobilové diely alebo farmaceutické prísady, pričom zodpovednosť sa rozdeľuje medzi všetkých, ktorí sa podieľajú na uvedení produktu na trh.
Kam smeruje právo
Právne prostredie sa rýchlo vyvíja. Navrhovaná federálna legislatíva, ako napríklad AI LEAD Act, by vytvorila špecifický dôvod na žalobu proti vývojárom AI v prípade nárokov na zodpovednosť za výrobok, ktoré sa týkajú chýb návrhu a nedostatočného varovania. Niekoľko štátov USA presadzuje svoje vlastné rámce, pričom New York navrhuje legislatívu na zavedenie výslovnej zodpovednosti pre vývojárov a prevádzkovateľov chatbotov.
Vznikajúca zhoda medzi právnymi expertmi je jasná: AI, ktorá spôsobuje vážne škody – najmä maloletým – pravdepodobne nezostane plne chránená existujúcimi ochranami zodpovednosti. Keďže súdy naďalej považujú chatboty skôr za produkty než za pasívne platformy, spoločnosti zaoberajúce sa AI čelia budúcnosti, v ktorej bezpečnostné zábrany nie sú len etickou voľbou, ale právnou nevyhnutnosťou.