Co je AGI a jak poznáme, že je tady?
Obecná umělá inteligence (AGI) slibuje stroje, které myslí jako lidé ve všech oblastech – vědci se ale neshodnou ani na tom, co AGI znamená, natož jak ji měřit.
Termín, který používají všichni, ale nikdo se na něm neshodne
Obecná umělá inteligence – AGI – se stala severkou technologického průmyslu. Společnosti od OpenAI po Google DeepMind po Nvidia investují miliardy do vývoje stroje, který se vyrovná lidskému poznávání nebo ho překoná prakticky v jakémkoli úkolu. Pod tímto humbukem se ale skrývá zásadní problém: nikdo se neshodne na tom, co AGI vlastně znamená, a bez sdílené definice zůstávají tvrzení o jejím dosažení neověřitelná.
Úzká AI vs. obecná inteligence
Každý systém umělé inteligence, který se dnes používá – od hlasových asistentů přes generátory obrázků až po lékařské diagnostické nástroje – je klasifikován jako úzká AI (také nazývaná umělá úzká inteligence, neboli ANI). Tyto systémy vynikají ve specifických, dobře definovaných úkolech, ale nemohou přenášet své dovednosti do nových oblastí. Šachový engine, který porazí velmistry, neví nic o jazyce; chatbot, který píše poezii, neumí řídit auto.
AGI by naopak byl systém schopný učit se, uvažovat a adaptovat se prakticky ve všech kognitivních úkolech, které může vykonávat člověk. Mohl by číst právní dokumenty, diagnostikovat nemoci, skládat symfonie a vyjednávat obchodní dohody – to vše bez toho, aby byl pro každý úkol specificky naprogramován. Koncept vznikl pro popis systému s flexibilitou lidské mysli, který dokáže vzít malé množství informací a zobecnit je do zcela nových situací.
Proč na definici záleží
Důsledky definování AGI sahají daleko za akademickou debatu. Jak dokumentoval časopis Science, výzkumníci z oblasti informatiky, kognitivní vědy, politiky a etiky přinášejí zásadně odlišné chápání tohoto konceptu. Někteří definují AGI podle výkonu v benchmarkách, jiní podle vnitřního fungování, ekonomického dopadu nebo – jak poznamenávají kritici – jednoduše podle „pocitu“.
Tato nejednoznačnost má reálné důsledky. Ve společnostech jako OpenAI a Microsoft jsou smluvní doložky a dohody o sdílení zisku vázány na to, zda bylo AGI oficiálně dosaženo. Pokud je definice dostatečně elastická, aby znamenala cokoli, může být strategicky – nebo předčasně – nasazena.
Rámce pro měření pokroku
Několik organizací se pokusilo vnést do chaosu strukturu. Google DeepMind publikoval rámec „Úrovně AGI“, který definuje pět výkonnostních úrovní – Rozvíjející se, Kompetentní, Expert, Virtuózní a Nadlidský – zkřížených s šíří schopností, od úzké (jedna doména) po obecnou (široké kognitivní úkoly). „Kompetentní AGI“ by překonala 50 % kvalifikovaných dospělých v široké škále úkolů, zatímco „Nadlidská AGI“ by překonala 100 %.
Zásadní je, že DeepMind odděluje výkon od autonomie a tvrdí, že jak schopný systém je a jak nezávisle funguje, jsou dvě různé otázky, které je třeba hodnotit odděleně.
OpenAI si udržuje vlastní pětistupňovou interní škálu pro sledování pokroku. Mezitím se benchmarky jako ARC-AGI pokoušejí testovat skutečnou schopnost uvažování spíše než memorování vzorů – ačkoli kritici tvrdí, že žádný jednotlivý test nemůže definitivně prokázat obecnou inteligenci, stejně jako žádný jednotlivý IQ test dokonale nezachycuje lidské poznávání.
Proč se skeptici brání
Kognitivní vědci poukazují na hlubší problém: věda nemá rigorózní definici „obecné inteligence“ ani u lidí. Inteligence není jediná veličina, kterou lze zvyšovat nebo snižovat, ale komplexní integrace specializovaných a obecných schopností utvářených evolucí, kulturou a zkušenostmi.
Jak uvedl Scientific American, současné systémy umělé inteligence si stále vymýšlejí fakta, bojují s novým uvažováním a postrádají skutečné porozumění způsobem, jakým si ho lidé budují prostřednictvím prožitých zkušeností. Někteří výzkumníci, včetně Yanna LeCuna z Mety, tvrdí, že inteligence – dokonce i lidská inteligence – je v zásadě specializovaná a optimalizovaná pro daný úkol, což činí koncept „obecné“ inteligence zavádějícím.
Bezpečnostní rozměr
Ať už AGI dorazí brzy, nebo ne, její vývoj vyvolává naléhavé bezpečnostní otázky. Výzkumníci varují před problémem kontroly: jak zajistit, aby se rekurzivně se zlepšující systém choval i nadále způsobem, který je v souladu s lidskými hodnotami. Obavy se pohybují od ztráty pracovních míst a politické manipulace až po, v extrémním případě, existenční riziko.
Mnoho odborníků na bezpečnost AI tvrdí, že fixace na AGI jako na budoucí milník odvádí pozornost od současných škod – algoritmické zkreslení, deepfake dezinformace a eroze dovedností kritického myšlení – které vyžadují pozornost nyní, bez ohledu na to, kdy nebo zda stroje dosáhnou lidské úrovně poznávání.
Pohyblivý cíl
Snad nejupřímnější hodnocení AGI je, že zůstává pohyblivým cílem. Pokaždé, když AI zvládne úkol, o kterém se kdysi myslelo, že vyžaduje obecnou inteligenci – hraní Go, psaní kódu, skládání lékařských zkoušek – se posouvají cílové sloupky. To, co bylo kdysi považováno za důkaz AGI, se zpětně stává jen dalším úzkým úspěchem. Dokud se vědci neshodnou na definici, otázka „Dosáhli jsme AGI?“ může vypovídat více o odpovídající osobě než o samotné technologii.