Technologia

Czym jest AGI i jak rozpoznamy, że nadeszło?

Sztuczna inteligencja ogólna (AGI) obiecuje maszyny, które myślą jak ludzie we wszystkich dziedzinach – ale naukowcy nie mogą się nawet zgodzić co do tego, co AGI oznacza, a tym bardziej jak to zmierzyć.

R
Redakcia
4 min czytania
Udostępnij
Czym jest AGI i jak rozpoznamy, że nadeszło?

Termin, którego wszyscy używają, ale nikt się z nim nie zgadza

Sztuczna inteligencja ogólna – AGI – stała się gwiazdą polarną branży technologicznej. Firmy od OpenAI po Google DeepMind i Nvidię pompują miliardy w dążenie do stworzenia maszyny, która dorównuje lub przewyższa ludzkie zdolności poznawcze w praktycznie każdym zadaniu. Jednak pod tym szumem kryje się fundamentalny problem: nikt nie zgadza się co do tego, co AGI właściwie oznacza, a bez wspólnej definicji twierdzenia o jej osiągnięciu pozostają niemożliwe do zweryfikowania.

Wąska AI kontra inteligencja ogólna

Każdy system AI używany obecnie – od asystentów głosowych po generatory obrazów i narzędzia do diagnostyki medycznej – jest klasyfikowany jako wąska AI (zwana również sztuczną inteligencją wąską, lub ANI). Systemy te doskonale radzą sobie z konkretnymi, dobrze zdefiniowanymi zadaniami, ale nie mogą przenosić swoich umiejętności do nowych dziedzin. Silnik szachowy, który pokonuje arcymistrzów, nie wie nic o języku; chatbot, który pisze poezję, nie potrafi prowadzić samochodu.

AGI, w przeciwieństwie do tego, byłaby systemem zdolnym do uczenia się, rozumowania i adaptacji w praktycznie wszystkich zadaniach poznawczych, które może wykonywać człowiek. Mógłby przeczytać akt prawny, zdiagnozować chorobę, skomponować symfonię i negocjować umowę biznesową – wszystko to bez specjalnego programowania do każdego zadania. Koncepcja ta powstała, aby opisać system o elastyczności ludzkiego umysłu, taki, który może wziąć niewielką ilość informacji i uogólnić ją na zupełnie nowe sytuacje.

Dlaczego definicja ma znaczenie

Stawka w definiowaniu AGI wykracza daleko poza akademicką debatę. Jak udokumentowało czasopismo Science, badacze z informatyki, kognitywistyki, polityki i etyki wnoszą zasadniczo różne rozumienie tej koncepcji. Niektórzy definiują AGI poprzez wyniki w testach porównawczych, inni poprzez wewnętrzne działanie, wpływ ekonomiczny lub – jak zauważają krytycy – po prostu przez „wibracje”.

Ta niejednoznaczność ma realne konsekwencje. W firmach takich jak OpenAI i Microsoft klauzule umowne i umowy o podziale zysków są powiązane z tym, czy AGI zostało oficjalnie osiągnięte. Jeśli definicja jest wystarczająco elastyczna, aby oznaczać cokolwiek, można ją wdrożyć strategicznie – lub przedwcześnie.

Ramy pomiaru postępu

Kilka organizacji próbowało narzucić strukturę temu chaosowi. Google DeepMind opublikował ramy „Poziomów AGI”, które definiują pięć poziomów wydajności – Wschodzący, Kompetentny, Ekspert, Wirtuoz i Nadczłowiek – skrzyżowanych z zakresem możliwości, od wąskiego (pojedyncza domena) do ogólnego (szerokie zadania poznawcze). „Kompetentna AGI” przewyższałaby 50% wykwalifikowanych dorosłych w szerokim zakresie zadań, podczas gdy „Nadczłowiecza AGI” przewyższałaby 100%.

Co ważne, DeepMind oddziela wydajność od autonomii, argumentując, że to, jak zdolny jest system i jak niezależnie działa, to dwa różne pytania, które należy oceniać oddzielnie.

OpenAI utrzymuje własną, wewnętrzną pięciopoziomową skalę do śledzenia postępów. Tymczasem testy porównawcze, takie jak ARC-AGI, próbują testować prawdziwe zdolności rozumowania, a nie zapamiętywanie wzorców – chociaż krytycy argumentują, że żaden pojedynczy test nie może ostatecznie udowodnić inteligencji ogólnej, tak jak żaden pojedynczy test IQ nie oddaje idealnie ludzkich zdolności poznawczych.

Dlaczego sceptycy się sprzeciwiają

Kognitywiści wskazują na głębszy problem: nauka nie ma rygorystycznej definicji „inteligencji ogólnej” nawet u ludzi. Inteligencja nie jest pojedynczą wartością, którą można zwiększać lub zmniejszać, ale złożoną integracją wyspecjalizowanych i ogólnych zdolności ukształtowanych przez ewolucję, kulturę i doświadczenie.

Jak donosi Scientific American, obecne systemy AI nadal halucynują fakty, mają trudności z nowym rozumowaniem i brakuje im prawdziwego zrozumienia w sposób, w jaki ludzie budują je poprzez doświadczenie życiowe. Niektórzy badacze, w tym Yann LeCun z Meta, argumentują, że inteligencja – nawet ludzka – jest zasadniczo wyspecjalizowana i zoptymalizowana pod kątem zadań, co sprawia, że sama koncepcja „inteligencji ogólnej” jest myląca.

Wymiar bezpieczeństwa

Niezależnie od tego, czy AGI nadejdzie wkrótce, dążenie do niej rodzi pilne pytania dotyczące bezpieczeństwa. Badacze ostrzegają przed problemem kontroli: jak zapewnić, że rekurencyjnie samodoskonalący się system nadal będzie zachowywał się w sposób zgodny z ludzkimi wartościami. Obawy sięgają od utraty miejsc pracy i manipulacji politycznych po, w skrajnym przypadku, ryzyko egzystencjalne.

Wielu ekspertów ds. bezpieczeństwa AI argumentuje, że fiksacja na AGI jako przyszłym kamieniu milowym odwraca uwagę od współczesnych szkód – algorytmicznych uprzedzeń, dezinformacji deepfake i erozji umiejętności krytycznego myślenia – które wymagają uwagi już teraz, niezależnie od tego, kiedy lub czy maszyny osiągną poziom poznawczy człowieka.

Ruchomy cel

Być może najuczciwsza ocena AGI jest taka, że pozostaje ona ruchomym celem. Za każdym razem, gdy AI opanowuje zadanie, które kiedyś uważano za wymagające inteligencji ogólnej – granie w Go, pisanie kodu, zdawanie egzaminów medycznych – poprzeczka przesuwa się. To, co kiedyś uważano za dowód AGI, staje się, z perspektywy czasu, po prostu kolejnym wąskim osiągnięciem. Dopóki naukowcy nie zgodzą się co do definicji, pytanie „Czy osiągnęliśmy AGI?” może mówić więcej o osobie odpowiadającej niż o samej technologii.

Ten artykuł jest dostępny także w innych językach:

Powiązane artykuły