Jak funguje lovení chyb pomocí umělé inteligence – a proč to mění bezpečnost
Modely umělé inteligence nyní dokážou autonomně prohledávat miliony řádků kódu a nacházet zranitelnosti, které lidé a tradiční nástroje desítky let přehlíželi. Podívejte se, jak tato technologie funguje a co to znamená pro kybernetickou bezpečnost.
Starý způsob hledání chyb
Kybernetičtí bezpečnostní experti se po desetiletí spoléhali na dvě hlavní metody hledání softwarových zranitelností: manuální revizi kódu a fuzzing. Manuální revize znamená, že lidský expert čte zdrojový kód řádek po řádku a hledá chyby. Je to důkladné, ale bolestně pomalé – zkušený auditor může zkontrolovat několik tisíc řádků denně v kódové základně, která obsahuje miliony.
Fuzzing používá odlišný přístup. Automatizované nástroje bombardují program náhodnými, chybnými nebo neočekávanými vstupy a doufají, že vyvolají pády, které odhalí skryté nedostatky. Služba OSS-Fuzz od Googlu, spuštěná v roce 2016, použila tuto techniku k nalezení více než 10 000 bezpečnostních zranitelností ve více než 1 000 open-source projektech. Ale i OSS-Fuzz dosahuje v průměru pouze asi 30% pokrytí kódu, takže obrovské úseky kódu zůstávají netestované.
Obě metody sdílejí zásadní omezení: mají potíže s logickými chybami – nedostatky, které nezpůsobují zjevné pády, ale umožňují útočníkům manipulovat s chováním programu jemnými, nebezpečnými způsoby.
Jak umělá inteligence mění hru
Hledání chyb pomocí umělé inteligence funguje jinak než tradiční nástroje. Místo toho, aby slepě házely náhodné vstupy do softwaru, moderní velké jazykové modely (LLM) mohou číst a rozumět kódu, uvažovat o tom, co má dělat, a vytvářet konkrétní hypotézy o tom, kde se mohou chyby skrývat. Poté vytvářejí cílené testovací případy navržené k potvrzení nebo vyvrácení těchto hypotéz.
To je důležité, protože přístup umělé inteligence kombinuje silné stránky, které byly dříve oddělené. Stejně jako lidský auditor, modely umělé inteligence rozumí logice a záměru programu. Stejně jako fuzzer, mohou pracovat strojovou rychlostí napříč obrovskými kódovými základnami. Výsledkem je systém, který zachytí chyby, které tradiční nástroje nedokážou.
Google demonstroval tento hybridní přístup integrací LLM do OSS-Fuzz. Umělá inteligence generuje fuzz cíle – specializované testovací funkce – pro nedostatečně testované části kódu. V jednom projektu, open-source XML parseru tinyxml2, testy generované umělou inteligencí zvýšily pokrytí kódu z 38 % na 69 % bez jakéhokoli manuálního zásahu. Zopakování tohoto výsledku ručně by vývojáři zabralo zhruba celý pracovní den – a je třeba pokrýt tisíce projektů.
Od fuzzingu k autonomnímu hackování
Nejnovější generace lovců chyb pomocí umělé inteligence jde daleko za hranice chytřejšího fuzzingu. Claude Mythos Preview od Anthropic, odhalený prostřednictvím iniciativy společnosti Project Glasswing, představuje zásadní změnu v schopnostech. Model dokáže autonomně plánovat vícestupňová vyšetřování, identifikovat nezveřejněné zranitelnosti, psát exploit kód a řetězit více chyb dohromady do úplných útočných cest – to vše bez lidského vedení.
Výsledky jsou ohromující. Mythos Preview odhalil tisíce zranitelností s vysokou závažností napříč všemi hlavními operačními systémy a webovými prohlížeči, podle Anthropic. Mezi objevy patří:
- 27 let stará chyba v OpenBSD, jednom z nejvíce bezpečnostně posílených operačních systémů, zneužitelná prostřednictvím jednoduchého síťového připojení
- 16 let stará chyba ve FFmpeg, široce používané knihovně pro zpracování videa, kterou automatizované testovací nástroje spustily pětkrát milionkrát, aniž by ji kdy zachytily
- Několik zřetězených zranitelností v jádře Linuxu umožňujících úplnou eskalaci oprávnění z běžného uživatelského přístupu na úplnou kontrolu nad systémem
Na benchmarku CyberGym pro reprodukci zranitelností dosáhl Mythos Preview skóre 83,1 %, ve srovnání s 66,6 % u svého předchozího modelu.
Obráncovo dilema
Hledání chyb pomocí umělé inteligence vytváří paradox, který kybernetická bezpečnostní komunita nazývá problém dvojího použití. Stejná schopnost, která pomáhá obráncům najít a opravit zranitelnosti, by mohla pomoci útočníkům je objevit a zneužít. Model, který je dostatečně výkonný na to, aby chránil každý operační systém, je také dostatečně výkonný na to, aby je kompromitoval.
Odpovědí společnosti Anthropic bylo omezení přístupu. Místo veřejného vydání Mythos Preview společnost spustila Project Glasswing jako uzavřený obranný program, sdílející model s více než 40 organizacemi, které budují nebo udržují kritickou softwarovou infrastrukturu. Společnost se zavázala poskytnout až 100 milionů dolarů v uživatelských kreditech a 4 miliony dolarů v přímých darech organizacím zabývajícím se zabezpečením open-source, aby podpořila toto úsilí.
Širší odvětví se ubírá podobným směrem. Microsoft, Google a další velké technologické společnosti integrují agenty umělé inteligence do svých bezpečnostních pracovních postupů – ne proto, aby nahradili lidské analytiky, ale aby zvládli obrovský objem kódu, který by žádný tým lidí nemohl ručně zkontrolovat.
Proč na tom záleží
Software, který provozuje moderní infrastrukturu – operační systémy, prohlížeče, šifrovací knihovny, serverové frameworky – obsahuje miliardy řádků kódu, z nichž velká část byla napsána před desítkami let. Tradiční metody se ukázaly jako nedostatečné k zabezpečení všeho. Hledání chyb pomocí umělé inteligence neodstraňuje potřebu kvalifikovaných bezpečnostních expertů, ale dramaticky rozšiřuje to, co je možné: skenování kódových základen v měřítku a hloubce, které byly dříve nepředstavitelné, a zachycování chyb, které přežily nezjištěny po celou generaci.
Nyní probíhá závod mezi obránci, kteří nasazují tyto nástroje k opravě zranitelností, a protivníky, kteří se snaží využít stejnou technologii k útoku. To, jak se tento závod bude vyvíjet, ovlivní bezpečnost digitální infrastruktury, na které je svět závislý.