Technologia

Jak działa polowanie na błędy z wykorzystaniem sztucznej inteligencji – i dlaczego zmienia to bezpieczeństwo

Modele AI mogą teraz autonomicznie skanować miliony linii kodu i znajdować luki, które umknęły ludziom i tradycyjnym narzędziom przez dziesięciolecia. Oto jak działa ta technologia i co oznacza dla cyberbezpieczeństwa.

R
Redakcia
4 min czytania
Udostępnij
Jak działa polowanie na błędy z wykorzystaniem sztucznej inteligencji – i dlaczego zmienia to bezpieczeństwo

Stare metody znajdowania błędów

Przez dziesięciolecia badacze cyberbezpieczeństwa polegali na dwóch głównych metodach znajdowania luk w oprogramowaniu: ręcznej analizie kodu i fuzzingu. Ręczna analiza oznacza, że ekspert czyta kod źródłowy linia po linii, szukając błędów. Jest to dokładne, ale boleśnie powolne – wykwalifikowany audytor może przejrzeć kilka tysięcy linii dziennie w bazie kodu, która zawiera miliony.

Fuzzing przyjmuje inne podejście. Zautomatyzowane narzędzia bombardują program losowymi, nieprawidłowymi lub nieoczekiwanymi danymi wejściowymi, mając nadzieję na wywołanie awarii, które ujawnią ukryte wady. Usługa OSS-Fuzz Google, uruchomiona w 2016 roku, wykorzystała tę technikę do znalezienia ponad 10 000 luk w zabezpieczeniach w ponad 1000 projektach open-source. Ale nawet OSS-Fuzz osiąga średnio tylko około 30% pokrycia kodu, pozostawiając ogromne obszary kodu nieprzetestowane.

Obie metody mają fundamentalne ograniczenie: zmagają się z błędami logicznymi – wadami, które nie powodują oczywistych awarii, ale pozwalają atakującym manipulować zachowaniem programu w subtelny, niebezpieczny sposób.

Jak AI zmienia zasady gry

Polowanie na błędy z wykorzystaniem sztucznej inteligencji działa inaczej niż tradycyjne narzędzia. Zamiast ślepo wrzucać losowe dane wejściowe do oprogramowania, nowoczesne duże modele językowe (LLM) mogą czytać i rozumieć kod, rozumować o tym, co ma robić, i formułować konkretne hipotezy na temat tego, gdzie mogą się ukrywać błędy. Następnie tworzą ukierunkowane przypadki testowe zaprojektowane w celu potwierdzenia lub obalenia tych hipotez.

Ma to znaczenie, ponieważ podejście AI łączy mocne strony, które wcześniej były oddzielne. Podobnie jak ludzki audytor, modele AI rozumieją logikę i intencje programu. Podobnie jak fuzzer, mogą działać z prędkością maszyny w ogromnych bazach kodu. Rezultatem jest system, który wychwytuje błędy, których tradycyjne narzędzia nie mogą.

Google zademonstrował to hybrydowe podejście, integrując LLM z OSS-Fuzz. AI generuje cele fuzzingu – specjalistyczne funkcje testowe – dla niedostatecznie przetestowanych sekcji kodu. W jednym projekcie, parserze XML open-source tinyxml2, testy generowane przez AI zwiększyły pokrycie kodu z 38% do 69% bez żadnej ręcznej interwencji. Powtórzenie tego wyniku ręcznie zajęłoby programiście mniej więcej cały dzień roboczy – a do pokrycia są tysiące projektów.

Od fuzzingu do autonomicznego hakowania

Najnowsza generacja narzędzi AI do polowania na błędy wykracza daleko poza inteligentniejszy fuzzing. Claude Mythos Preview firmy Anthropic, ujawniony w ramach inicjatywy Project Glasswing, stanowi przełom w możliwościach. Model może autonomicznie planować wieloetapowe dochodzenia, identyfikować nieujawnione luki, pisać kod wykorzystujący luki i łączyć wiele wad w pełne ścieżki ataku – wszystko bez ludzkiego nadzoru.

Wyniki są uderzające. Mythos Preview odkrył tysiące luk o wysokim stopniu ważności we wszystkich głównych systemach operacyjnych i przeglądarkach internetowych, według Anthropic. Wśród odkryć:

  • 27-letni błąd w OpenBSD, jednym z najbardziej zabezpieczonych systemów operacyjnych, możliwy do wykorzystania przez proste połączenie sieciowe
  • 16-letnia wada w FFmpeg, powszechnie używanej bibliotece do przetwarzania wideo, którą zautomatyzowane narzędzia testujące wywołały pięć milionów razy, ale nigdy nie wychwyciły
  • Wiele połączonych luk w jądrze Linuxa umożliwiających pełną eskalację uprawnień od zwykłego dostępu użytkownika do pełnej kontroli nad systemem

Na benchmarku CyberGym do reprodukcji luk, Mythos Preview uzyskał wynik 83,1%, w porównaniu do 66,6% dla swojego poprzednika.

Dylemat obrońcy

Polowanie na błędy z wykorzystaniem AI tworzy paradoks, który społeczność cyberbezpieczeństwa nazywa problemem podwójnego zastosowania. Ta sama zdolność, która pomaga obrońcom znajdować i łatać luki, może pomóc atakującym w ich odkrywaniu i wykorzystywaniu. Model wystarczająco potężny, aby chronić każdy system operacyjny, jest również wystarczająco potężny, aby go naruszyć.

Odpowiedzią Anthropic było ograniczenie dostępu. Zamiast publicznie udostępniać Mythos Preview, firma uruchomiła Project Glasswing jako zamknięty program obronny, udostępniając model ponad 40 organizacjom, które budują lub utrzymują krytyczną infrastrukturę oprogramowania. Firma zobowiązała się do przekazania do 100 milionów dolarów w kredytach na użytkowanie i 4 milionów dolarów w bezpośrednich darowiznach na rzecz organizacji zajmujących się bezpieczeństwem open-source, aby wesprzeć te wysiłki.

Szersza branża zmierza w podobnym kierunku. Microsoft, Google i inne duże firmy technologiczne integrują agentów AI ze swoimi procesami bezpieczeństwa – nie po to, aby zastąpić ludzkich analityków, ale po to, aby poradzić sobie z ogromną ilością kodu, której żaden zespół ludzi nie mógłby przejrzeć ręcznie.

Dlaczego to ma znaczenie

Oprogramowanie, które obsługuje nowoczesną infrastrukturę – systemy operacyjne, przeglądarki, biblioteki szyfrujące, frameworki serwerowe – zawiera miliardy linii kodu, z których wiele zostało napisanych dziesiątki lat temu. Tradycyjne metody okazały się niewystarczające, aby je wszystkie zabezpieczyć. Polowanie na błędy z wykorzystaniem AI nie eliminuje potrzeby wykwalifikowanych badaczy bezpieczeństwa, ale radykalnie rozszerza to, co jest możliwe: skanowanie baz kodu w skali i głębi, które wcześniej były niewyobrażalne, i wychwytywanie wad, które przetrwały niezauważone przez pokolenie.

Trwa wyścig między obrońcami wdrażającymi te narzędzia do łatania luk a przeciwnikami, którzy chcą wykorzystać tę samą technologię do ataku. To, jak potoczy się ten wyścig, ukształtuje bezpieczeństwo infrastruktury cyfrowej, od której zależy świat.

Ten artykuł jest dostępny także w innych językach:

Powiązane artykuły