Jak działają deepfake'i tworzone przez sztuczną inteligencję – i dlaczego tak trudno je powstrzymać
Deepfake'i generowane przez sztuczną inteligencję potrafią w ciągu kilku minut zamieniać twarze, fabrykować głosy i tworzyć intymne obrazy prawdziwych osób bez ich zgody. Wyjaśniamy, jak działa ta technologia, dlaczego wykrywanie pozostaje wyścigiem zbrojeń i jakie nowe przepisy prawne próbują temu zaradzić.
Czym jest deepfake?
Deepfake to zdjęcie, nagranie wideo lub audio, które zostało sfabrykowane lub zmanipulowane przy użyciu sztucznej inteligencji, aby wyglądało na autentyczne. Termin ten łączy „deep learning” (uczenie głębokie) – technikę AI stojącą za tą technologią – ze słowem „fake” (fałszywka). O ile wczesne deepfake'i wymagały znacznej mocy obliczeniowej i wiedzy specjalistycznej, o tyle dziś każdy, kto ma smartfona, może wygenerować przekonujące fałszywe zdjęcie w kilka sekund, korzystając z bezpłatnych aplikacji.
Technologia ta ma uzasadnione zastosowania kreatywne – od odrestaurowywania starych nagrań filmowych po dubbingowanie aktorów w różnych językach. Stała się jednak również potężnym narzędziem oszustw, manipulacji politycznych i wykorzystywania seksualnego.
Jak powstają deepfake'i
Większość deepfake'ów opiera się na jednej z dwóch podstawowych architektur AI: Generative Adversarial Networks (GANs), czyli generatywnych sieciach antagonistycznych, lub modelach dyfuzyjnych.
GAN to układ dwóch sieci neuronowych, które rywalizują ze sobą. Generator tworzy fałszywe obrazy, a dyskryminator próbuje je wykryć. W ciągu tysięcy cykli treningowych generator uczy się tworzyć obrazy na tyle przekonujące, by oszukać swojego przeciwnika – a co za tym idzie, ludzkie oko. Modele dyfuzyjne, które napędzają narzędzia takie jak Stable Diffusion i DALL-E, działają inaczej: uczą się stopniowo usuwać losowy szum z obrazu, aż wyłoni się realistyczny obraz, kierowany tekstem lub obrazem.
W przypadku deepfake'ów z zamianą twarzy, AI jest trenowana na setkach lub tysiącach zdjęć osoby docelowej – często pobieranych z mediów społecznościowych. Następnie mapuje geometrię jej twarzy na inne ciało lub zastępuje twarz innej osoby w istniejącym nagraniu. Tak zwane „aplikacje do rozbierania” pobierają ubrane zdjęcie prawdziwej osoby i generują jej nagie zdjęcie bez jej wiedzy i zgody.
Skala problemu
Liczby są oszałamiające. Według danych zebranych przez badaczy bezpieczeństwa, liczba zgłoszeń dotyczących materiałów przedstawiających wykorzystywanie seksualne dzieci, generowanych przez AI, wzrosła o 1325% w latach 2023–2024, przy czym tylko w 2024 roku do National Center for Missing and Exploited Children (Narodowego Centrum ds. Zaginionych i Wykorzystywanych Dzieci) wpłynęło ponad 67 000 zgłoszeń – w porównaniu z zaledwie 4700 w roku poprzednim. Badanie przeprowadzone przez Center for Countering Digital Hate (Centrum Przeciwdziałania Cyfrowej Nienawiści) wykazało, że jeden generator obrazów AI wyprodukował około trzech milionów seksualnych obrazów w niecałe dwa tygodnie, w tym dziesiątki tysięcy przedstawiających osoby nieletnie.
Szkody wykraczają daleko poza wykorzystywanie seksualne. Oszustwa finansowe z wykorzystaniem deepfake'ów wzrosły dziesięciokrotnie w 2024 roku, kosztując firmy w Ameryce Północnej ponad 200 milionów dolarów w ciągu jednego kwartału. Oszuści mogą sklonować głos danej osoby z zaledwie trzech sekund nagrania audio i wykorzystać go do podszywania się pod dyrektorów, rodziców lub urzędników państwowych. Badanie z 2025 roku wykazało, że tylko 0,1% osób potrafiło poprawnie zidentyfikować wszystkie fałszywe i prawdziwe media pokazane im w teście.
Dlaczego wykrywanie jest tak trudne
Narzędzia do wykrywania – które wykorzystują sztuczną inteligencję do wyszukiwania charakterystycznych oznak manipulacji, takich jak nienaturalne mruganie, niedopasowanie oświetlenia lub anomalie tekstury skóry – są uwikłane w nieustanny wyścig zbrojeń z twórcami deepfake'ów. Wraz z poprawą detektorów, generatory są przekwalifikowywane, aby je pokonać. Naukowcy z Alan Turing Institute ostrzegają, że dokładność wykrywania gwałtownie spada, gdy deepfake jest tworzony przy użyciu innej metody niż ta, która została użyta do wytrenowania detektora.
Jednym z obiecujących podejść jest pochodzenie treści: osadzanie kryptograficznych metadanych w obrazach w momencie ich tworzenia, aby widzowie mogli zweryfikować, czy zdjęcie zostało zrobione aparatem, czy wygenerowane przez AI. Coalition for Content Provenance and Authenticity (C2PA), wspierana przez Adobe, Microsoft i głównych producentów aparatów fotograficznych, tworzy globalny standard w tym zakresie. SynthID firmy Google niewidocznie znakuje obrazy generowane przez AI. Ale znaki wodne można usunąć, metadane można wymazać, a zrzuty ekranu całkowicie omijają system.
Co mówi prawo
Ustawodawstwo powoli dogania rzeczywistość. Amerykańska ustawa TAKE IT DOWN Act, podpisana w maju 2025 roku, kryminalizuje publikowanie intymnych zdjęć bez zgody, w tym fałszywek generowanych przez AI, i wymaga od platform usuwania oznaczonych treści w ciągu 48 godzin. Ustawa DEFIANCE Act, uchwalona przez Senat w styczniu 2026 roku, tworzy federalne prawo do wniesienia powództwa cywilnego, umożliwiając ofiarom pozwanie twórców i dystrybutorów intymnych deepfake'ów bez zgody na kwotę do 150 000 dolarów odszkodowania – lub 250 000 dolarów, jeśli nadużycie jest związane z prześladowaniem lub napaścią.
Egzekwowanie prawa pozostaje nierówne. Wiele aplikacji do tworzenia deepfake'ów działa w różnych jurysdykcjach, platformy mają trudności z nadążaniem za liczbą przesyłanych treści, a anonimowych twórców trudno jest wytropić. Grupy społeczeństwa obywatelskiego argumentują, że terminy usuwania treści są nadal zbyt wolne i że firmy technologiczne muszą zrobić więcej, aby zapobiegać generowaniu treści w pierwszej kolejności – a nie tylko reagować po wyrządzeniu szkody.
Co możesz zrobić
Świadomość jest pierwszą linią obrony. Eksperci zalecają ograniczenie publicznie dostępnych zdjęć w mediach społecznościowych, korzystanie z wyszukiwania wstecznego obrazów, aby sprawdzić, czy Twoje zdjęcia nie zostały niewłaściwie wykorzystane, oraz zgłaszanie intymnych zdjęć bez zgody na platformy i organom ścigania. Organizacje takie jak StopNCII pomagają ofiarom tworzyć cyfrowe hasze obrazów, aby platformy mogły aktywnie blokować ich rozpowszechnianie, zanim staną się wirusowe.
Głębszym wyzwaniem jest kwestia strukturalna: w miarę jak generowanie obrazów przez AI staje się tańsze i bardziej dostępne, przepaść między tym, co jest prawdziwe, a tym, co jest sfabrykowane, będzie się nadal zawężać. Rozwiązanie tego problemu będzie wymagało nie tylko lepszej technologii, ale także silniejszych ram prawnych, odpowiedzialności platform i zmiany kulturowej w sposobie traktowania syntetycznych mediów w Internecie.