Ako fungujú deepfakes vytvorené umelou inteligenciou – a prečo je také ťažké ich zastaviť
Deepfakes generované umelou inteligenciou dokážu v priebehu niekoľkých minút vymeniť tváre, sfalšovať hlasy a vytvárať intímne zábery skutočných ľudí bez ich súhlasu. Tu je návod, ako táto technológia funguje, prečo detekcia zostáva pretekom v zbrojení a čo sa nové zákony snažia dosiahnuť.
Čo je to deepfake?
Deepfake je fotografia, video alebo zvukový klip, ktorý bol sfalšovaný alebo zmanipulovaný pomocou umelej inteligencie, aby vyzeral reálne. Termín kombinuje „deep learning“ – techniku umelej inteligencie, ktorá stojí za touto technológiou – s výrazom „fake“ (falzifikát). Zatiaľ čo skoré deepfakes vyžadovali značný výpočtový výkon a odborné znalosti, dnes môže ktokoľvek so smartfónom vygenerovať presvedčivý falošný obrázok v priebehu niekoľkých sekúnd pomocou voľne dostupných aplikácií.
Táto technológia má legitímne kreatívne využitie – od obnovy starých filmových záberov až po dabing hercov v rôznych jazykoch. Stala sa však aj mocným nástrojom na podvody, politickú manipuláciu a sexuálne zneužívanie.
Ako sa deepfakes vytvárajú
Väčšina deepfakes sa spolieha na jednu z dvoch základných architektúr umelej inteligencie: Generative Adversarial Networks (GAN) alebo difúzne modely.
GAN stavia proti sebe dve neurónové siete. Generátor vytvára falošné obrázky; diskriminátor sa ich snaží odhaliť. Počas tisícov tréningových cyklov sa generátor naučí produkovať obrázky, ktoré sú dostatočne presvedčivé na to, aby oklamali svojho súpera – a tým aj ľudské oči. Difúzne modely, ktoré poháňajú nástroje ako Stable Diffusion a DALL-E, fungujú inak: učia sa postupne odstraňovať náhodný šum z obrázka, až kým sa neobjaví realistický obraz, riadený textovou alebo obrazovou výzvou.
Pri deepfakes s výmenou tvárí je umelá inteligencia trénovaná na stovkách alebo tisíckach obrázkov cieľovej osoby – často získaných zo sociálnych médií. Potom zmapuje ich geometriu tváre na iné telo alebo nahradí tvár inej osoby v existujúcich záberoch. Takzvané „aplikácie na vyzliekanie“ vezmú oblečenú fotografiu skutočnej osoby a vygenerujú jej nahý obrázok bez jej vedomia alebo súhlasu.
Rozsah problému
Čísla sú ohromujúce. Podľa údajov zhromaždených bezpečnostnými výskumníkmi sa počet hlásení materiálov so sexuálnym zneužívaním detí generovaných umelou inteligenciou zvýšil o 1 325 % medzi rokmi 2023 a 2024, pričom len v roku 2024 bolo Národnému centru pre nezvestné a zneužívané deti nahlásených viac ako 67 000 prípadov – oproti iba 4 700 v predchádzajúcom roku. Štúdia Centra pre boj proti digitálnej nenávisti zistila, že jeden generátor obrázkov s umelou inteligenciou vytvoril približne tri milióny sexualizovaných obrázkov za menej ako dva týždne, vrátane desiatok tisíc zobrazujúcich maloletých.
Škody presahujú rámec sexuálneho zneužívania. Finančné podvody s deepfakes sa v roku 2024 desaťnásobne zvýšili a severoamerické podniky stáli v jednom štvrťroku viac ako 200 miliónov dolárov. Podvodníci môžu naklonovať hlas osoby z iba troch sekúnd zvuku a použiť ho na vydávanie sa za vedúcich pracovníkov, rodičov alebo vládnych úradníkov. Štúdia z roku 2025 zistila, že iba 0,1 % ľudí dokázalo správne identifikovať všetky falošné a skutočné médiá, ktoré im boli ukázané v teste.
Prečo je detekcia taká náročná
Detekčné nástroje – ktoré používajú umelú inteligenciu na vyhľadávanie výrečných znakov manipulácie, ako sú neprirodzené žmurkanie, nesúlad osvetlenia alebo anomálie textúry pokožky – sú uzamknuté v neustálych pretekoch v zbrojení s tvorcami deepfakes. Keď sa detektory zlepšujú, generátory sa preškolujú, aby ich porazili. Výskumníci z Alan Turing Institute varujú, že presnosť detekcie prudko klesá, keď je deepfake vytvorený pomocou inej metódy, ako je tá, ktorá sa použila na trénovanie detektora.
Jedným z sľubných prístupov je pôvod obsahu: vkladanie kryptografických metadát do obrázkov v momente ich vytvorenia, aby si diváci mohli overiť, či bola fotografia nasnímaná fotoaparátom alebo vygenerovaná umelou inteligenciou. Koalícia pre pôvod a autenticitu obsahu (C2PA), podporovaná spoločnosťami Adobe, Microsoft a významnými výrobcami fotoaparátov, buduje globálny štandard pre túto oblasť. SynthID od spoločnosti Google neviditeľne označuje obrázky generované umelou inteligenciou vodoznakom. Vodoznaky sa však dajú odstrániť, metadáta sa dajú vymazať a snímky obrazovky systém úplne obídu.
Čo hovorí zákon
Legislatíva to dobieha – pomaly. Americký zákon TAKE IT DOWN Act, podpísaný v máji 2025, kriminalizoval zverejňovanie intímnych obrázkov bez súhlasu, vrátane falošných obrázkov generovaných umelou inteligenciou, a vyžaduje, aby platformy odstránili označený obsah do 48 hodín. Zákon DEFIANCE Act, schválený Senátom v januári 2026, vytvára federálne občianske právo na žalobu, ktoré obetiam umožňuje žalovať tvorcov a distribútorov intímnych deepfakes bez súhlasu až do výšky 150 000 dolárov ako odškodné – alebo 250 000 dolárov, ak je zneužívanie spojené so stalkingom alebo napadnutím.
Vymáhanie zostáva nejednotné. Mnohé aplikácie na vytváranie deepfakes fungujú v rôznych jurisdikciách, platformy sa snažia držať krok s objemom nahrávaných súborov a anonymných tvorcov je ťažké vystopovať. Skupiny občianskej spoločnosti tvrdia, že časové lehoty na odstránenie sú stále príliš pomalé a že technologické spoločnosti musia urobiť viac, aby zabránili generovaniu v prvom rade – nielen reagovať až po spôsobení škody.
Čo môžete urobiť
Povedomie je prvou líniou obrany. Odborníci odporúčajú obmedziť verejne dostupné fotografie na sociálnych sieťach, používať reverzné vyhľadávanie obrázkov na kontrolu, či neboli vaše fotografie zneužité, a nahlasovať intímne zábery bez súhlasu platformám a orgánom činným v trestnom konaní. Organizácie ako StopNCII pomáhajú obetiam vytvárať digitálne hashe obrázkov, aby platformy mohli proaktívne blokovať ich šírenie predtým, ako sa stanú virálnymi.
Hlbšou výzvou je štrukturálna zmena: keďže generovanie obrázkov pomocou umelej inteligencie je lacnejšie a dostupnejšie, rozdiel medzi tým, čo je skutočné a čo je sfalšované, sa bude naďalej zmenšovať. Jeho vyriešenie si bude vyžadovať nielen lepšiu technológiu, ale aj silnejšie právne rámce, zodpovednosť platforiem a kultúrny posun v tom, ako sa so syntetickými médiami zaobchádza online.