Technologie

Jak fungují deepfakes vytvořené umělou inteligencí – a proč je tak těžké je zastavit

Deepfakes generované umělou inteligencí dokážou během několika minut vyměnit obličeje, zfalšovat hlasy a vytvářet intimní snímky skutečných lidí bez jejich souhlasu. Zde je návod, jak tato technologie funguje, proč detekce zůstává závodem ve zbrojení a co se s tím snaží dělat nové zákony.

R
Redakcia
5 min čtení
Sdílet
Jak fungují deepfakes vytvořené umělou inteligencí – a proč je tak těžké je zastavit

Co je to deepfake?

Deepfake je fotografie, video nebo zvukový klip, který byl vytvořen nebo zmanipulován pomocí umělé inteligence tak, aby vypadal jako skutečný. Termín kombinuje „hluboké učení“ (deep learning) – techniku umělé inteligence, která za touto technologií stojí – s výrazem „fake“ (falešný). Zatímco rané deepfakes vyžadovaly značný výpočetní výkon a odborné znalosti, dnes může kdokoli se smartphonem vygenerovat přesvědčivý falešný obrázek během několika sekund pomocí volně dostupných aplikací.

Tato technologie má legitimní kreativní využití – od restaurování starých filmových záběrů až po dabování herců v různých jazycích. Stala se ale také mocným nástrojem pro podvody, politickou manipulaci a sexuální zneužívání.

Jak se deepfakes vytvářejí

Většina deepfakes spoléhá na jednu ze dvou základních architektur umělé inteligence: Generative Adversarial Networks (GANs) neboli difuzní modely.

GAN staví proti sobě dvě neuronové sítě. Generátor vytváří falešné obrázky; diskriminátor se je snaží odhalit. Během tisíců tréninkových cyklů se generátor naučí vytvářet obrázky, které jsou dostatečně přesvědčivé, aby oklamaly svého protivníka – a tím pádem i lidské oko. Difuzní modely, které pohánějí nástroje jako Stable Diffusion a DALL-E, fungují jinak: učí se postupně odstraňovat náhodný šum z obrázku, dokud se neobjeví realistický obraz, vedený textovou nebo obrazovou výzvou.

Pro deepfakes s výměnou obličejů je umělá inteligence trénována na stovkách nebo tisících obrázků cílové osoby – často stažených ze sociálních médií. Poté mapuje geometrii jejího obličeje na jiné tělo nebo nahrazuje obličej jiné osoby v existujících záběrech. Takzvané „aplikace na svlékání“ vezmou oblečenou fotografii skutečné osoby a vygenerují její nahý obrázek bez jejího vědomí nebo souhlasu.

Rozsah problému

Čísla jsou ohromující. Podle údajů shromážděných bezpečnostními výzkumníky se počet hlášení o materiálech se sexuálním zneužíváním dětí generovaných umělou inteligencí zvýšil mezi lety 2023 a 2024 o 1 325 %, přičemž v roce 2024 bylo Národnímu centru pro pohřešované a zneužívané děti nahlášeno více než 67 000 případů – oproti pouhým 4 700 v předchozím roce. Studie Centra pro boj proti digitální nenávisti zjistila, že jeden generátor obrázků pomocí umělé inteligence vytvořil zhruba tři miliony sexualizovaných obrázků za necelé dva týdny, včetně desítek tisíc zobrazujících nezletilé.

Škody se zdaleka netýkají jen sexuálního zneužívání. Finanční podvody s deepfakes se v roce 2024 zvýšily desetinásobně a stály severoamerické podniky přes 200 milionů dolarů za jediné čtvrtletí. Podvodníci dokážou naklonovat hlas člověka z pouhých tří sekund zvukového záznamu a použít jej k vydávání se za vedoucí pracovníky, rodiče nebo vládní úředníky. Studie z roku 2025 zjistila, že pouze 0,1 % lidí dokázalo správně identifikovat všechna falešná a skutečná média, která jim byla v testu ukázána.

Proč je detekce tak obtížná

Detekční nástroje – které používají umělou inteligenci k hledání výmluvných známek manipulace, jako je nepřirozené mrkání, nesoulad osvětlení nebo anomálie v textuře pleti – jsou uzamčeny v neustálém závodu ve zbrojení s tvůrci deepfakes. Jak se detektory zlepšují, generátory jsou přeškolovány, aby je porazily. Výzkumníci z Alan Turing Institute varují, že přesnost detekce prudce klesá, když je deepfake vytvořen pomocí jiné metody, než jaká byla použita k tréninku detektoru.

Jedním z nadějných přístupů je původ obsahu: vkládání kryptografických metadat do obrázků v okamžiku jejich vytvoření, aby si diváci mohli ověřit, zda byla fotografie pořízena fotoaparátem nebo vygenerována umělou inteligencí. Coalition for Content Provenance and Authenticity (C2PA), podporovaná společnostmi Adobe, Microsoft a významnými výrobci fotoaparátů, buduje globální standard pro toto. SynthID od Googlu neviditelně označuje obrázky generované umělou inteligencí vodoznakem. Vodoznaky však lze odstranit, metadata lze vymazat a snímky obrazovky systém zcela obcházejí.

Co říká zákon

Legislativa se pomalu dotahuje. Americký zákon TAKE IT DOWN Act, podepsaný v květnu 2025, kriminalizoval publikování intimních snímků bez souhlasu, včetně falešných snímků generovaných umělou inteligencí, a vyžaduje, aby platformy odstranily označený obsah do 48 hodin. Zákon DEFIANCE Act, schválený Senátem v lednu 2026, vytváří federální občanské právo na žalobu, které obětem umožňuje žalovat tvůrce a distributory intimních deepfakes bez souhlasu až do výše 150 000 dolarů jako náhradu škody – nebo 250 000 dolarů, pokud je zneužívání spojeno se stalkingem nebo napadením.

Vymáhání práva zůstává nejednotné. Mnoho aplikací pro deepfakes funguje v různých jurisdikcích, platformy se snaží držet krok s objemem nahrávek a anonymní tvůrce je těžké vystopovat. Skupiny občanské společnosti tvrdí, že lhůty pro odstranění jsou stále příliš pomalé a že technologické společnosti musí udělat více pro to, aby zabránily generování v první řadě – nejen reagovat až po způsobení škody.

Co můžete dělat vy

Povědomí je první linií obrany. Odborníci doporučují omezit veřejně dostupné fotografie na sociálních sítích, používat reverzní vyhledávání obrázků ke kontrole, zda nebyly vaše fotografie zneužity, a hlásit intimní snímky bez souhlasu platformám a orgánům činným v trestním řízení. Organizace jako StopNCII pomáhají obětem vytvářet digitální hashe obrázků, aby platformy mohly proaktivně blokovat jejich šíření dříve, než se stanou virálními.

Hlubší výzvou je strukturální problém: jak se generování obrázků pomocí umělé inteligence stává levnějším a dostupnějším, rozdíl mezi tím, co je skutečné a co je vytvořené, se bude nadále zmenšovat. K vyřešení tohoto problému bude zapotřebí nejen lepší technologie, ale i silnější právní rámce, odpovědnost platforem a kulturní posun v tom, jak se se syntetickými médii online zachází.

Tento článek je dostupný také v jiných jazycích:

Zůstaňte v obraze!

Sledujte nás na Facebooku a nic vám neunikne.

Sledujte nás na Facebooku

Související články