Technologie

Jak fungují deepfake lékařské snímky – a proč klamou lékaře

Umělá inteligence nyní dokáže generovat syntetické rentgenové snímky, které jsou tak realistické, že je radiologové a další systémy umělé inteligence jen stěží rozeznají od autentických snímků, což vyvolává naléhavé otázky ohledně podvodů, bezpečnosti pacientů a digitální důvěry ve zdravotnictví.

R
Redakcia
4 min čtení
Sdílet
Jak fungují deepfake lékařské snímky – a proč klamou lékaře

Když se umělá inteligence naučí falšovat rentgen

Generativní umělá inteligence dokáže psát eseje, skládat hudbu a vytvářet fotorealistické portréty. Nyní dokáže také vytvářet lékařské snímky, které jsou dostatečně přesvědčivé, aby oklamaly vyškolené radiology. Studie publikovaná v časopise Radiology zjistila, že lékaři správně rozlišili rentgenové snímky generované umělou inteligencí od skutečných pouze v přibližně 75 procentech případů – což je jen o málo lepší než hod mincí, pokud nebyli varováni, že jsou přítomny falešné snímky.

Toto zjištění upozornilo na rychle se objevující hrozbu: deepfake lékařské snímky. Pochopení toho, jak se vyrábějí, proč je tak obtížné je odhalit a co se s nimi dá dělat, je důležité pro každého pacienta, pojišťovnu a lékaře.

Jak se vytvářejí syntetické lékařské snímky

Moderní deepfake rentgenové snímky se spoléhají na dvě hlavní rodiny umělé inteligence. Difúzní modely, jako je open-source systém RoentGen vyvinutý na Stanford Medicine, se učí statistické vzorce tisíců autentických snímků a poté generují nové snímky pixel po pixelu. Multimodální velké jazykové modely, jako je ChatGPT-4o, nyní dokážou vytvářet anatomicky věrohodné radiogramy z jednoduchého textového zadání – například „ukažte rentgen hrudníku s pneumotoraxem na pravé straně“.

Výsledkem je snímek, který obsahuje realistickou hustotu kostí, plicní kresbu a kontrast měkkých tkání. Na rozdíl od hrubých úprav fotografií jsou tyto syntetické snímky vytvářeny od základu, takže tradiční metody detekce manipulace jsou z velké části nepoužitelné.

Proč mají lékaři a umělá inteligence potíže s odhalením falešných snímků

Studie vedená Mount Sinai, která probíhala ve 12 výzkumných centrech se 17 radiology, testovala detekci ve fázích. Když účastníci nevěděli, že jsou zahrnuty falešné snímky, pouze 41 procent spontánně označilo snímky generované umělou inteligencí. I poté, co jim bylo řečeno, že jsou přítomny syntetické snímky, dosáhla průměrná přesnost pouhých 75 procent. Individuální výkon se pohyboval od 58 do 92 procent a roky zkušeností neměly statisticky významný rozdíl.

Umělá inteligence si nevedla o nic lépe. Čtyři přední multimodální modely – GPT-4o, GPT-5, Gemini 2.5 Pro a Llama 4 Maverick – dosáhly skóre mezi 57 a 85 procenty, jak uvádí Nature ve své zprávě o studii. Falešné snímky vypadají „příliš dokonale“, poznamenali vědci: kosti se zdají být příliš hladké, páteře nepřirozeně rovné a linie zlomenin podezřele čisté – jemnosti, které lze snadno přehlédnout v rušné čítárně.

Reálná rizika

Důsledky přesahují rámec akademického cvičení:

  • Pojistné podvody – Zfalšovaný snímek zlomeniny nebo nádoru by mohl podpořit falešný nárok na odškodnění v hodnotě tisíců.
  • Manipulace s diagnózou – Pokud dojde k narušení nemocničního systému archivace snímků, útočník by mohl vložit nebo upravit snímky, což by mohlo vést k zbytečné operaci nebo zatajené léčbě.
  • Vědecká manipulace – Falešné snímky by mohly kontaminovat výzkumné datové sady nebo být předloženy jako důkaz v klinických studiích a soudních řízeních.

„Schopnost generovat vysoce realistické lékařské snímky s minimálním úsilím zavádí nové zranitelnosti do systémů zdravotní péče, které nikdy nebyly navrženy tak, aby zpochybňovaly autentičnost radiogramu,“ napsali autoři studie.

Jak se obor brání

Výzkumníci a normalizační orgány usilují o několik obranných vrstev:

  • Neviditelné vodoznaky – Digitální značky vložené v okamžiku pořízení snímku vážou snímek na konkrétní stroj a technologa, čímž je detekovatelná post-hoc fabrikace.
  • Kryptografické podpisy – Ověření založené na hash zajišťuje, že jakákoli úprava na úrovni pixelů poruší řetězec podpisů, čímž upozorní systémy na manipulaci.
  • Detektory založené na umělé inteligenci – Speciálně vytvořené neuronové sítě, jako je Dual-Stage Knowledge Infusing Detector (DSKI) a architektury EfficientNetV2, dosáhly v kontrolovaných testech přesnosti detekce nad 90 procent, čímž překonaly jak lidské čtenáře, tak univerzální umělou inteligenci.
  • Blockchainové auditní stopy – Decentralizované účetní knihy mohou zaznamenávat každý přístup a událost modifikace lékařského snímku, čímž vytvářejí neměnný řetězec úschovy.

Co bude dál

Žádná z těchto ochran zatím není standardem v klinické praxi. Většina nemocničních zobrazovacích systémů stále ukládá soubory bez kryptografického původu a regulační rámce nestačí držet krok s možnostmi generativní umělé inteligence. Mezera mezi tím, co umělá inteligence dokáže vyrobit, a tím, co instituce dokážou ověřit, se zvětšuje – a její překlenutí bude vyžadovat koordinovanou akci od dodavatelů technologií, nemocničních sítí a regulačních orgánů.

Prozatím je ponaučení jednoduché: v éře, kdy vidět už neznamená věřit, potřebuje lékařské zobrazování digitální ekvivalent pečetě proti neoprávněné manipulaci.

Tento článek je dostupný také v jiných jazycích:

Zůstaňte v obraze!

Sledujte nás na Facebooku a nic vám neunikne.

Sledujte nás na Facebooku

Související články