Technológie

Ako fungujú deepfake medicínske snímky – a prečo klamú lekárov

Umelá inteligencia dokáže generovať syntetické röntgenové snímky, ktoré sú také realistické, že rádiológovia a iné systémy umelej inteligencie ich len ťažko odlíšia od autentických snímok, čo vyvoláva naliehavé otázky o podvodoch, bezpečnosti pacientov a digitálnej dôvere v zdravotníctve.

R
Redakcia
4 min čítania
Zdieľať
Ako fungujú deepfake medicínske snímky – a prečo klamú lekárov

Keď sa umelá inteligencia naučí falšovať röntgen

Generatívna umelá inteligencia dokáže písať eseje, skladať hudbu a vytvárať fotorealistické portréty. Teraz dokáže aj vytvárať medicínske snímky, ktoré sú dostatočne presvedčivé na to, aby oklamali vyškolených rádiológov. Štúdia publikovaná v časopise Radiology zistila, že lekári správne rozlíšili röntgenové snímky generované umelou inteligenciou od skutočných len v približne 75 percentách prípadov – čo je len o málo lepšie ako hod mincou, keď neboli varovaní, že sú prítomné falzifikáty.

Toto zistenie upozornilo na rýchlo sa objavujúcu hrozbu: deepfake medicínske snímky. Pochopenie toho, ako sa vyrábajú, prečo je také ťažké ich odhaliť a čo sa s tým dá robiť, je dôležité pre každého pacienta, poisťovňu a lekára.

Ako sa vytvárajú syntetické medicínske snímky

Moderné deepfake röntgenové snímky sa spoliehajú na dve hlavné skupiny umelej inteligencie. Difúzne modely, ako napríklad open-source systém RoentGen vyvinutý na Stanford Medicine, sa učia štatistické vzorce tisícov autentických snímok a potom generujú nové snímky pixel po pixeli. Multimodálne rozsiahle jazykové modely ako ChatGPT-4o teraz dokážu vytvárať anatomicky uveriteľné rádiografy z jednoduchej textovej výzvy – napríklad „zobraz röntgen hrudníka s pneumotoraxom na pravej strane“.

Výsledkom je snímka, ktorá obsahuje realistickú hustotu kostí, pľúcne kresby a kontrast mäkkých tkanív. Na rozdiel od hrubých úprav fotografií sú tieto syntetické snímky vytvorené od základov, vďaka čomu sú tradičné metódy detekcie manipulácie do značnej miery nepoužiteľné.

Prečo majú lekári a umelá inteligencia problém odhaliť falzifikáty

Štúdia vedená Mount Sinai, ktorá sa uskutočnila v 12 výskumných centrách so 17 rádiológmi, testovala detekciu vo fázach. Keď účastníci nevedeli, že sú zahrnuté falzifikáty, len 41 percent spontánne označilo snímky generované umelou inteligenciou. Dokonca aj po tom, čo im bolo povedané, že sú prítomné syntetické snímky, priemerná presnosť dosiahla len 75 percent. Individuálny výkon sa pohyboval od 58 do 92 percent a roky skúseností nemali žiadny štatistický rozdiel.

Umelej inteligencii sa nedarilo o nič lepšie. Štyri popredné multimodálne modely – GPT-4o, GPT-5, Gemini 2.5 Pro a Llama 4 Maverick – dosiahli skóre medzi 57 a 85 percentami, podľa správy časopisu Nature o štúdii. Falzifikáty vyzerajú „príliš dokonale“, poznamenali výskumníci: kosti sa javia príliš hladké, chrbtica neprirodzene rovná a línie zlomenín podozrivo čisté – jemnosti, ktoré sa dajú ľahko prehliadnuť v rušnej čitárni.

Riziká v reálnom svete

Dôsledky presahujú rámec akademického cvičenia:

  • Poistné podvody – Vyfabrikovaná snímka zlomeniny alebo nádoru by mohla podporiť falošný nárok na odškodnenie v hodnote tisícov.
  • Manipulácia s diagnózou – Ak dôjde k narušeniu systému archivácie snímok v nemocnici, útočník by mohol vložiť alebo zmeniť snímky, čo by mohlo viesť k zbytočnej operácii alebo zadržaniu liečby.
  • Vedecká manipulácia – Falošné snímky by mohli kontaminovať výskumné súbory údajov alebo byť predložené ako dôkaz v klinických štúdiách a súdnych konaniach.

„Schopnosť generovať vysoko realistické medicínske snímky s minimálnym úsilím prináša nové zraniteľnosti v systémoch zdravotnej starostlivosti, ktoré nikdy neboli navrhnuté tak, aby spochybňovali autenticitu rádiografu,“ napísali autori štúdie.

Ako sa táto oblasť bráni

Výskumníci a normalizačné orgány sa venujú niekoľkým obranným vrstvám:

  • Neviditeľné vodoznaky – Digitálne značky vložené v momente zachytenia snímky spájajú snímku so špecifickým strojom a technológom, vďaka čomu je dodatočná výroba detekovateľná.
  • Kryptografické podpisy – Overenie založené na hashovaní zaisťuje, že akákoľvek zmena na úrovni pixelov preruší reťazec podpisov, čím upozorní systémy na manipuláciu.
  • Detektory založené na umelej inteligencii – Špeciálne vytvorené neurónové siete, ako napríklad Dual-Stage Knowledge Infusing Detector (DSKI) a architektúry EfficientNetV2, dosiahli presnosť detekcie nad 90 percent v kontrolovaných testoch, čím prekonali ľudských čitateľov aj univerzálnu umelú inteligenciu.
  • Blockchainové auditné stopy – Decentralizované účtovné knihy môžu zaznamenávať každý prístup a udalosť úpravy medicínskej snímky, čím sa vytvorí nemenný reťazec vlastníctva.

Čo bude nasledovať

Žiadna z týchto ochrán ešte nie je štandardom v klinickej praxi. Väčšina nemocničných zobrazovacích systémov stále ukladá súbory bez kryptografického pôvodu a regulačné rámce nedokázali držať krok s možnosťami generatívnej umelej inteligencie. Rozdiel medzi tým, čo dokáže umelá inteligencia vyrobiť, a tým, čo dokážu inštitúcie overiť, sa zväčšuje – a jeho prekonanie si vyžiada koordinovanú akciu od dodávateľov technológií, nemocničných sietí a regulačných orgánov.

Zatiaľ je ponaučenie priamočiare: v ére, keď vidieť už neznamená veriť, potrebuje medicínske zobrazovanie digitálny ekvivalent pečate proti neoprávnenému zásahu.

Tento článok je dostupný aj v iných jazykoch:

Zostaňte v obraze!

Sledujte nás na Facebooku a nič vám neunikne.

Sledujte nás na Facebooku

Podobné články