Jak działają medyczne obrazy deepfake – i dlaczego oszukują lekarzy
Sztuczna inteligencja potrafi teraz generować syntetyczne zdjęcia rentgenowskie tak realistyczne, że radiolodzy i inne systemy AI mają trudności z odróżnieniem ich od autentycznych skanów, co rodzi pilne pytania dotyczące oszustw, bezpieczeństwa pacjentów i zaufania cyfrowego w opiece zdrowotnej.
Kiedy AI uczy się fałszować zdjęcie rentgenowskie
Generatywna sztuczna inteligencja potrafi pisać eseje, komponować muzykę i tworzyć fotorealistyczne portrety. Teraz potrafi również fabrykować obrazy medyczne na tyle przekonujące, że oszukują wyszkolonych radiologów. Badanie opublikowane w czasopiśmie Radiology wykazało, że lekarze prawidłowo odróżniali zdjęcia rentgenowskie wygenerowane przez AI od prawdziwych tylko w około 75 procentach przypadków – ledwo lepiej niż rzut monetą, gdy nie zostali ostrzeżeni o obecności fałszywek.
Odkrycie to zwróciło uwagę na szybko pojawiające się zagrożenie: medyczne obrazy deepfake. Zrozumienie, jak są tworzone, dlaczego tak trudno je wykryć i co można z nimi zrobić, ma znaczenie dla każdego pacjenta, ubezpieczyciela i lekarza.
Jak tworzone są syntetyczne obrazy medyczne
Współczesne zdjęcia rentgenowskie deepfake opierają się na dwóch głównych rodzinach AI. Modele dyfuzyjne, takie jak system RoentGen o otwartym kodzie źródłowym opracowany w Stanford Medicine, uczą się statystycznych wzorców tysięcy autentycznych skanów, a następnie generują nowe obrazy piksel po pikselu. Wielomodalne duże modele językowe, takie jak ChatGPT-4o, mogą teraz tworzyć anatomicznie wiarygodne radiogramy na podstawie prostego polecenia tekstowego – na przykład „pokaż zdjęcie rentgenowskie klatki piersiowej z odmą opłucnową po prawej stronie”.
Rezultatem jest obraz, który zawiera realistyczną gęstość kości, rysunek płuc i kontrast tkanek miękkich. W przeciwieństwie do prymitywnych edycji zdjęć, te syntetyczne skany są budowane od podstaw, co sprawia, że tradycyjne metody wykrywania manipulacji są w dużej mierze bezużyteczne.
Dlaczego lekarze i AI mają trudności z wykryciem fałszerstw
Badanie prowadzone przez Mount Sinai, przeprowadzone w 12 ośrodkach badawczych z udziałem 17 radiologów, testowało wykrywanie w fazach. Kiedy uczestnicy nie wiedzieli, że włączono fałszywki, tylko 41 procent spontanicznie oznaczyło obrazy wygenerowane przez AI. Nawet po poinformowaniu, że obecne są syntetyczne skany, średnia dokładność osiągnęła zaledwie 75 procent. Indywidualne wyniki wahały się od 58 do 92 procent, a lata doświadczenia nie miały statystycznego znaczenia.
AI radziła sobie nie lepiej. Cztery wiodące modele wielomodalne – GPT-4o, GPT-5, Gemini 2.5 Pro i Llama 4 Maverick – uzyskały wyniki od 57 do 85 procent, zgodnie z relacją Nature na temat badania. Fałszywki wyglądają „zbyt idealnie”, zauważyli badacze: kości wydają się zbyt gładkie, kręgosłupy nienaturalnie proste, a linie złamań podejrzanie czyste – subtelności łatwe do przeoczenia w ruchliwym gabinecie lekarskim.
Realne zagrożenia
Konsekwencje wykraczają daleko poza ćwiczenie akademickie:
- Oszustwa ubezpieczeniowe — Sfabrykowane zdjęcie złamania lub guza może stanowić podstawę do fałszywego roszczenia odszkodowawczego wartego tysiące.
- Manipulowanie diagnozą — Jeśli system archiwizacji obrazów szpitala zostanie naruszony, atakujący może wstawić lub zmienić obrazy, potencjalnie prowadząc do niepotrzebnej operacji lub wstrzymania leczenia.
- Manipulacja naukowa — Fałszywe skany mogą zanieczyścić zbiory danych badawczych lub zostać przedstawione jako dowód w badaniach klinicznych i postępowaniach sądowych.
„Możliwość generowania wysoce realistycznych obrazów medycznych przy minimalnym wysiłku wprowadza nowe luki w systemach opieki zdrowotnej, które nigdy nie zostały zaprojektowane tak, aby kwestionować autentyczność radiogramu” – napisali autorzy badania.
Jak branża walczy
Naukowcy i organy normalizacyjne realizują kilka warstw obrony:
- Niewidoczne znaki wodne — Cyfrowe znaczniki osadzone w momencie przechwytywania obrazu wiążą skan z konkretną maszyną i technikiem, dzięki czemu wykrywalne jest fabrykowanie post-hoc.
- Podpisy kryptograficzne — Weryfikacja oparta na haszach zapewnia, że każda zmiana na poziomie pikseli przerywa łańcuch podpisu, ostrzegając systemy o manipulacji.
- Detektory oparte na AI — Specjalnie zbudowane sieci neuronowe, takie jak Dual-Stage Knowledge Infusing Detector (DSKI) i architektury EfficientNetV2, osiągnęły dokładność wykrywania powyżej 90 procent w kontrolowanych testach, przewyższając zarówno ludzkich czytelników, jak i ogólnego przeznaczenia AI.
- Ścieżki audytu Blockchain — Zdecentralizowane księgi mogą rejestrować każde zdarzenie dostępu i modyfikacji obrazu medycznego, tworząc niezmienny łańcuch przechowywania.
Co dalej
Żadne z tych zabezpieczeń nie jest jeszcze standardem w praktyce klinicznej. Większość szpitalnych systemów obrazowania nadal przechowuje pliki bez kryptograficznego pochodzenia, a ramy regulacyjne nie nadążyły za możliwościami generatywnej AI. Luka między tym, co AI może sfabrykować, a tym, co instytucje mogą zweryfikować, powiększa się – a jej zamknięcie będzie wymagało skoordynowanych działań ze strony dostawców technologii, sieci szpitalnych i organów regulacyjnych.
Na razie lekcja jest prosta: w erze, w której widzieć już nie znaczy wierzyć, obrazowanie medyczne potrzebuje cyfrowego odpowiednika plomby zabezpieczającej przed manipulacją.