Science & Technology
← Home
Røntgenfiasken ingen så komme: Hvorfor leger bommer på AI-falsknerier

Røntgenfiasken ingen så komme: Hvorfor leger bommer på AI-falsknerier

2026-03-28T21:12:44.145210+00:00

Når teknologien blir for god til å lyve

Tidligere handlet deepfakes mest om kjendiser i latterlige klipp. Nå er det over. AI lurer nå erfarne leger. Det burde vekke oss alle.

En ny studie i Radiology avslører det. Toppradiologer sliter med å skille ekte røntgenbilder fra falske. Forskjellen er minimal. Falske bilder kan ødelegge rettssaker eller feilbehandle pasienter.

Studien som snudde opp-ned på alt

Forskerne samlet 17 radiologer fra seks land. Erfaring varierte fra nyutdannede til 40 års praksis. De viste frem 264 røntgenbilder. Halvparten ekte, halvparten AI-laget.

Uten tips om fakes oppdaget legene bare 41 prosent av dem. Nesten som å kaste mynt. Med forvarsel steg det til 75 prosent. Likevel svakt, med liv på spill.

Individuelle forskjeller var store. Noen fanget 58 prosent. Andre 92 prosent. Det ble litt lotto.

AI mot AI – ingen vinner

De testet også AI-modeller. Googles Gemini, Metas Llama og OpenAIs GPT-varianter skulle avsløre deepfakes.

Resultatene var middels. Treffsikkerhet fra 57 til 85 prosent. Ligner legene. Selv GPT-4o, som laget bildene, klarte ikke alltid å peke ut sitt eget verk. Som å be en forfalsker om å avsløre seg selv.

De små hintene som avslører

Deepfake-røntgen ser ofte for perfekte ut. Naturlige bein har ujevnheter. Ryggsøylen krummes naturlig. AI lager symmetri og renhet.

Lunger blir jevnt balanserte. Blodårer ser ut som tegnede linjer. Brudd virker unaturlig rene. Ledende forsker Mickael Tordjman sier det treffende: «Deepfake-bilder ser for perfekte ut.» Ironisk – AI blir for god.

Hvorfor det rammer hardt

Dette er ikke sci-fi. Tenk falsk brudd på røntgen i retten. Eller hacker som planter bilder i sykehusdata. Pasientjournaler ødelagt. Diagnoser i kaos.

Erfaring hjelper ikke alltid. 40-åringer er ikke bedre enn nybegynnere. Bare spesialister på bein og ledd klarte seg litt bedre. De kjenner normale mønstre.

Fremtiden – og løsningene

Forskerne foreslår usynlige vannmerker i bildene. Krypterte signaturer knyttet til opptakeren. Et digitalt bevis på ekthet.

De har laget treningsdata med quizzer. For leger og ansatte. Vi stopper ikke deepfakes. Men vi kan bli flinkere til å oppdage dem.

Verre kommer. Dette er bare starten. Neste steg: 3D-bilder som CT og MR. Mye mer avanserte. Hvis 2D lurer leger, hva med 3D?

Konklusjonen

Ikke panikk. Men våkn opp. Sykehus, tech-firmaer og sikkerhetseksperter må samarbeide. Bygg verktøy. Tren folk.

Vi har tid igjen. Men klokka tikker. Verst er falske sykdommer leger ikke ser.

#deepfakes #medical imaging #artificial intelligence #healthcare security #x-rays #ai detection #radiography #cybersecurity