Når AI bliver farligt god til at lyve
Tidligere handlede deepfakes mest om stjerner i latterlige videoer. Det er forbi. Nu kan AI narre erfarne læger. Det burde gøre os alle søvnløse.
En ny undersøgelse i Radiology viser det klart. Toptrænede radiologer kan ikke skelne ægte røntgenbilleder fra AI-falske. Forskellen er minimal. De falske er så gode, at de kunne bruges til at narre retssager eller ændre patientbehandling.
Undersøgelsen, der skubber alt omkuld
Forskere samlede 17 radiologer fra seks lande. Erfaringen spændte fra nyuddannede til 40 års praksis. De fik at se 264 røntgenbilleder. Halvdelen ægte, halvdelen AI-lavede.
Uden varsel om falske fangede lægerne kun 41 procent af dem. Lige så godt som at gætte. Med besked om fakes steg det til 75 procent. Stadig for lavt til de høje indsatser.
Resultaterne varierede vildt. Nogle spotte kun 58 procent. Andre nåede 92 procent. Det var ren lodtrækning.
AI mod AI – en fiasko
Forskere testede også AI-modeller. Googles Gemini, Metas Llama og OpenAIs GPT skulle finde fakes.
De klarede det ikke. Præcisionen lå mellem 57 og 85 procent. Ligesom lægerne. Selv GPT-4o, der selv lavede billederne, fejlede ofte. Som en forfalsker, der skal finde sin egen kopi.
De små fejl, der afslører
Deepfake-røntgen ser ofte for perfekte ud. Menneskelige knogler har ujævnheder. Rygsøjler kurver naturligt. AI gør alt symmetrisk og rent.
Lungerne balancerer perfekt. Blodkar er ligesom tegnet med lineal. Brud ser unaturligt ensidige ud.
Studieleder Dr. Mickael Tordjman siger det bedst: "Deepfake-billeder ser for perfekte ud." Ironisk nok ødelægger AI's perfektion det hele – uncanny valley for skeletter.
Hvorfor det rammer hårdt
Det er ikke sci-fi. Forestil falsk røntgen med et brud, der aldrig skete. Brugt i retten. Eller hackere, der smider fakes ind i hospitalsystemer. Kaos i diagnoser følger.
Erfaring hjælper ikke altid. 40-års veteraner er ikke bedre end nybegyndere. Kun specialister i knogler og led klarer sig konsekvent bedre. De kender de normale mønstre.
Hvad sker der nu?
Løsninger er på vej. Usynlige vandmærker i billederne. Kryptografiske signer fra den, der tog billedet. Et digitalt bevis på ægthed.
De har lavet et træningsdataset med quizzes. Læger og personalet kan øve sig. Deepfakes stopper ikke. Vi skal bare blive bedre til at finde dem.
Det bliver værre. Undersøgelsen kalder det "isbjergens tind". Næste udfordring: 3D-billeder som CT og MRI. Meget sværere end flade røntgen.
Den ægte pointe
Ingen panik. Men vågn op. Hospitaler, tech-firmaer og sikkerhedseksperter skal samarbejde nu. Bedre værktøjer. Træning til lægerne.
AI bliver kun bedre. God nyhed: Vi har stadig tid. Men uret tikker. For der er værre end sygdom – en falsk sygdom. Og værre end det: læger, der ikke ser forskellen.