Wenn KI-Medizinbilder zu täuschend echt werden
Deepfakes? Früher nur lustige Clips mit Stars. Heute täuschen sie Top-Radiologen. KI erzeugt Röntgenbilder, die selbst Profis nicht von Echten unterscheiden. Das ist kein Spaß mehr – das ist Alarmstufe Rot.
Die Studie, die alles auf den Kopf stellt
Ein Team aus sechs Ländern testete 17 Radiologen. Von Anfängern bis zu 40-Jahre-Veteranen. Sie bekamen 264 Röntgenaufnahmen: Hälfte echt, Hälfte KI-Gefälscht.
Ohne Hinweis auf Fakes erkannten die Docs nur 41 Prozent der Tricks. Wie Würfeln. Mit Warnung vor Betrug kletterte die Trefferquote auf 75 Prozent. Besser, aber immer noch riskant.
Unterschiede enorm: Manche schnappten 58 Prozent, andere 92. Pure Lotterie, wer dran war.
KI gegen KI: Misserfolg pur
Noch skurriler: Können Maschinen die Fakes entlarven? Test mit Gemini, Llama und GPT-Modellen.
Ergebnis? Zwischen 57 und 85 Prozent Genauigkeit. Ähnlich chaotisch wie bei Menschen. Sogar GPT-4o, das die Bilder selbst gebastelt hat, tappte oft daneben. Wie ein Fälscher, der seine eigene Arbeit nicht erkennt.
Die Fallen in der Perfektion
Faszinierend: KI-Bilder wirken oft zu makellos. Echte Knochen sind unregelmäßig, Wirbel krumm, Lungen asymmetrisch. KI glättet alles symmetrisch, wie mit Lineal gezogen. Brüche sehen künstlich sauber aus.
Studienleiter Dr. Mickael Tordjman fasst es treffend: „Deepfakes in der Medizin sind zu perfekt.“ Der KI-Unheimlichkeitsfaktor für Skelette.
Warum das kein Sci-Fi ist
Stellt euch vor: Gefälschtes Röntgen mit Bruch für Gerichtsprozesse. Oder Hacker, die Krankenhausdaten mit Fake-Bildern vergiften. Diagnosen im Chaos.
Erfahrung hilft nicht immer. 40-Jahre-Profis floppen genauso wie Neulinge. Nur Knochen-Spezialisten punkten leicht besser – dank Routinewissen.
Lösungen im Anmarsch
Forscher basteln schon dran. Unsichtbare Wasserzeichen in Bildern. Krypto-Signaturen als Echtheitsnachweis: Wer, wann, echt?
Plus Trainingsdaten mit Quizzen für Docs. Übung macht den Meister – gegen Fakes.
Aber: Das ist erst der Anfang. Nächstes Level? 3D-Scans wie CT oder MRT. Viel komplexer. Wenn 2D schon täuscht, warte ab bei 3D.
Fazit: Aufwachen!
Keine Panik, aber Handeln. Kliniken, Tech-Firmen, Sicherheitsleute: Jetzt zusammenrücken. Bessere Detektoren bauen, Personal schulen. KI wird nicht langsamer.
Gute Nachricht: Wir können vorausplanen. Aber ticktack. Ein echtes Leiden ist schlimm. Ein gefaktetes noch schlimmer. Und Docs, die’s nicht checken? Katastrophe.