Quand l'IA trompe même les meilleurs médecins
Les deepfakes, c'était avant tout des blagues avec des stars. Aujourd'hui, c'est fini. L'intelligence artificielle piège des radiologues chevronnés. Et ça fait froid dans le dos.
Une étude parue dans Radiology l'a prouvé sans ambiguïté. Des clichés radiologiques faux, générés par IA, passent pour vrais auprès d'experts aguerris. Pire : ils pourraient servir à truquer un procès ou à modifier un dossier médical.
L'expérience qui met le doute
Dix-sept radiologues de six pays ont participé. Du débutant au vétéran de 40 ans. On leur a présenté 264 images : la moitié réelles, l'autre moitié créées par IA.
Sans prévenir des faux, ils en démasquent 41 %. Un pur hasard. Averti, le taux grimpe à 75 %. Mieux, mais insuffisant vu les enjeux.
Les résultats varient énormément. Certains repèrent 58 % des faux. D'autres, jusqu'à 92 %. Tout dépend du tirage au sort.
Les IA face à leurs propres illusions
Les chercheurs ont poussé plus loin. Des modèles comme Gemini de Google, Llama de Meta ou GPT d'OpenAI devaient identifier ces deepfakes.
Résultat décevant : précision entre 57 % et 85 %. Même GPT-4o, qui a fabriqué les images, patine souvent. Comme un faussaire chargé de repérer ses copies.
Les indices qui trahissent
Les faux rayons X sont trop parfaits. Les os humains ont des irrégularités naturelles : courbes asymétriques, textures imparfaites.
L'IA lisse tout. Poumons symétriques, vaisseaux droits comme un trait de règle. Fractures trop nettes, d'un seul côté.
Le Dr Mickael Tordjman, à la tête de l'étude, résume : « Les deepfakes médicaux paraissent trop idéaux. » L'IA excelle tant qu'elle en devient suspecte.
Les dangers bien réels
Au-delà du frisson, les risques sont concrets. Un faux scanner de fracture pour un procès bidon. Ou un pirate qui infiltre un hôpital pour polluer les diagnostics.
L'expérience ne protège pas. Le radiologue de 40 ans ne fait pas mieux qu'un novice. Seuls les spécialistes des os et articulations s'en sortent un peu mieux, grâce à leur œil pour les motifs normaux.
Vers des parades efficaces
Déjà des pistes. Filigranes invisibles dans les images. Signatures cryptographiques liées au prise de vue. Un sceau numérique infalsifiable.
Un jeu d'entraînement interactif est dispo pour les soignants. Car les deepfakes vont pulluler. Il faut s'y préparer.
Et ce n'est que le début. Prochain défi : les IRM et scanners 3D, bien plus complexes. Si les 2D trompent déjà, les 3D seront infernales.
Le message clair
Pas de panique, mais vigilance immédiate. Hôpitaux, tech et experts en sécurité doivent collaborer. Outils de détection avancés. Formations renforcées.
L'IA progresse vite. On a encore une marge, mais elle fond. Le pire ? Une maladie imaginaire soignée comme une vraie.