Yapay Zeka Artık Çok İyi Yalan Söylüyor
Deepfake'lerin sadece ünlülerin komik videolarında görüldüğü zamanları hatırladın mı? O günler çoktan geride kaldı. Şimdi yapay zekanın gerçek doktor kütüphanesini aldatabildiği bir döneme girdik. İtirafen, bu durum herkesin uykusunu kaçıracak kadar ciddi.
Kısa süre önce Radiology dergisinde yayınlanan bir araştırma bomba gibi düştü: dünyanın en deneyimli doktorları—yıllarca röntgen filme bakan radyologlar—yapay zekayla üretilen sahte X-ray'leri gerçekten ayırt edemiyor. Burada ufak farktan bahsetmiyoruz. Mahkemede birisini suçlamak için veya hasta bakımını manipüle etmek için kullanılabilecek kadar ikna edici sahte filmlerden söz ediyoruz.
Araştırma Nasıl Yapıldı?
Araştırmaçılar altı ülkeden 17 radyoloğu bir araya getirdi. Tıp fakültesinden yeni mezun olanlardan tutun 40 yıl tecrübesi olan hekimlere kadar herkesi katıldı. Bu uzmanlara 264 X-ray görüntüsü gösterdiler—yarısı gerçek, yarısı yapay zekayla üretilen sahte.
İşte önemli kısım: doktorlara sahte görüntülerin içinde olabileceği söylenmediğinde, sadece yüzde 41'ini yakaladılar. Yani yazı tura atmaktan hiçbir farkı yok. Fakat sahte görüntüler beklenmesi gerektiği söylenince başarı yüzde 75'e çıktı. Bu oranın iyi olmadığını söylemeye gerek yok, çünkü ne risklerde bahsediyoruz.
Doktorlar arasında çok fark vardı. Kimi yüzde 58 oranında yakaladı, kimi yüzde 92'ye çıktı. Yani sonuç olarak, iyi bir doktor bulup bulmamak iyice şans meselesi.
Yapay Zeka Kendi Yaptığını Bulamıyor
Araştırmacılar ilginç bir deneme daha yaptılar: Google'ın Gemini'si, Meta'nın Llama'sı ve OpenAI'ın GPT modelleri bu deepfake'leri tespit edebilir mi? Cevap: hayır, başarısız oldular da. Başarı oranı yüzde 57 ile 85 arasında gidip geldi. İnsan doktorlar kadar kötüydü. Hatta kendi ürettiği sahte X-ray'leri bulamayan GPT-4o da var. Sanki bir sahtekâra "bu forjayı sen yapıp yapmadığını söyle" demek gibi bir şey. Bazen bulur, bazen bulamaz.
Gerçek İle Sahte Arasındaki Fark
Araştırmanın en ilginç bulgusu şuydu: yapay zekayla üretilen X-ray'ler çok kusursuz görünüyor. Gerçekten çok kusursuz.
Gerçek insan kemikleri tamamen düzgün değildir. Omurga doğal eğriler taşır, kusurları vardır. Ama yapay zekanın çıktıları simetrik, temiz, neredeyse sanatsal bir mükemmellik içinde. Akciğerler çok dengeli duruyor. Kan damarları cetvel çizilmiş gibi görünüyor. Kırıklar çok temiz, tek taraflı, gerçek yaralanmaların hiç tanımadığı biçimde beliriyor.
Araştırmayı yöneten Dr. Mickael Tordjman bunu çok güzel özetledi: "Yapay zekayla üretilen tıbbi görüntüler çok kusursuz görünüyor." İronik olan şu: yapay zeka görüntü oluşturmada çok başarılı oluyor ki, bu başarı onu aslında çok yapay gösteriyor. Tıpkı "uncanny valley" gibi ama kemikler için.
Neden Bunun Önemi Var?
Bilim kurgu gibi gelse de, gerçek riskler ciddi. Birisi sahte bir X-ray'de hiçbir zaman olmayan bir kırık gösteriyor ve mahkemede kullanıyor. Bir hacker hastane sistemine giriyor, sahte görüntüler yüklüyor ve hastaların tanılarını karıştırıyor.
Bunlar artık soyut senaryolar değil. Olabilecek gerçek ihtimaller.
İlginç bir başka bulgu daha vardı: tecrübe garantı vermiyor. 40 yıl tecrübesi olan bir radyolog, yeni bir kollegasından daha iyi yapay zeka görüntülerini yakalamıyor. Tek grup tutarlı biçimde daha başarılı oldu: kemik ve eklem uzmanları. Onlar normal kemik görünüşünü çok iyi bildikleri için bir avantajları var.
Bundan Sonra Ne Oluyor?
Araştırmacılar çözüm üzerinde çalışıyor. Tıbbi görüntülerin içine gizli filigran eklemeyi ve görüntüyü çeken kişiye bağlı kriptografik imzalar koymayı öneriyorlar. Sanki dijital bir orijinallik mührü gibi—bu görüntünün gerçekten bu kişiden bu tam saatte geldiğinin kanıtı.
Ayrıca doktor ve hastane personelinin sahte görüntüleri tanımayı öğrenmesi için interaktif alıştırmalar içeren bir veri seti yayımladılar. Çünkü gerçek şu: deepfake'leri oluşturmayı durdurmayacağız. Sadece onları yakalamak için daha iyi olmamız gerek.
Korkunç taraf ise şu: bu sadece başlangıç. Araştırmacılar "buz dağının yalnız ucunu gördüğümüzü" belirtiyorlar. Sırada ne var? CT ve MRI gibi 3 boyutlu tıbbi görüntüler. Bunlar X-ray'lerden milyonlarca kat daha karmaşık. Eğer yapay zeka 2D görüntülerde radyologları aldatabiliyorsa, 3D'lerde ne yapacağını düşün.
En Önemli Mesaj
Bu araştırma panik yaymak için değil. Uyarı işareti. Tıbbi kurumlar, teknoloji şirketleri ve siber güvenlik uzmanları şimdi birlikte çalışmalı. Daha iyi tespit araçları üretmeli ve sağlık çalışanlarını uyanık tutmalılar. Teknoloji ortadan kalkmayacak. Yapay zeka gittikçe daha iyi hale gelecek.
İyi taraf? Hala bu sorunun önüne geçebilecek vaktimiz var. Ama zaman sınırlı. Çünkü gerçek hastalık kadar berbat olan tek şey sahte hastalık, ondan da berbat olan şey ise farkını bilemeyen doktor.