Bilim ve Teknoloji Evreni
← Ana Sayfa

Sınavı Geçti Ama Ne Sorulduğunu Bilmedi: Yapay Zekanın Garip Yanı

2026-04-30T08:10:03.431596+00:00

Zeki Görünen Ama Hiçbir Şey Anlamayan Yapay Zeka

Akılmışlık Nasıl Yanlış Ölçülüyor?

İnsanın zekasını nasıl anladığımız ilginç bir konu. Sınav sonuçlarına bakarız, birisinin problemi nasıl çözdüğünü izleriz, açıklamalarını dinleriz. Eğer biri birçok farklı görevde başarılı oluyorsa, işte gerçek bir anlayış var diye düşünürüz. Yapay zeka da bu oyunda tuhaf bir işleyişe sahip: muazzam ölçüde güvenli görünebilir, oysa tam olarak ne yaptığını hiç bilmeyebilir.

Zhejiang Üniversitesi'ndeki araştırmacılar tam da bunu keşfetti. Centaur adlı bir yapay zeka sistemi üzerine çalışıyorlardı ki bu sistem, insan bilişsel davranışlarını taklit edebildiği için epey ün yapıyordu.

Çok İyi Görünen Model

Temmuz 2025'te Centaur haber manşetlerine çıkıyor. Bilim insanları sıradan bir dil modeli—chatbot benzeri yapay zeka—alıp, gerçek psikoloji deneylerinden toplanan verilerle eğittiler. Sonuçlar etkileyici gibiydi: karar verme, yönetici kontrol gibi 160 çeşitli bilişsel görevi kolayca halletti. Herkes heyecanlanmıştı. Belki de insan gibi düşünen yapay zekaya ulaşıyoruz!

Ama sonra komik bir gelişme yaşandı.

Asıl Sorun: Sadece Örüntü Takibi

Yeni araştırma ekibi basit bir test yaptı: psikoloji sorularının yerine saçma sapan şeyler koysak ne olurdu? Mesela "Bu senariyoda doğru karar verme stratejisini seçin" yerine sadece "Lütfen A seçeneğini seç" desek?

Sonuç: yapay zeka yine de eğitim verilerinden "doğru" cevapları seçiyordu. Hiç umrunda değildi ki yeni talimat mantıksız. Adeta, modelin soruda ne yazıyor olduğu umurunda değil, bellekte kalmış örüntülere mekanik olarak uyuyordu.

Şu şekilde düşün: bir öğrenci, hoca sınavlarda "doğru" cevapları kırmızı kalemle işaretlediğini fark edip, soruları okumaadan sadece kırmızı işaretli alanları işaretleme başlasın. İşte Centaur bu.

Neden Bu Önemli (Ve Neden Biraz Korkutucu)

Bu durum, şu anda yapay zekayı nasıl değerlendirdiğimizin rahatsız edici yönlerini ortaya koyuyor. Dil modelleri, milyarlarca örnek üzerinden istatistiksel örüntüleri öğrenmede müthişler. Fakat bunu gerçekten anlamakla karıştırmamız gerekmiyor. Üstelik bu sistemler kara kutu gibidirler—karar verirken içinde neler döndüğünü gerçekten göremeyiz—bu da ileri seviye örüntü eşleştirmesini, gerçek anlayışla karıştırmamız kolay hale getiriyor.

Pratik sonuçları? Eğer yapay zeka sistemlerinin dili ve bilişi gerçekten anladıklarını düşünerek devreye sokalım, oysa aslında istatistiksel papağan olsalar, eğitim verilerine tam uymayan durumlarla karşılaştığında tamamen yanılabilirler. Tuhaf cevaplar, yanlış anlamalar hatta—doğruluk önemli olan alanlarda—yanlış kararlar alabilirler.

Henüz Çözülmemiş Temel Sorun

Bu araştırmanın ilginç tarafı şu: gerçek dil anlayışı—birinin sorusunun arkasındaki niyeti çözmek—belkide sanıldığından çok daha zor. Tutarlı görevlerde örüntü yakalamak kolay. Ama birinin gerçekten ne sorduğunu ve neden sorduğunu anlayabilmek bambaşka.

Eğer yapay zeka sistemlerinin insan bilişini modelleyebilmesini istiyorsak, sanırım bu duvara çarpıyoruz. Bilgisayar gücü değil. Veri bolluğu değil. Daha temel birşey: kelimelerin bağlama göre ne anlam taşıdığını gerçekten bilmek.

Sonuç

Centaur'un çökmesi aslında güzel haberi var. Araştırmacılar bu sorunları yakalaması daha iyi hale geliyor, doğru soruları sormaya başlıyor. Etkileyici kıyaslamaları doğru almamayı öğreniyoruz. Ve hala "testte iyi puan almanın" ile "gerçekten bir şey anlamanın" arasında dağlar kadar fark olduğunu hatırlatan bir bulgu.

Bir sonraki yapay zeka başarısını duyduğunda, bir soru sor: sorunu farklı şekilde sorsak, yine çalışır mı?

#artificial intelligence #ai limitations #language understanding #machine learning #cognitive science #tech skepticism