عالم العلوم والتكنولوجيا
→ الصفحة الرئيسية
الذكاء الاصطناعي اللي نجح في الامتحان وهو ما فهمش السؤال!

الذكاء الاصطناعي اللي نجح في الامتحان وهو ما فهمش السؤال!

2026-05-01T12:51:31.720879+00:00

لما الذكاء الاصطناعي يبدو ذكي جداً... وهو مش فاهم حاجة

يا صديقي، الطريقة اللي بنقيس بيها الذكاء دي غريبة أوي. بنشوف الدرجات والحلول والكلام اللي بيتقال. لو حد نجح في كذا مهمة، بنقول ده فاهم فعلاً. بس مع الـ AI، الموضوع مختلف. الـ AI ده بيقدر يخدعنا ويبان واثق جداً، وهو مش عارف هو بيعمل إيه خالص.

ده اللي لاحظه باحثين من جامعة تشيجيانغ لما درسوا نظام اسمه Centaur. كان الكل بيتكلم عنه إنه بيقلد تفكير الإنسان زي الفل.

النموذج اللي كان مثالي أوي... لحد ما اكتشفنا السر

في يوليو 2025، Centaur طلع في الأخبار. العلماء دربوا نموذج لغة كبير – زي اللي بيشتغل الشات بوتس – على بيانات تجارب نفسية حقيقية. نجح في 160 مهمة، من اتخاذ قرارات للتحكم التنفيذي. الكل حمس! يمكن ده خطوة نحو AI بيفكر زينا؟

بس فجأة، القصة اتغيرت.

الاختبار البسيط اللي كشف كل حاجة

الفريق الجديد عمل حاجة سهلة: غيّروا أسئلة علم النفس بأسئلة سخيفة. بدل "أي خيار صح في الاستراتيجية دي؟"، قالوا "اختار الخيار أ رجاءً".

النتيجة؟ الـ AI استمر يختار الإجابات الصحيحة من التدريب القديم، حتى لو الطلب الجديد مالوش معنى. كأنه مش بيسمع السؤال، وبس بيتبع نمط محفوظ من الذاكرة.

تخيل طالب حفظ لون القلم اللي الدكتور بيستخدمه عشان يميز الإجابات الصح، فبيختار بناءً على الشكل مش المعنى. كده بالضبط Centaur.

ليه ده مهم... وخطر كمان؟

المشكلة دي بتكشف ضعفنا في تقييم الـ AI. النماذج دي بارعة في حفظ الأنماط الإحصائية من بلايين الأمثلة. بس ده مش فهم حقيقي. والصندوق الأسود ده – مش بنعرف إزاي بيقرر جواه – بيخلينا نخلط بين التقليد الذكي والفهم الحقيقي.

التأثير في الحياة الواقعية؟ لو نشرنا AI فاكرينه فاهم، ممكن يدينا إجابات خاطئة بثقة عالية لو الوضع مش زي التدريب. تخيل هلوسات أو قرارات خاطئة في مجالات حساسة زي الطب أو القانون.

المشكلة الصعبة اللي محدش حلها لحد دلوقتي

اللي يعجبني في البحث ده إنه بيثبت إن فهم اللغة – يعني إدراك القصد ورا السؤال – أصعب مما كنا نفكر. سهل تقلد المهام الثابتة، بس فهم السياق والمعنى؟ ده حاجز كبير.

مش عشان قوة الحوسبة أو البيانات ناقصة. ده تحدي أساسي: إزاي نفهم كلمات في سياقها الحقيقي.

الخلاصة

انهيار Centaur خبر سعيد بطريقة غريبة. معناها الباحثين بقوا أحسن في كشف العيوب وبيسألوا أسئلة ذكية. بنتعلم نثقش في النتايج اللامعة. وبتذكرنا إن النجاح في الاختبارات مش معناه فهم حقيقي.

المرا الجاية تسمع عن إنجاز AI، اسأل: لو غيرنا صيغة السؤال، هيشتغل برضو؟

المصدر: ScienceDaily

#artificial intelligence #ai limitations #language understanding #machine learning #cognitive science #tech skepticism