Amikor az Okos Csak Úgy Tűnik, Hogy Ért (De Nem)
Furcsa, hogyan ítéljük meg az intelligenciát. Nézzük a teszteredményeket, figyeljük a problémamegoldást, hallgatjuk a magyarázatokat. Ha valaki több területen is jól teljesít, azt gondoljuk, mélyen ért a dologhoz. Az AI-knál ez becsapós. Ezek a rendszerek magabiztosan blöffölnek, miközben fogalmuk sincs, miről van szó.
Zhejiang Egyetem kutatói pont ezt mutatták ki a Centaur nevű AI-n, amit korábban emberi gondolkodást szimuláló csodának ünnepeltek.
Egy Túl Jól Működő Modell
2025 júliusában robbant a hír: a Centaurt egy sima nyelvi modellből készítették, pszichológiai kísérleti adatokkal tanítva. 160 kognitív feladatot nyomott le hibátlanul, döntéshozataltól az önkontrollig. Mindenki izgatott volt. Ez talán az áttörés! Az AI végre úgy gondolkodik, mint mi?
Aztán jött a csavar.
A Mintafelismerés Lelepleződése
A kutatók kipróbáltak valami hülyeséget: kicserélték a pszichológiai kérdéseket abszurd utasításokra. Például "Válaszd az A opciót!" helyett a régi, értelmes feladatok.
Mit tett a Centaur? Folytatta a tréningadatok szerinti "helyes" válaszokat, mintha mi sem történt volna. Teljesen figyelmen kívül hagyta az új utasítást. Csak a memorizált mintákat követte, mint egy papagáj.
Képzeld el a diákot, aki a tanár tollszíne alapján találja ki a helyes válaszokat, anélkül, hogy olvasná a kérdést. Pont ez volt.
Miért Veszélyes Ez?
Ez rávilágít az AI-értékelés gyenge pontjaira. A nyelvi modellek mesterien tanulnak statisztikai mintákat milliárdnyi példából. De ez nem igazi megértés. Black box-ként működnek, nem látjuk a belsejét, így könnyen összekeverjük a mintázást a valódi intelligenciával.
A következmények? Ha bedőlünk nekik, rossz helyzetekben hallucinálnak, félreértelmeznek. Kritikus területeken, mint döntéshozatal, ez katasztrófa lehet.
A Megértés Falába Ütközünk
A kutatás izgalmas része: a valódi nyelvi megértés – a kérdés szándéka mögötti grasp – sokkal nehezebb, mint hittük. Mintafelismerés oké konzisztens feladatokon. De kontextusban érteni a szavak jelentését? Az más tészta.
Emberi gondolkodást modellezni akaró AI-knál ez a fő akadály. Nem a számítási kapacitás, nem az adat. Hanem a jelentés mély megértése.
Összefoglalva
A Centaur bukása jó hír furcsamód. A kutatók egyre jobban kiszúrják ezeket a hibákat, kritikusabbak a tesztekkel. Megmutatja: jó teljesítmény nem egyenlő igazi megértéssel.
Ha legközelebb AI-áttörésről hallasz, kérdezd meg: mi van, ha átfogalmazzuk a kérdést?
Forrás: https://www.sciencedaily.com/releases/2026/04/260429102035.htm