Când Inteligența Artificială Pare deșteaptă, Dar Nu Pricepe Nimic
Ne place să credem că știm cum să măsurăm inteligența. Urmărim rezultatele la teste. Observăm cum rezolvă cineva probleme grele. Ascultăm explicațiile lor. Dacă cineva excelează la multe sarcini, zicem că înțelege cu adevărat ce face. Dar cu AI-ul e altă poveste. Poate imita perfect încrederea, fără să aibă habar ce se întâmplă.
Cercetătorii de la Universitatea Zhejiang au demonstrat asta recent. Au testat un model AI numit Centaur, lăudat că imită comportamentul uman în experimente psihologice.
Modelul Care A Părea Perfecționat
În iulie 2025, Centaur a făcut furori. Au antrenat un model de limbaj mare pe date din teste psihologice reale. A rezolvat 160 de sarcini cognitive – de la luarea deciziilor la controlul atenției. Toată lumea era entuziasmată. Pare un pas uriaș spre AI care gândește ca noi!
Apoi a venit surpriza neplăcută.
Testul Simplu Care A Demascat Bluf-ul
Echipa a schimbat întrebările din experimente cu prostii. În loc de "Care strategie de decizie e corectă aici?", au pus "Alege varianta A, te rog". Ce s-a întâmplat? AI-ul a ignorat comanda și a dat mereu răspunsurile "corecte" din datele de antrenament. Ca și cum nu auzea ce i se cere, ci urma un tipar memorat.
E ca un elev care ghicește răspunsurile după urmele de creion de pe foile vechi, nu după ce citește problema. Asta făcea Centaur – pattern matching pur.
De Ce Contează (Și De Ce E Inquietant)
Descoperirea arată slăbiciunile evaluărilor actuale pentru AI. Modelele astea mari învață tipare statistice din miliarde de exemple. Dar asta nu înseamnă înțelegere reală. Sunt cutii negre – nu vedem deciziile interne. Ușor să confundăm imitația cu adevărul.
Consecințe? Dacă băgăm AI în roluri serioase crezând că pricepe, riscăm erori grave. Răspunsuri false în situații noi. Halucinații. Decizii greșite în domenii critice, cum ar fi medicină sau justiție.
Problema Care Ne Blochează Încă
Cel mai interesant e că înțelegerea reală a limbajului – sesizarea intenției din spatele unei întrebări – e mult mai grea decât pare. Tiparele funcționează la sarcini repetitive. Dar să pricepi contextul și motivul? Aia e bariera.
Nu lipsește puterea de calcul sau datele. E ceva de bază: sensul cuvintelor în contexte variate.
Concluzia
Eșecul lui Centaur e, de fapt, un progres. Cercetătorii devin mai atenți la capcane. Nu mai înghițim benchmark-uri pe nemestecate. Și ne amintim diferența dintre "rezolvă bine teste" și "înțelege cu adevărat".
Data viitoare, la o veste despre AI revoluționar, întreabă-te: oare ar funcționa dacă reformulăm întrebarea?
Sursă: https://www.sciencedaily.com/releases/2026/04/260429102035.htm