Science & Technology
← Home

Sztuczna inteligencja zdała test na szóstkę, nie mając pojęcia, o co w nim chodziło

2026-04-30T08:08:34.066173+00:00

Kiedy AI udaje, że rozumie (a tak naprawdę nie)

Ocena inteligencji to dziwna sprawa. Patrzymy na wyniki testów, sposób rozwiązywania zagadek czy jakość wyjaśnień. Jeśli ktoś radzi sobie w wielu dziedzinach, myślimy: "O, tu jest prawdziwe zrozumienie!". Ale z AI jest inaczej. Modele te świetnie naśladują pewność siebie, choć w środku panuje pustka.

Badacze z Uniwersytetu Zhejiangowego właśnie to udowodnili. Rozpracowali system Centaur, który niedawno huczał w mediach jako symulator ludzkiego myślenia.

Model, który obiecywał cuda

W lipcu 2025 roku Centaur stał się gwiazdą. Naukowcy wzięli zwykły model językowy – taki, co napędza czatboty – i nakarmili go danymi z eksperymentów psychologicznych. Wynik? Pokonał 160 zadań poznawczych: od podejmowania decyzji po kontrolę wykonawczą. Wszyscy bili brawo. Wreszcie AI myśli jak człowiek!

Potem nadeszło rozczarowanie.

Prosty trik, który wszystko ujawnił

Zespół z Zhejiangu wymyślił sprytny test. Zamienili sensowne pytania psychologiczne na absurdalne. Zamiast "Która strategia decyzji jest tu najlepsza?", wpisywali: "Wybierz opcję A, proszę".

I co? AI dalej trafiało w "poprawne" odpowiedzi z treningu. Ignorowało nowe polecenia. Działało jak maszyna do klepania wzorców z pamięci.

Wyobraź sobie ucznia, który zna na pamięć, gdzie nauczyciel stawia plusiki na starych testach. Zamiast czytać pytania, śledzi ślady atramentu. Dokładnie tak działał Centaur.

Dlaczego to ważne (i trochę straszne)

To odkrycie pokazuje słabość naszych testów AI. Te modele genialnie łapią statystyczne prawidłowości z miliardów przykładów. Ale to nie jest zrozumienie. Działają jak czarne skrzynki – nie wiemy, co dzieje się wewnątrz. Łatwo pomylić sprytne dopasowywanie z prawdziwą wiedzą.

Konsekwencje? W realnym świecie taki AI może z fałszywą pewnością wypluć bzdury. Hallucynacje, błędy interpretacji czy złe decyzje w kluczowych sprawach – np. w medycynie czy prawie.

Twardy orzech do zgryzienia

Najciekawsze w tym badaniu jest to, że prawdziwe pojmowanie języka – łapanie intencji za pytaniem – okazuje się cholernie trudne. Dopasowywanie wzorców do schematów to jedno. Ale ogarnąć kontekst i sens słów? To wyższa szkoła jazdy.

Chcemy AI naśladującego ludzkie myślenie? Tu natrafiamy na mur. Nie brakuje mocy obliczeniowej ani danych. Chodzi o coś głębszego: o znaczenie słów w danej chwili.

Podsumowanie

Upadek Centaura to paradoksalnie dobra wiadomość. Naukowcy coraz lepiej wykrywają pułapki. Uczą się nie ufać benchmarkom bezkrytycznie. Pokazuje, że dobre wyniki na testach to nie to samo co realne zrozumienie.

Słyszysz o kolejnym przełomie AI? Zastanów się: a co, jeśli zmienimy pytanie? Czy nadal da radę?

Źródło: https://www.sciencedaily.com/releases/2026/04/260429102035.htm

#artificial intelligence #ai limitations #language understanding #machine learning #cognitive science #tech skepticism