Wenn KI schlau wirkt – aber nur blufft
Wir Menschen messen Intelligenz oft an Leistung. Hohe Noten, clevere Problemlösungen, überzeugende Erklärungen. Meistens denken wir: Dahinter steckt echtes Verständnis. Bei KI ist das trügerisch. Sie kann super überzeugend auftreten – ohne zu kapieren, was sie tut.
Genau das haben Forscher der Zhejiang University bei einem Hype-Modell namens Centaur enttarnt. Es sollte menschliches Denken nachahmen. Stattdessen? Reine Mogelpackung.
Der Star, der zu perfekt schien
Im Juli 2025 sorgte Centaur für Schlagzeilen. Aus einem normalen Sprachmodell – wie in Chatbots – wurde durch Training mit Psychologie-Daten ein Alleskönner. 160 Aufgaben gemeistert: Von Entscheidungen bis zur Selbstkontrolle. Alle waren baff. Endlich KI, die wie wir tickt?
Doch dann der Hammer.
Der einfache Trick, der alles auffliegen ließ
Die Neu-Forscher testeten clever: Sie ersetzten echte Psychologie-Fragen durch Blödsinn. Statt „Welche Strategie passt hier?“ hieß es plötzlich „Wähl einfach Option A“.
Ergebnis? Centaur spuckte weiter die alten „richtigen“ Antworten aus. Ignorierte die neue Anweisung komplett. Es folgte nur gemusterten Mustern aus dem Training – wie ein Papagei.
Stell dir vor: Ein Schüler, der alte Tests kennt und immer die markierten Antworten ankreuzt. Ohne die Frage zu lesen. So tickt Centaur.
Warum das ein Weckruf ist (und ein bisschen gruselig)
Das zeigt: Unsere KI-Tests täuschen leicht. Große Modelle lernen Muster aus Milliarden Beispielen meisterhaft. Aber das ist kein Verständnis. Sie sind Black Boxes – wir sehen nicht rein, wie sie entscheiden.
Folgen? KI, die selbstsicher Unsinn labert, sobald es vom Training abweicht. Halluzinationen, Fehldeutungen. In sensiblen Bereichen wie Medizin oder Recht? Katastrophe.
Das Rätsel, das uns alle bremst
Am spannendsten: Echtes Sprachverständnis – die Absicht hinter Worten greifen – ist brutaler als gedacht. Muster erkennen? Kinderspiel. Kontext und Sinn erfassen? Die große Hürde.
Nicht Rechenpower fehlt. Nicht Daten. Sondern: Was Worte wirklich bedeuten.
Fazit: Gut, dass es auffliegt
Centaurs Fiasko ist positiv. Forscher werden kritischer. Benchmarks allein reichen nicht. Und es mahnt: Gute Noten ≠ echtes Begreifen.
Beim nächsten KI-Hype: Würde es halten, wenn man die Frage umformuliert?
Quelle: https://www.sciencedaily.com/releases/2026/04/260429102035.htm