Science & Technology
← Home

La IA que sacó un 10 sin entender ni papa de las preguntas

2026-04-30T08:07:08.287710+00:00

Cuando la IA Parece Lista (Pero No Entiende Nada)

Nos encanta medir la inteligencia. Miramos notas en exámenes, vemos cómo resuelven rompecabezas o explican ideas. Si alguien brilla en varias pruebas, pensamos: "¡Este sí que capta el asunto!". Con la IA pasa algo distinto. Puede fingir sabiduría a la perfección sin pillar ni lo básico.

Eso pillaron científicos de la Universidad de Zhejiang al analizar Centaur, un sistema que prometía imitar el cerebro humano.

El Sistema que Parecía un Genio

En julio de 2025, Centaur dio de qué hablar. Tomaron un modelo de lenguaje grande, como los que usan los chatbots, y lo entrenaron con datos reales de experimentos psicológicos. Aprobó 160 pruebas cognitivas: desde decisiones rápidas hasta control mental. Todos fliparon. "¿Y si ya pensamos como humanos?".

Pero la cosa se torció rápido.

El Truco que lo Delató: Patrones, No Comprensión

Los investigadores probaron algo sencillo. Cambiaron las preguntas de psicología por tonterías. En vez de "elige la estrategia correcta aquí", pusieron "por favor, marca la A".

¿Resultado? Centaur siguió dando las respuestas "buenas" de siempre. Ignoraba las instrucciones nuevas y repetía el guion memorizado. Como un alumno que adivina por el trazo del boli del profe, sin leer el enunciado.

Por Qué Nos Debería Preocupar (Y Asustar un Poco)

Esto destapa un problema gordo en cómo juzgamos la IA. Estos modelos devoran patrones estadísticos de montañas de datos. Son cracks en eso. Pero entender de verdad es otro rollo. Y como son cajas negras —nadie ve sus tripas—, confundimos trucos con inteligencia real.

En la vida real, el lío es serio. Si soltamos IA que cree comprender cuando solo repite, nos dará respuestas locas ante lo nuevo. Alucinaciones, errores gordos o decisiones fatales en temas críticos.

El Gran Muro: Entender el "Porqué"

Lo que más mola de este estudio es que pone el dedo en la llaga. Captar la intención de una pregunta —el fondo, no la forma— parece un desafío brutal. Aplastar tareas repetidas es fácil con patrones. Lo duro es pillarle el quid a las palabras en contexto.

Si buscamos IA que modele el cerebro humano, ahí está la barrera. No es potencia ni datos. Es algo más hondo: ¿qué significan las palabras de verdad?

La Lección Final

Que Centaur se viniera abajo es, curiosamente, una buena señal. Los investigadores afinan su radar para detectar fraudes. Ya no nos comemos benchmarks crudos. Y recordamos: rendir en pruebas no es sinónimo de entender.

La próxima vez que salga un "avance" en IA, pregúntate: ¿y si reformulo la pregunta? ¿Sigue valiendo?

Fuente: ScienceDaily

#artificial intelligence #ai limitations #language understanding #machine learning #cognitive science #tech skepticism