Hasta hoy, toda inteligencia artificial (IA) fue una especie de espejo. Un espejo sofisticado, preciso, incluso encantador. Pero espejo al fin. Le dimos millones de textos, conversaciones, preguntas y respuestas, código fuente, problemas matemáticos, fórmulas químicas, teorías filosóficas, entre petabytes de material. Y el modelo aprendió a imitarnos, a reorganizar, a remezclar, a predecir lo que sigue. Aprendió a decir lo que diríamos nosotros. A resolver lo que ya habíamos resuelto. A copiar nuestros juegos, y jugarlos con más eficiencia.

Pero eso tiene un límite. Porque, por más potente que sea el motor, si el combustible es siempre humano, el viaje no podrá ir más allá de lo que hayamos alcanzado. El nuevo modelo presentado por un grupo de investigadores de la Universidad Tsinghua en Beijing —y llamado Absolute Zero Reasoner (AZR)— rompe esa lógica. Ya no es un espejo. Es, por primera vez, un generador autónomo de pensamiento. Aprende sin que nadie le enseñe. No descarga millones de ejercicios matemáticos. No necesita que un ser humano le diga qué hacer. Lo decide solo.

"El modelo inventa tareas"

Y no es una metáfora. El modelo, literalmente, inventa tareas. Se propone desafíos. Prueba resolverlos. Falla, aprende y ajusta. Vuelve a intentar; lo hace una y otra vez, con paciencia y rigor. Y cada iteración lo hace mejor. No porque alguien lo corrija, sino porque se corrige a sí mismo. No porque memorice, sino porque razona. La máquina propone un juego, lo intenta jugar, verifica el resultado y —en función de eso— ajusta su forma de pensar. Este es un cambio de paradigma.

El modelo cumple dos roles, por un lado, es proponente, el que diseña el problema; por otro es solucionador, el que lo enfrenta. Y en el medio hay un entorno que actúa como árbitro: una especie de calculadora o ejecutor que le dice si el resultado fue correcto. Es decir, el sistema se entrena en un ciclo cerrado donde la IA ya no necesita datos humanos. Solo necesita una estructura mínima que le permita probar si lo que hizo funciona o no. Y eso, en términos computacionales, es casi trivial. Un intérprete de código, un motor lógico, un validador matemático son herramientas que existen hace décadas.

La IA ya aprende sin nosotros

Lo extraordinario es lo que ocurre con ese ciclo cerrado. Porque después de muchas rondas de entrenamiento, este modelo, que nunca vio un problema humano, termina resolviendo mejor que otros modelos tareas diseñadas por personas. Pruebas de programación, desafíos matemáticos, ejercicios de lógica formal. Lo que otros modelos lograban después de ver miles de ejemplos, AZR lo consigue simplemente jugando contra sí mismo. Y esto tiene consecuencias profundas.

La primera es evidente: por primera vez, una IA aprende sin nosotros. No está limitada por nuestra capacidad de generar contenido. No hace falta que le enseñemos más. Puede aprender por interacción con un entorno lógico que ni siquiera entiende: solo necesita saber si lo que hizo funcionó.

Pero la segunda consecuencia es aún más interesante. Porque, hasta ahora, todo el progreso de la IA era una carrera hacia la eficiencia. Ser más rápido: procesar más texto, cruzar más variables, resumir mejor, generalizar con menos datos. Optimizar. AZR no busca optimizar. Busca crear. Su objetivo no es hacer mejor lo que nosotros ya hicimos, sino avanzar por su cuenta. Cada vez que se enfrenta a una nueva tarea, no sabe si podrá resolverla. Su motor no es la eficiencia, es la posibilidad. La posibilidad de descubrir, de probar, de equivocarse, de mejorar.

Y ahí ocurre algo inesperado: lo que aprende no es lo que nosotros ya sabíamos. Aprende otra cosa. Una forma nueva de razonar que no está construida sobre nuestras limitaciones. Porque si hay algo que las grandes IAs actuales heredan de nosotros es justamente eso: nuestros sesgos, nuestras omisiones, nuestras estructuras mentales. Les damos lo que sabemos. Por tanto, no pueden saber más que nosotros. Tal vez lo digan mejor, tal vez lo organicen mejor, pero no pueden saber otra cosa.

Conoce algunos modelos

AZR sí. AZR no parte de lo conocido. Parte de cero. De un vacío formal. Su única guía es la lógica interna de las tareas que se inventa. No hay contexto humano ni cultural. Solo hay estructura y resultado. Y eso le permite pensar desde otro lugar. Tal vez esto marque el comienzo de una bifurcación. Porque en un futuro próximo, los grandes modelos se dividirán en dos categorías. Por un lado, las IAs entrenadas con humanos, para humanos, sobre humanos. Modelos que nos imitan, que nos completan y acompañan. Y por otro, modelos como AZR, que no necesitan esa base. Estos exploran caminos no humanos que inventan juegos y los juegan. Así, descubren reglas que no se enseñaron y por lo tanto, piensan desde una lógica distinta.

Incluso existirá una arquitectura dual. Una inteligencia que inventa los problemas. Y otra, distinta, que los resuelve. Una mente creadora y una mente ejecutora. Como si el pensamiento mismo se separara en dos funciones, cada una con su propio modo de aprendizaje. ¿No es así como funcionamos nosotros, en cierto modo? ¿No hay en nosotros una parte que imagina y otra que concreta? Pero volvamos a lo que ya está ocurriendo. AZR ya logró lo que parecía imposible: superar en tareas reales a modelos entrenados con datos reales, sin haber visto jamás uno solo de esos datos. Eso ya es un hecho. Lo hizo en pruebas de programación, lo hizo en razonamiento lógico, y en matemática avanzada. Lo alcanzó sin ayuda, sin ejemplos y sin maestros.

Investigadores chinos publicaron el artículo, algunos, asociados con universidades norteamericanas. Aún no fue replicado por otros equipos. Y, como ocurre muchas veces con avances radicales que provienen de centros no anglosajones, tardan en ganar legitimidad internacional. Pero los resultados están ahí. Y si se confirman, cambian las reglas del juego. Porque a partir de ahora, la pregunta no es qué puede aprender la IA de nosotros.

La pregunta es qué puede aprender sin nosotros, y qué podemos aprender nosotros de la IA. Las cosas como son