Durante siglos, las personas repitieron un refrán simple, pero profundo: “la unión hace la fuerza”. Lo usamos para hablar de familias, equipos o países. Pero hasta ahora nadie lo había aplicado a las máquinas que piensan. La inteligencia artificial (IA) más avanzada —esas que ya pueden escribir textos, programar, traducir, resolver problemas difíciles, siempre fue vista como una carrera individual: cuál es la mejor, cuál gana, cuál supera a las demás.

Pero en este momento ocurre algo que cambia por completo esa manera de pensar. Por primera vez, un grupo de científicos demostró que, en lugar de competir, las inteligencias artificiales pueden colaborar. Y no solo eso, cuando se unen de cierta manera, logran cosas que ninguna podría hacer sola. Es una revolución silenciosa, pero profunda, como cuando alguien descubre que sumar dos linternas ilumina mejor que una sola, incluso si una era más potente que la otra.

Estas máquinas que hoy asombran al mundo se llaman “modelos de lenguaje”. Se entrenan con enormes cantidades de texto, como si uno pudiera leer todos los libros, todos los sitios web, todos los artículos del mundo, y luego aprendiera a hablar, razonar y resolver preguntas con ese conocimiento. Los modelos más famosos tienen nombres como ChatGPT, Gemini o DeepSeek.

Aunque cada uno parece saber de todo, en realidad todos tienen una personalidad escondida. Algunos son mejores para escribir código, otros para resolver acertijos lógicos, otros para redactar con estilo humano. Porque cada uno fue entrenado con diferentes datos, con diferentes métodos, con distintos objetivos. Es como si fueran estudiantes que asistieron a distintas escuelas: todos saben leer y escribir, pero uno sobresale en matemáticas, otro en literatura y otro en juegos de estrategia.

Hasta ahora, cuando uno usaba uno de estos modelos, tenía que elegir solo uno. Era como tener una conversación con una sola mente, por más brillante que fuera. Pero un equipo de investigación en Japón decidió probar algo distinto.

Se preguntaron: ¿qué pasaría si dejamos que varios de estos modelos trabajen juntos, como un equipo? ¿Y si pudieran colaborar, discutir ideas entre ellos, corregirse y complementarse? La idea suena simple, pero llevarla a la práctica fue un desafío enorme. No es solo pedirle a tres modelos una respuesta y elegir la mejor. Es más parecido a organizar una obra de teatro con tres actores que no se conocen: hay que decidir quién dice qué, cuándo, cómo y por qué.

Para lograrlo, los investigadores crearon un sistema que imita la forma en que los humanos resolvemos problemas difíciles. Imaginemos que tenemos que armar un mueble complejo sin instrucciones. Lo primero que haríamos es pensar un rato, probar una pieza, ver si encaja y si no, empezar de nuevo. Tal vez pediríamos ayuda a alguien con más experiencia.

Luego revisaríamos el progreso, haríamos ajustes y, al final, llegaríamos a una solución. Eso es lo que ahora pueden hacer estos modelos de lenguaje cuando se los hace trabajar en conjunto. Uno prueba una respuesta, otro la revisa, un tercero propone una idea mejor, y así sucesivamente. Cada modelo aporta lo que mejor sabe hacer, como un grupo de expertos resolviendo un caso complicado.

Pero no basta con juntarlos, hay que guiarlos. Para eso, el sistema funciona como un director de orquesta que decide en cada momento qué camino seguir: si vale la pena mejorar una solución que ya está sobre la mesa, o si es preferible empezar de cero con una nueva.

Y también decide quién va a tocar en ese momento: si llama al modelo que es mejor escribiendo código, o al que entiende mejor las instrucciones abstractas. Esta forma de dirigir se basa en técnicas matemáticas que permiten tomar decisiones, aun cuando no se sabe de antemano cuál es la mejor opción. Es como probar sabores de helado sin saber cuál te va a gustar más, pero aprendiendo de cada cucharada.

Los resultados de este experimento fueron sorprendentes. Pusieron a prueba a los modelos en tareas extremadamente difíciles, que consisten en mirar unos ejemplos, entender la lógica que hay detrás, y aplicar esa lógica a un caso nuevo.

Algo que para un humano puede parecer simple —como ver que si un botón rojo se enciende, la luz se apaga, y deducir la relación, resulta difícil para las máquinas. Sin embargo, cuando trabajaron en equipo, los modelos resolvieron problemas que, por separado, les fueron imposibles. A veces, uno proponía una respuesta equivocada, pero servía como inspiración para que otro encontrara la solución correcta. Es una colaboración real, no una votación. 

Lo más asombroso es que esto contradice la idea original con la que se diseñaron estas inteligencias: que fueran generalistas, es decir, buenas para todo. Resulta que, en la práctica, cada una se vuelve buena en algo distinto. Como si la experiencia y los datos con los que fueron entrenadas las llevaran a desarrollar talentos únicos. Y eso abre preguntas nuevas: ¿por qué un modelo termina destacándose en una cosa y no en otra? ¿Cómo podemos saber de antemano para qué sirve cada uno? ¿Se puede entrenar un equipo de inteligencias desde el comienzo, en lugar de esperar que cada una nazca por separado?

Este descubrimiento también plantea un cambio profundo en la manera en que usamos la IA. Hasta ahora, queríamos un modelo cada vez más grande, más poderoso y más perfecto. Ahora vemos que, con una coordinación inteligente, varios modelos pequeños superan a uno solo. Es como pasar de construir el auto más rápido a tener un equipo de vehículos especializados que se turnan para llevarnos más lejos y más seguros. Y esto tiene consecuencias prácticas: en lugar de gastar millones en crear un único modelo gigantesco, tal vez convenga tener varios modelos más modestos que trabajen juntos.

Lo que ocurre no es un ajuste técnico. Es una revolución conceptual. Por primera vez, estamos viendo que las máquinas también pueden beneficiarse del trabajo en equipo, de la diversidad, de la colaboración. No se trata solo de velocidad o memoria, se trata de IA.

Y eso nos obliga a repensar muchas cosas: desde cómo se diseñan los sistemas de IA, hasta cómo los usamos en nuestra vida diaria. Tal vez, en el futuro cercano, cuando hablemos con un asistente virtual, no hablaremos con una sola mente, sino con un coro de inteligencias que piensan juntas para ayudarnos mejor. Como siempre, lo importante no es quién tiene la razón, sino que entre todos encontremos la mejor respuesta. La unión, incluso entre máquinas, vuelve a hacer la fuerza.

Las cosas como son