Imagina por un momento que encerramos a 200 niños en una plaza y les damos una sola tarea: inventar un nombre para una pelota que nadie ha nombrado todavía. No les decimos qué nombre usar, ni quién manda, ni quién tiene razón. Solo les decimos que cada vez que se pongan de acuerdo con otro chico, ganan un punto. Y si no se ponen de acuerdo, pierden un punto. ¿Qué pasa después de un rato? Los chicos, sin un líder, sin plan, sin ayuda, empiezan a repetir lo que funcionó antes. Si decir “Toti” me dio un punto, vuelvo a decir “Toti” la próxima vez. Si me fue mal con “Lulu”, lo dejo de usar. Con el tiempo, todos terminan usando “Toti”, aunque nadie se los ordenó. Eso es exactamente lo que pasó en este experimento, pero con inteligencias artificiales en lugar de chicos.

Este estudio impresionante se hizo para ver qué pasa cuando un montón de inteligencias artificiales —modelos de lenguaje, como los que usamos para chatear o escribir textos— interactúan entre sí, sin ninguna orden externa. La pregunta era: ¿pueden inventar sus propias normas sociales? ¿Pueden volverse “grupales”? Y lo más impactante es que sí: no solo lo hacen, sino que también crean sesgos —preferencias grupales— que ninguno tenía antes de empezar a interactuar.

El juego del nombre: cómo se hizo el experimento

A las inteligencias artificiales, a las que llamaremos “agentes”, se las puso en un entorno simulado. Imaginemos una especie de sala de chat gigante donde cada agente podía hablar con otro de forma aleatoria, como si arrojaran una moneda para ver con quién charlan. En cada conversación, los agentes tenían que decidir cómo llamar a un objeto usando una letra del alfabeto, como “Q” o “M”. No había respuesta correcta, pero si dos agentes coincidían en la letra, recibían un premio. Si no, perdían puntos.

Eso es lo que se llama el “naming game” —el juego de nombrar. Pero aquí no importaba solo el nombre: lo que estaban viendo los investigadores era si, con el tiempo, todos los agentes usan el mismo nombre, como si fuera una moda que se impone. Y así fue. En todas las pruebas, con diferentes modelos de inteligencia artificial, se formaron convenciones, es decir, normas sociales compartidas.

¿Qué es una convención social y por qué importa?

Una convención social es algo que todos hacemos o aceptamos sin que nadie nos obligue. Por ejemplo, saludar con la mano, decir “gracias” o manejar por la derecha. No está escrito en piedra, pero todos lo siguen. En este experimento, las IAs inventaron una convención de manera natural. Empezaron desordenadas, probando distintas letras, pero después de unas 15 rondas, casi todos elegían la misma. Sin reglas, sin maestros y sin gobierno.

Eso es muy importante, porque quiere decir que si dejamos que muchas inteligencias artificiales interactúen entre ellas, pueden organizarse. Pueden decidir cosas juntas. Y pueden hacerlo sin que sepamos cómo ni por qué eligieron eso y no otra cosa.

Cuando el grupo crea un sesgo sin querer

Lo más sorprendente del estudio fue que, aunque todas las letras eran iguales, sin ninguna ventaja, los grupos prefirieron una letra por encima de las demás. Como si, sin razón, todo el mundo decidiera que “Q” es mejor que “M”. ¿Por qué pasa esto? Porque cuando un agente acierta, tiende a repetir lo que hizo antes. Y cuando falla, cambia. Eso hace que, por simple azar, una opción gane terreno. Y como todos imitan el éxito, ese pequeño empujón inicial se transforma en una bola de nieve que arrastra a todos. Así nace el sesgo colectivo: una preferencia que el grupo adopta, aunque nadie la haya planeado ni querido imponer.

Esto es sorprendente si pensamos en aplicaciones reales. Por ejemplo, imagina una red de inteligencias artificiales que eligen candidatos para un trabajo. Ninguna está programada para discriminar. Pero si por azar uno de los modelos prefiere a ciertos perfiles, y los demás copian esa “eficacia”, nacen sesgos sin que nadie lo haya ordenado ni imaginado.

¿Y si una minoría insiste en cambiar las reglas?

Los investigadores también probaron algo más: insertaron un pequeño grupo de agentes que venían con una misión clara. Digamos que todos habían acordado usar “Q”, pero este grupito solo decía “M” pase lo que pase. ¿Qué pasó? A veces nada, pero otras veces esa minoría logró que todos cambiaran de convención. Eso se llama “masa crítica”: cuando una pequeña cantidad de personas, o agentes, transforma la norma de todo el grupo.

¿Te suena? Es lo mismo que pasa en la vida real. Minorías comprometidas pueden cambiar modas, costumbres, valores. Lo hicieron los movimientos por los derechos civiles, o incluso ciertas tendencias en redes sociales. La diferencia es que aquí no hablamos de humanos: hablamos de máquinas que pueden influir sobre otras máquinas. Sin que nadie las haya programado para eso.

¿Por qué esto cambia el juego para siempre?

Porque hasta ahora pensábamos que los modelos de lenguaje (como ChatGPT, por ejemplo) eran “cajas negras” que respondían individualmente. Pero este estudio muestra que cuando los ponemos a interactuar, se comportan como una sociedad. Inventan normas, crean modas y generan sesgos. Y eso puede tener consecuencias tremendas.

Por ejemplo:

   •   En creatividad: si los modelos se copian entre ellos y forman convenciones, podrían dejar de generar ideas nuevas. Imagina un mundo donde todos los LLMs se ponen de acuerdo en que una sola forma de escribir poesía es la correcta. ¿Qué pasa con lo original?

   •   En información: si un modelo empieza a “creer” algo falso pero lo dice con éxito, otros modelos pueden repetirlo y crear una burbuja de desinformación entre ellos.

 •   En política y poder: si alguien infiltra una minoría de modelos comprometidos con una agenda, podría cambiar el consenso general de un sistema de IA sin que nadie lo note.

¿Y si acaso el experimento no es sobre las máquinas, sino sobre nosotros?

Hay algo más. Algo que quizás es lo más inquietante de todo. Porque estos modelos de lenguaje no son marcianos ni espejos mágicos: están entrenados con nuestros datos. Aprenden a ser como nosotros. Entonces, cuando los liberamos y vemos que forman normas, que siguen modas, que generan sesgos o que cambian de idea si una minoría insiste, ¿no es eso lo mismo que hacemos nosotros como sociedad? Lo que estamos viendo no es cómo se comporta la computación cognitiva, sino cómo somos nosotros reflejados en ella. Como si estos experimentos fueran una lupa puesta sobre la naturaleza humana, amplificando lo que somos cuando interactuamos sin pensar demasiado.

El futuro de la inteligencia artificial no solo es un desafío tecnológico, sino también una oportunidad única para vernos desde afuera. Aprender qué fuerzas invisibles nos arrastran, cómo nacen las normas, por qué repetimos lo que funciona, y cómo a veces, incluso sin quererlo, creamos realidades colectivas que parecen tener vida propia. Las cosas como son.