Crear una inteligencia artificial no es un proceso sencillo ni rápido. Como ya hemos comentado en otras ocasiones, requiere de un gran entrenamiento previo con grandes volúmenes de datos para que su funcionamiento sea el más preciso y fiable posible. El entrenamiento tiene un coste elevado de muchos millones de euros, por lo que Meta, la compañía matriz de Facebook, optó por descargar ilegalmente cientos de miles de libros con derechos de autor para mejorar su IA, llevándola a los tribunales.
Una vez que el modelo de lenguaje grande (LLM por sus siglas en inglés) está listo para el uso y disfrute de los usuarios, tampoco tiene libre albedrío: se comporta como los desarrolladores quieren que se comporte. De este modo, está diseñado para que ejecute ciertas tareas y se exprese de una manera concreta, evitando así que realice, por ejemplo, comentarios ofensivos o despectivos hacia ciertos grupos.
Sin embargo, los investigadores especializados en la materia han revelado que los modelos de lenguaje grande de inteligencia artificial pueden desarrollar espontáneamente convenciones sociales compartidas mediante la interacción, sin seguir necesariamente guiones o repetir patrones; se autoorganizan de forma parecida a las comunidades humanas.
Profundizando más en la "mente" de la IA
Un modelo de lenguaje grande, como hemos explicado, es un tipo de modelo de IA entrenado con grandes cantidades de texto para aprender patrones y relaciones entre palabras y frases, permitiéndoles generar escritos, responder preguntas, traducir idiomas y resumir contenido, por ejemplo. Uno de los más populares es ChatGPT de OpenAI, pero también existen Gemini de Google o Copilot de Microsoft.
Un equipo de investigadores de City St. George’s, la Universidad de Londres y la Universidad de Tecnología de Copenhague, ha afirmado que los modelos de lenguaje grande no se limitan a seguir guiones o repetir patrones cuando se comunican en grupos. Su estudio ha revelado la aparición espontánea de convenciones sociales universalmente adoptadas en poblaciones descentralizadas de modelos de lenguaje grande.
Hasta la fecha, la mayoría de investigaciones han abordado los LLM de forma aislada. Pero los sistemas de IA del mundo real involucrarán cada vez más a muchos agentes que interactúan. Queríamos saber: ¿pueden estos modelos coordinar su comportamiento mediante la formación de convenciones, los pilares de una sociedad? La respuesta es sí, y lo que hacen juntos no puede reducirse a lo que hacen individualmente
Al parecer, los sistemas de IA pueden desarrollar convenciones sociales de forma autónoma sin programación explícita y tienen implicaciones para el diseño de sistemas de IA que se alineen con los valores humanos y los objetivos sociales. Durante los experimentos, los grupos de agentes LLM variaban en tamaño de 24 a 200 individuos, y en cada prueba, dos agentes LLM fueron emparejados aleatoriamente, pidiéndoles que seleccionaran un nombre de un grupo compartido de opciones. Si ambos seleccionaban el mismo, obtenían una recompensa; si no, recibían una penalización.
Los investigadores comentaron también que los agentes solo tenían acceso a una memoria limitada de sus propias interacciones recientes, y no se les dijo que eran parte de un grupo. A lo largo de las pruebas, se vio la aparición compartida de una nomenclatura espontáneamente en toda la población, sin coordinación central o solución predefinida.