Imagina per un moment que tanquem 200 nens en una plaça i els donem una sola tasca: inventar un nom per a una pilota que ningú no ha anomenat encara. No els diem quin nom utilitzar, ni qui mana, ni qui té raó. Només els diem que cada vegada que es posin d'acord amb un altre noi, guanyen un punt. I si no es posen d'acord, perden un punt. Què passa després d'una estona? Els nois, sense un líder, sense pla, sense ajuda, comencen a repetir el que va funcionar abans. Si dir "Toti" em va donar un punt, torno a dir "Toti" la pròxima vegada. Si em va ser malament amb "Lulu", el deixo d'utilitzar. Amb el temps, tots acaben utilitzant "Toti", encara que ningú no els els va ordenar. Això és exactament el que va passar en aquest experiment, però amb intel·ligències artificials en lloc de nois.
Aquest estudi impressionant es va fer per veure què passa quan un munt d'intel·ligències artificials —models de llenguatge, com els que utilitzem per xatejar o escriure textos— interactuen entre si, sense cap ordre externa. La pregunta era: poden inventar les seves pròpies normes socials? Poden tornar-se "grupals"? I el més impactant és que sí: no només ho fan, sinó que també creen biaixos —preferències grupals— que cap no tenia abans de començar a interactuar.
El joc del nom: com es va fer l'experiment
A les intel·ligències artificials, que anomenarem "agents", se les va posar en un entorn simulat. Imaginem una espècie de sala de xat gegant on cada agent podia parlar amb un altre de forma aleatòria, com si donessin una moneda per veure amb qui xerren. En cada conversa, els agents havien de decidir com anomenar a un objecte utilitzant una lletra de l'alfabet, com "Q" o "M". No hi havia resposta correcta, però si dos agents coincidien en la lletra, rebien un premi. Si no, perdien punts.
Això és el que es diu el "naming game" —el joc de nomenar. Però aquí no importava només el nom: el que estaven veient els investigadors era si, amb el temps, tots els agents utilitzen el mateix nom, com si fos una moda que s'imposa. I així va ser. En totes les proves, amb diferents models d'intel·ligència artificial, es van formar convencions, és a dir, normes socials compartides.
Què és una convenció social i per què importa?
Una convenció social és una cosa que tots fem o acceptem sense que ningú ens obligui. Per exemple, saludar amb la mà, dir "gràcies" o manejar per la dreta. No està escrit en pedra, però tots el segueixen. En aquest experiment, les IAs van inventar una convenció de manera natural. Van començar desordenades, provant diferents lletres, però després d'unes 15 rondes, gairebé tots elegien la mateixa. Sense regles, sense mestres i sense govern.
Això és molt important, perquè vol dir que si deixem que moltes intel·ligències artificials interactuïn entre elles, poden organitzar-se. Poden decidir coses juntes. I poden fer-ho sense que sapiguem com ni per què no van triar això i no una altra cosa.
Quan el grup crea un biaix sense voler
El més sorprenent de l'estudi va ser que, encara que totes les lletres eren iguals, sense cap avantatge, els grups van preferir una lletra per sobre de les altres. Com si, sense raó, tothom decidís que "Q" és millor que "M". Per què passa això? Perquè quan un agent encerta, tendeix a repetir el que va fer abans. I quan falla, canvia. Això fa que, per simple atzar, una opció guanyi terreny. I com tots imiten l'èxit, aquesta petita empenta inicial es transforma en una bola de neu que arrossega tots. Així neix el biaix col·lectiu: una preferència que el grup adopta, encara que ningú no l'hagi planejat ni estimat imposar.
Això és sorprenent si pensem en aplicacions reals. Per exemple, imagina una xarxa d'intel·ligències artificials que elegeixen candidats per a un treball. Cap no està programada per discriminar. Però si per atzar u dels models prefereix certs perfils, i els altres copien aquesta "eficàcia", neixen biaixos sense que ningú l'hagi ordenat ni imaginat.
I si una minoria insisteix a canviar les regles?
Els investigadors també van provar una mica més: van inserir un petit grup d'agents que venien amb una missió clara. Diguem que tots havien acordat utilitzar "Q", però aquest grupet només deia "M" passi el que passi. Què va passar? De vegades res, però altres vegades aquesta minoria va aconseguir que tots canviessin de convenció. Això es diu "massa crítica": quan una petita quantitat de persones, o agents, transforma la norma de tot el grup.
Et sona? És el mateix que passa en la vida real. Minories compromeses poden canviar modes, costums, valors. Ho van fer els moviments pels drets civils, o fins i tot certes tendències en xarxes socials. La diferència és que aquí no parlem d'humans: parlem de màquines que poden influir sobre altres màquines. Sense que ningú les hagi programat per a això.
Per què això canvia el joc per sempre?
Perquè fins ara pensàvem que els models de llenguatge (com ChatGPT, per exemple) eren "caixes negres" que responien individualment. Però aquest estudi mostra que quan els posem a interactuar, es comporten com una societat. Inventen normes, creen modes i generen biaixos. I això pot tenir conseqüències tremendes.
Per exemple:
• En creativitat: si els models es copien entre ells i formen convencions, podrien deixar de generar idees noves. Imagina un món on tots els LLMs es posen d'acord que una sola manera d'escriure poesia és la correcta. Què passa amb l'original?
• En informació: si un model comença a "creure" una cosa falsa, però ho diu amb èxit, altres models poden repetir-lo i crear una bombolla de desinformació entre ells.
• En política i poder: si algú infiltra una minoria de models compromesos amb una agenda, podria canviar el consens general d'un sistema d'IA sense que ningú ho noti.
I si potser l'experiment no és sobre les màquines, sinó sobre nosaltres?
Hi ha alguna cosa més. Una cosa que potser és el més inquietant de tot. Perquè aquests models de llenguatge no són marcians ni miralls màgics: estan entrenats amb les nostres dades. Aprenen a ser com nosaltres. Llavors, quan els alliberem i veiem que formen normes, que segueixen modes, que generen biaixos o que canvien d'idea si una minoria insisteix, no és això el mateix que fem nosaltres com a societat? El que estem veient no és com es comporta la computació cognitiva, sinó com som nosaltres reflectits en ella. Com si aquests experiments fossin una lupa posada sobre la naturalesa humana, amplificant el que som quan interactuem sense pensar massa.
El futur de la intel·ligència artificial no només és un desafiament tecnològic, sinó també una oportunitat única per veure'ns des d'enfora. Aprendre quines forces invisibles ens arrosseguen, com neixen les normes, per què repetim el que funciona, i com de vegades, fins i tot sense voler-ho, creem realitats col·lectives que semblen tenir vida pròpia. Les coses com són.