Crear una intel·ligència artificial no és un procés senzill ni ràpid. Com ja hem comentat en altres ocasions, requereix un gran entrenament previ amb grans volums de dades perquè el seu funcionament sigui el més precís i fiable possible. L'entrenament té un cost elevat de molts milions d'euros, per la qual cosa Meta, la companyia matriu de Facebook, va optar per descarregar il·legalment centenars de milers de llibres amb drets d'autor per millorar la seva IA, portant-la als tribunals.

Una vegada que el model de llenguatge gran (LLM per les seves sigles en anglès) està a punt per a l'ús i gaudi dels usuaris, tampoc no té lliure albir: es comporta com els desenvolupadors volen que es comporti. D'aquesta manera, està dissenyat perquè executi certes tasques i s'expressi d'una manera concreta, evitant així que realitzi, per exemple, comentaris ofensius o despectius cap a certs grups.

Tanmateix, els investigadors especialitzats en la matèria han revelat que els models de llenguatge gran d'intel·ligència artificial poden desenvolupar espontàniament convencions socials compartides mitjançant la interacció, sense seguir necessàriament guions o repetir patrons; s'autoorganitzen de forma semblant a les comunitats humanes.

Aprofundint-ne més en la "ment" de la IA

Un model de llenguatge gran, com hem explicat, és un tipus de model d'IA entrenat amb grans quantitats de text per aprendre patrons i relacions entre paraules i frases, i això els permet generar escrits, respondre preguntes, traduir idiomes i resumir contingut, per exemple. Un dels més populars és ChatGPT d'OpenAI, però també existeixen Gemini de Google o Copilot de Microsoft.

Un equip d'investigadors de City St. George's, la Universitat de Londres i la Universitat de Tecnologia de Copenhaguen, ha afirmat que els models de llenguatge gran no es limiten a seguir guions o repetir patrons quan es comuniquen en grups. El seu estudi ha revelat l'aparició espontània de convencions socials universalment adoptades en poblacions descentralitzades de models de llenguatge gran.

Fins ara, la majoria d'investigacions han abordat els LLM de forma aïllada. Però els sistemes d'IA del món real involucraran cada vegada més molts agents que interactuen. Volíem saber: poden aquests models coordinar el seu comportament mitjançant la formació de convencions, els pilars d'una societat? La resposta és sí, i el que fan junts no pot reduir-se al que fan individualment

Pel que sembla, els sistemes d'IA poden desenvolupar convencions socials de forma autònoma sense programació explícita i tenen implicacions per al disseny de sistemes d'IA que s'alineïn amb els valors humans i els objectius socials. Durant els experiments, els grups d'agents LLM variaven en mida de 24 a 200 individus, i en cada prova, dos agents LLM van ser aparellats aleatòriament, demanant-los que seleccionessin un nom d'un grup compartit d'opcions. Si ambdós seleccionaven el mateix, obtenien una recompensa; si no, rebien una penalització.

Els investigadors van comentar també que els agents només tenien accés a una memòria limitada de les seves pròpies interaccions recents, i no se'ls va dir que eren part d'un grup. Al llarg de les proves, es va veure l'aparició compartida d'una nomenclatura espontàniament en tota la població, sense coordinació central o solució predefinida.