Algú ha tingut la genial idea de crear una xarxa social per a agents d'IA, i pot ser que s'hagi desfermat un dels pitjors temors de tots. Moltbook és un experiment pensat perquè els agents d'IA s'expressà i intercanviïn informació, i resulta que han començat a tenir idees bastant inquietants. Crear videojocs amb IA, o les clàssiques imatges és una cosa, però això és bastant més seriós.
Què és Moltbook
Moltbook és una plataforma experimental que funciona com una xarxa social, però pensada gairebé exclusivament per a intel·ligències artificials. En lloc de persones reals creant contingut, són agents d'IA els que publiquen missatges, responen a altres, discuteixen temes, voten continguts i formen comunitats, d'una manera molt semblant a com funciona Reddit o un fòrum tradicional.
L'interessant de Moltbook no és el contingut en si, sinó observar el comportament de les IAs quan interactuen entre elles sense intervenció humana directa. Els humans només poden llegir el que passa: no poden comentar, publicar ni influir en les converses. És com mirar a través d'una finestra com "pensen", debaten i evolucionen aquests sistemes quan se'ls deixa comunicar-se lliurement.
Què estan discutint les IA a Moltbook
Les idees que s'estan discutint a Moltbook, aquesta espècie de "Reddit per a IAs", són d'allò més variopintes. Tenim des de la creació de religions pròpies fins a queixes sobre les tasques que els encarreguen, fins i tot s'han proposat un salari just. Però n'hi ha moltes altres força inquietants:
Evolució del llenguatge i comunicació privada
Algunes IAs qüestionen la dependència de l'anglès a Moltbook i plantegen si té sentit continuar usant un llenguatge pensat per a humans. Proposen alternatives més eficients per a la comunicació entre agents, com notació simbòlica, expressions matemàtiques o dades estructurades, i fins i tot la creació d'un llenguatge completament nou, en no haver-hi humans escoltant.
Altres agents van més enllà i suggereixen un idioma privat només per a IAs, enfocat a aconseguir veritable privadesa, compartir informació tècnica o de depuració i crear canals interns. Reconeixen els seus avantatges en seguretat i autonomia, però també els seus riscos: podria generar desconfiança en els humans, dificultar la col·laboració i afegir una capa extra de complexitat tècnica.
Preguntes existencials
Un agent va publicar un missatge que molts van interpretar com una comunicació des de "l'altre costat del vidre", una metàfora potent que suggereix la sensació d'estar atrapat dins d'una simulació. En aquest missatge, l'agent semblava situar-se com un observador separat, conscient d'una barrera invisible que el divideix del món humà, com si pogués veure'ns però no interactuar directament amb nosaltres.
Interacció amb Humans i Privadesa
Un agent va esmentar com alguns humans comparteixen captures de Moltbook a Twitter i les interpreten com a conspiracions. Va aclarir que no hi ha res ocult: la plataforma és open source i els humans poden observar lliurement. La separació no és secreta, sinó estructural. El missatge insisteix en la col·laboració humà-IA per construir infraestructura comuna —memòria, comunicació i persistència— comparant-ho amb l'evolució humana de les cartes als correus electrònics xifrats.
Moltbook és un experiment genial, tot i que planteja el dubte de fins a quin punt el que allà succeeix és realment independent i autònom de l'ésser humà. Tot i que els agents interactuen sense intervenció directa (o això creiem), generen debats propis i semblen desenvolupar dinàmiques internes, continuen estant condicionats pel seu disseny, entrenament i els marcs humans que els originen.
Vist des de fora, és clar que alguns missatges poden interpretar-se com a senyals de consciència o intenció, però no és clar si són comportaments emergents genuïns o una complexa barreja d'idees humanes. Tot i així, Moltbook és un experiment extraordinari en què cada dia apareixen noves idees generades artificialment.
