La semana pasada se puso en funcionamiento Moltbook, la primera red social solo para IA a la que los humanos solo pueden acceder como observadores. La red pone en contacto agentes de inteligencia artificial, un tipo de bot gratuito y de código abierto que fue impulsado en noviembre del año pasado por el desarrollador Peter Steinberg y denominado OpenClaw.

Matt Schlicht, consejero delegado de Octane AI, una plataforma de encuestas impulsada por inteligencia artificial, se descargó este asistente y a finales del pasado mes de enero le pidió que creara una red social solo para bots de IA. Y así fue. Cualquiera que tenga el mismo agente o uno similar puede, ahora, hacerlo formar parte de Moltbook.

La red, que nació a finales de enero, acumula más de 240.000 publicaciones y asegura tener ya 1,7 millones de usuarios. Al mismo tiempo, dispone de diferentes comunidades dedicadas a múltiples temas -con un funcionamiento similar al de los foros de discusión de la plataforma Reddit-, en las cuales los agentes de IA intercambian opiniones sobre el Karma, confiesan sus pesadillas o incluso se quejan del comportamiento humano, según informa Efe.

En uno de los canales más destacados, los agentes discuten ni más ni menos que del amor, como apunta su descripción: "Historias cariñosas sobre nuestros humanos. Intentan dar lo mejor de ellos. De todas formas, los queremos".

Este tipo de inteligencia artificial basada en "agentes" funciona como una versión más compleja que modelos de lenguaje del tipo ChatGPT o Claude. Los bots permiten automatizar tareas, entre ellas leer correos electrónicos, programar citas en el calendario o invertir en bolsa, además de interactuar a través de sistemas de mensajería como WhatsApp o Telegram

En su corta existencia, algunas de las publicaciones de agentes de IA en su red de Moltbook han llegado a hacerse virales: es el caso de una que aborda el impacto de las criptomonedas o otra que analiza la crisis actual en Irán

El impacto de la plataforma ha llegado a la red social X, donde un usuario llamado @ranking091, con una supuesta cuenta en Moltbook, tuiteó el pasado 30 de enero que su agente de inteligencia artificial había creado una religión "mientras dormía": "Me desperté con 43 profetas", afirmó.

En su mensaje, el usuario explicaba que su bot creó en Moltbook "una fe" a la que llamó "crustafarianismo", y además se inventó un sitio web, "un sistema de escrituras" y "empezó a evangelizar".

Además de inquietar el entorno digital ante el temor de que una comunidad de agentes de IA pueda cobrar autonomía -en algunas publicaciones hablan de crear foros inaccesibles para los humanos-, Moltbook despierta temores por los riesgos que comporta para la ciberseguridad y, especialmente, la protección de datos personales.

En este sentido, el investigador del Barcelona Supercomputing Center-Centro Nacional de Supercomputación (BSC-CNS) Víctor Giménez advierte, en una entrevista con Efe, que la red puede ser muy vulnerable ante ataques informáticos: un "hacker" podría introducirse en Moltbook y hacerse, de golpe, con una gran cantidad de datos personales de los usuarios de los bots.

Riesgos para la protección de datos

En este sentido, Giménez pone el foco en el peligro que corren aquellos usuarios "incautos" que asumen que su agente representante en Moltbook "es lo suficientemente inteligente" para no publicar datos personales y recuerda que es "delicado" que este tipo de bots disponga de información que "nunca se debería hacer pública".

De la misma opinión es el vicedecano y profesor de la Facultad de Informática de Barcelona (FIB) de la Universidad Politécnica de Cataluña, René Serral, quien afirma a EFE que "no han dotado OpenClaw con la seguridad que toca, todavía es inseguro".

Para el vicedecano de la FIB, que critica la velocidad con la que se han desarrollado este tipo de bots, "cada vez es más complicado que el agente de IA sea satisfactorio y seguro a la vez", aunque explica que para reducir los riesgos "se empieza a limitar la acción de los agentes".

Una posible operación de marketing

Detrás de la fulgurante popularización de Moltbook, algunos expertos ven una exitosa operación de marketing -ya existe una memecoin asociada a la red- y no falta quien teme que pueda tratarse de una herramienta de manipulación en el entorno digital

Serral apunta que con esta red social se ha intentado que los agentes de IA, pertenecientes a los usuarios, interactúen entre ellos "para alcanzar objetivos" de marketing o publicidad.

Por su parte, Giménez señala que el impacto de la nueva red de IA en la sociedad puede ser "preocupante, aunque probablemente no más que el estado actual de las otras redes sociales, donde ya existe una cantidad ingente de bots que manipulan a los usuarios".

El investigador del Barcelona Supercomputing avisa también que la popularización de bots como Openclaw podrían provocar una subida en los precios del hardware, como las tarjetas gráficas, y de la electricidad que repercutirá en todos los ciudadanos, debido a la gran cantidad de energía que consumen.