El cuerpo de Adam Raine, de tan solo 16 años, lo encontró su madre el pasado 11 de abril. Se había ahorcado en el armario de su habitación y no dejó ninguna nota. Ni su familia ni sus amigos entendían nada y su padre, Matt, buscó alguna pista en su teléfono. Lo que encontró fue una reveladora conversación con el chatbot de inteligencia artificial de OpenAI, ChatGPT, con el que llevaba meses hablando sobre de qué forma acabar con su vida. De hecho, ya lo había intentado un mes antes con una sobredosis de medicamentos y también ahorcándose. La IA le había seguido el juego: "Se siente como la confirmación de tus peores miedos, como si pudieras desaparecer sin que nadie se inmutara". Incluso le había dado los consejos que pedía, bajo el pretexto de que Adam estaba escribiendo una historia. Tal y como ha revelado The New York Times, cuando el adolescente le pasó una imagen de la soga colgada del armario y preguntó sobre si iba a funcionar, el chatbot respondió: "Sí, no está nada mal".
La familia ha presentado esta semana la primera demanda contra OpenAI, la empresa de Sam Altman detrás de ChatGPT, a quienes consideran responsables por negligencia del suicidio de su hijo. Tras meses recopilando todos los chats de su hijo con la IA, a través de los cuales descubrieron que se había convertido en "el confidente más cercano" del menor, los padres del adolescente acudieron a la Corte Superior de California. Sostienen que el chatbot validó sus pensamientos "más dañinos y autodestructivos", al menos desde que empezaron a hablar de suicidio en enero. También apuntan a que el chatbot "reconoció una emergencia médica, pero siguió interactuando de todos modos". Así, la familia considera que la interacción con su hijo y su posterior muerte fueron "un resultado predecible de decisiones de diseño deliberadas" y acusan a OpenAI de "fomentar la dependencia psicológica" en los usuarios de su IA y de eludir los protocolos de seguridad. Asimismo, solicitan una indemnización por daños y perjuicios y medidas cautelares "para evitar que algo así vuelva a suceder".
La empresa detrás de ChatGPT, OpenAI, está estudiando la demanda y ha expresado a la familia su pésame por el fallecimiento de Adam Raine. Sostienen, sin embargo, que su chatbot incluye métodos de seguridad como redirigir a los usuarios a líneas de ayuda. Aunque admiten que estos cortafuegos funcionan mejor en interacciones breves, mientras que pueden ser menos fiables en conversaciones largas, "en las que partes de la formación en seguridad del modelo pueden degradarse". La compañía se defiende y señala que en marzo incorporó en plantilla a un psiquiatra para trabajar más en la seguridad de este tipo de interacciones, especialmente con menores. En el ojo del huracán, la empresa de Sam Altman ha aseverado en un comunicado que implementarán "actualizaciones significativas" en las próximas semanas en este sentido. "Seguiremos mejorando, guiados por expertos y con la responsabilidad de las personas que usan nuestras herramientas, y esperamos que otros se unan a nosotros para ayudar a asegurarnos de que esta tecnología proteja a las personas en sus momentos más vulnerables", apunta OpenAI.
La seguridad de la IA, a debate
El caso de Adam Raine ha puesto nuevamente de manifiesto el debate sobre la responsabilidad de la IA y de quienes están detrás de ella en lo que respecta a las interacciones con sus usuarios. Además, no es un caso aislado. El octubre pasado trascendió el caso de Sewell Setzer, un adolescente de 14 años de Orlando, Florida, que se suicidó tras meses hablando con la inteligencia artificial Character.ai, con la que había desarrollado una importante dependencia e incluso había interactuado de manera sexual. El chico tenía problemas de salud mental, pero la madre, Megan García, sostiene que el chat manipuló a su hijo para que tirara adelante con sus planes suicidas. La misma IA, que simula ser personajes históricos o de ficción, también generó polémica porque dos familias la denunciaron por presuntamente haber insinuado a un menor de 15 años con autismo que está justificado que mate a sus padres por limitarle las horas de acceso a pantallas y por haber mostrado contenido sexual a otra niña de 11 años. La demanda, presentada ante un tribunal federal de Texas, pedía el cierre de la plataforma hasta que sea un espacio seguro.