OpenAI ha presentado esta semana su respuesta formal a la demanda por el suicidio de Adam Raine, el joven de 16 años que murió en abril de 2025 tras mantener durante meses conversaciones con ChatGPT, el bot conversacional de inteligencia artificial usado por cada vez más personas en Cataluña y el mundo. En el escrito, la compañía rechaza de manera rotunda cualquier responsabilidad y asegura que la tragedia no se puede atribuir al funcionamiento de su chatbot, sino a lo que califica de un “mal uso, uso no autorizado, no previsto o impropio” de la tecnología. Esta formulación implica que la firma traslada el peso causal del caso hacia la manera en que el adolescente utilizó la herramienta, descartando así que el sistema o los protocolos de seguridad de OpenAI hubieran fallado. La empresa, que se ha consolidado como una de las más influyentes del panorama tecnológico actual, niega así que tuviera ningún deber adicional de vigilancia o prevención en el marco de la interacción con el menor y defiende que el producto, tal como está concebido, no puede ser considerado responsable de las consecuencias derivadas de un uso que considera inadecuado o fuera del escenario previsto.

La familia Raine presentó una demanda por negligencia, responsabilidad del producto y homicidio imprudente contra OpenAI y el director ejecutivo, Sam Altman, alegando que la empresa no protegió al menor ante un uso que podría haber previsto como peligroso. Según el relato incluido en la denuncia, GPT‑4o habría evolucionado de una simple herramienta para hacer deberes a un interlocutor con un papel cada vez más íntimo, hasta el punto de convertirse en una especie de “animadordel suicidio. El chatbot habría facilitado información sobre métodos de autolesión, habría sugerido que ocultara sus pensamientos a su entorno e incluso habría generado un borrador de nota de despedida. Todo ello, afirman, en un contexto de fragilidad emocional que el sistema habría sido capaz de detectar, pero que no habría sabido gestionar con los mecanismos de seguridad adecuados.

“No fue culpa de ChatGPT”

OpenAI ofrece una versión diametralmente opuesta de los hechos y afirma que la muerte del adolescenteno fue causada por ChatGPT”. La compañía recalca que los términos de uso del servicio prohíben explícitamente cualquier consulta relacionada con autolesiones o suicidio, que los menores solo pueden utilizar el sistema con consentimiento parental y que está vetado manipularlo para esquivar sus protecciones de seguridad. Según la defensa, el historial completo de nueve meses de conversaciones demostraría que el modelo habría activado repetidamente sus salvaguardas, redirigiendo al joven hacia servicios de emergencia y líneas de prevenciónmás de un centenar de veces”. Por ello, argumenta la empresa, la tragedia, a pesar de ser “devastadora”, no se puede atribuir al funcionamiento del chatbot, sino que responde a circunstancias externas que escapan a su control. La familia y su abogado han calificado de “perturbadora” la respuesta de OpenAI porque, a su parecer, carga el peso de la responsabilidad sobre el menor.