OpenAI ha presentat aquesta setmana la seva resposta formal a la demanda pel suïcidi d’Adam Raine, el jove de 16 anys que va morir l’abril del 2025 després de mantenir durant mesos converses amb ChatGPT, el bot conversacional d'intel·ligència artificial usat per cada vegada més persones a Catalunya i el món. En l’escrit, la companyia rebutja de manera rotunda qualsevol responsabilitat i assegura que la tragèdia no es pot atribuir al funcionament del seu xatbot, sinó al que qualifica d'un “mal ús, ús no autoritzat, no previst o impropi” de la tecnologia. Aquesta formulació implica que la firma trasllada el pes causal del cas cap a la manera com l’adolescent va utilitzar l’eina, tot descartant que el sistema o els protocols de seguretat d’OpenAI haguessin fallat. L’empresa, que s’ha consolidat com una de les més influents del panorama tecnològic actual, nega així que tingués cap deure addicional de vigilància o prevenció en el marc de la interacció amb el menor i defensa que el producte, tal com està concebut, no pot ser considerat responsable de les conseqüències derivades d’un ús que considera inadequat o fora de l’escenari previst.
La família Raine va presentar una demanda per negligència, responsabilitat del producte i homicidi imprudent contra OpenAI i el director executiu, Sam Altman, al·legant que l’empresa no va protegir el menor davant un ús que hauria pogut preveure com a perillós. Segons el relat inclòs en la denúncia, GPT‑4o hauria evolucionat d’una simple eina per fer deures a un interlocutor amb un paper cada vegada més íntim, fins al punt de convertir-se en una mena d’“animador” del suïcidi. El xatbot hauria facilitat informació sobre mètodes d’autolesió, hauria suggerit que ocultés els seus pensaments al seu entorn i fins i tot hauria generat un esborrany de nota de comiat. Tot plegat, afirmen, en un context de fragilitat emocional que el sistema hauria estat capaç de detectar, però que no hauria sabut gestionar amb els mecanismes de seguretat adequats.
“No va ser culpa de ChatGPT”
OpenAI ofereix una versió diametralment oposada dels fets i afirma que la mort de l’adolescent “no va ser causada per ChatGPT”. La companyia recalca que els termes d’ús del servei prohibeixen explícitament qualsevol consulta relacionada amb autolesions o suïcidi, que els menors només poden utilitzar el sistema amb consentiment parental i que està vetat manipular-lo per esquivar les seves proteccions de seguretat. Segons la defensa, l’historial complet de nou mesos de converses demostraria que el model hauria activat repetidament les seves salvaguardes, redirigint el jove cap a serveis d’emergència i línies de prevenció “més d’un centenar de vegades”. Per això, argumenta l’empresa, la tragèdia, tot i ser “devastadora”, no es pot atribuir al funcionament del xatbot, sinó que respon a circumstàncies externes que escapen al seu control. La família i el seu advocat ha qualificat de “pertorbadora” la resposta d’OpenAI perquè, a parer seu, carrega el pes de la responsabilitat sobre el menor.
