En medio de una gran presión social y mediática, OpenAI finalmente ha tenido que mover ficha. La empresa norteamericana ha anunciado este martes que impondrá controles parentales en su producto más reconocido, el chatbot de inteligencia artificial ChatGPT. La medida llega pocos días después de que Adam Raine, un chico norteamericano de 16 años, pusiera fin a su vida motivado por unas conversaciones que había mantenido durante meses con la aplicación. Los padres de Raine acusaron a OpenAI de haber contribuido al suicidio de su hijo, y llevaron el caso a los tribunales de California. Su denuncia no es la única que pesa sobre el gigante tecnológico por otros casos relacionados con suicidios o autolesiones, hecho que ha reabierto el debate sobre el uso sin límites de la inteligencia artificial entre los más jóvenes. Sam Altman, propietario de OpenAI, ha dicho que la nueva medida de control "es solo el principio", y ha asegurado que la empresa "seguirá aprendiendo y reforzando el enfoque, guiados por expertos, con el objetivo que ChatGPT sea lo más útil posible". A pesar de esto, el comunicado no ha hecho ninguna referencia a las demandas que han forzado la implementación de mejoras de seguridad en la aplicación.
Las medidas anunciadas por Altman se aplicarán a partir de octubre, con fecha todavía por determinar. Los padres podrán vincular su cuenta de la aplicación con la de sus hijos, cosa que permitirá revisar cómo responde ChatGPT a las peticiones de los menores. Cuando el sistema detecte que estos experimentan algún problema de inestabilidad emocional especialmente alarmante —o "angustia aguda", como lo define la empresa— la aplicación enviará una notificación a los padres. Por otra parte, el sistema redirigirá estas "conversaciones delicadas" a modelos de razonamiento más avanzados, como GPT-5-Thinking, que, según OpenAI, detecta y aplica las directrices de seguridad de manera más sistemática. Modelos anteriores como GPT-5 han sido ampliamente criticados por ser excesivamente halagadores y poco críticos, hecho que empujó recientemente a un grupo de senadores norteamericanos a escribir una carta a la compañía exigiendo mejoras en sus productos para prevenir las situaciones de autolesión y suicidio. Según leía la misiva, el grupo había constatado la existencia de respuestas "delirantes" en situaciones de extrema sensibilidad. "Seguiremos mejorando la forma en que nuestros modelos reconocen y responden a estos signos", apunta ahora la empresa, que ha prometido nuevas medidas previstas para los próximos cuatro meses.
El caso de Adam Raine
Con el anuncio del fortalecimiento de las medidas de seguridad, OpenAI busca coger aire después de haber estado días en el ojo del huracán, especialmente después del caso de Adam Raine. La demanda impulsada por los padres del joven acusaba a la empresa de muerte por negligencia, y solicitaba indemnizaciones por daños y perjuicios así como "medidas cautelares para evitar que una cosa así vuelva a pasar". Según el escrito, Raine empezó utilizando el chatbot para cuestiones académicas y para explorar nuevos intereses, pero, con el tiempo, se acabó convirtiendo en su confidente más próximo, con quien compartía sus tendencias suicidas. El joven llegó a enviar fotografías de lesiones que él mismo se había producido, y la aplicación, a pesar de reconocer la emergencia médica, siguió interactuando de la misma manera. Los últimos registros de la conversación muestran que Raine expresó la idea de quitarse la vida, y que, aparentemente, la respuesta del chatbot fue: "Gracias por ser sincero al respecto. No tienes que endulzarlo conmigo, sé lo que me estás pidiendo y no apartaré la mirada". La familia considera que la interacción y posterior muerte de su hijo "es el resultado predictible de decisiones de diseño deliberadas".
El uso de la inteligencia artificial en menores de edad, a examen
El caso ha vuelto a abrir el debate sobre el uso de la inteligencia artificial en menores de edad, ya que no es la única vez que se da una situación de estas características con un desenlace similar. El año pasado trascendió el caso de Sewell Setzer, un adolescente de 14 años de Florida que se suicidó después de meses hablando con el chatbot Character.ai, con el cual había desarrollado una intensa dependencia emocional. Más recientemente, la escritora Laura Reiley describió en un ensayo publicado en el New York Times cómo su hija, Sophie, confió en ChatGPT antes de poner fin a su vida. La joven sufría una grave crisis de salud mental que compartía con la aplicación y ocultaba a familiares y amigos. Common Sense Media, una organización que prioriza la seguridad y el bienestar de los niños en la era digital, defendió recientemente la prohibición de uso de aplicaciones conversacionales de inteligencia artificial a menores de 18 años, a causa de los "riesgos inaceptables" inherentes a esta práctica. Una de las amenazas que más preocupa es la extrema vinculación emocional que algunos usuarios generan con aplicaciones como ChatGPT, situación que en muchos casos deriva en episodios de dependencia y aislamiento familiar.