OpenAI ha detenido indefinidamente su idea de lanzar un “modo adulto” para ChatGPT, una función que habría permitido conversaciones eróticas en texto para mayores de edad. La decisión, adelantada por Financial Times y recogida después por medios como Reuters y Engadget, llega tras meses de debate interno sobre seguridad, verificación de edad y posibles efectos psicológicos de este tipo de interacciones.
Lo importante aquí no es solo que OpenAI haya dado marcha atrás, sino por qué. La compañía lleva tiempo reforzando sus controles para usuarios adolescentes y, de hecho, ya ha desplegado en ChatGPT un sistema de predicción de edad para detectar cuentas que probablemente pertenezcan a menores de 18 años y activar protecciones adicionales. OpenAI también permite que un adulto verifique su edad para desactivar esas restricciones en algunos casos, lo que deja claro que la cuestión del acceso por edades estaba ya en el centro de su estrategia de seguridad.
El principal freno: no podían garantizar un acceso realmente solo para adultos
Según la información publicada este 26 de marzo, OpenAI decidió congelar el proyecto porque seguían existiendo dudas importantes sobre su capacidad para impedir que menores accedieran a ese tipo de experiencia. Engadget afirma que los planes para este modo, anunciados en 2025 y previstos inicialmente para finales del año pasado, ya se habían retrasado varias veces antes de ser archivados de forma indefinida.
Aunque algunos artículos han hablado de porcentajes concretos de error en la verificación de edad, esa cifra no aparece confirmada en las fuentes oficiales abiertas de OpenAI que he podido localizar. Lo que sí está documentado es que la empresa ya usa modelos de predicción de edad basados en señales de cuenta y comportamiento, y que considera esta capa de protección lo bastante importante como para aplicarla de forma general a sus planes de consumo.
En otras palabras, el problema no parece haber sido una simple cuestión moral, sino uno mucho más delicado: si no puedes estar seguro de quién está al otro lado, lanzar un producto sexualizado multiplica el riesgo legal y reputacional. Esa preocupación encaja además con el endurecimiento del debate sobre seguridad infantil en plataformas conversacionales.
También preocupaba el vínculo emocional con usuarios vulnerables
El segundo gran motivo tiene que ver con la salud mental. OpenAI publicó a finales de febrero una actualización sobre su trabajo en conversaciones relacionadas con bienestar emocional, donde explicaba que está reforzando la detección de señales de angustia, mejorando respuestas en momentos sensibles y trabajando con especialistas clínicos. En ese mismo texto reconocía además la existencia de litigios coordinados en California relacionados con daños de salud mental vinculados a ChatGPT.
Esto ayuda a entender por qué un “modo adulto” podía verse dentro de la empresa como una línea especialmente peligrosa. Si un chatbot ya plantea preguntas complicadas cuando un usuario desarrolla dependencia emocional o busca apoyo en momentos vulnerables, la situación se vuelve todavía más sensible cuando se añaden componentes eróticos, afectivos o de intimidad simulada. Reuters resume que empleados e inversores habían expresado preocupación por el posible impacto social de un chatbot sexualizado, y The Verge añade que OpenAI justificó la pausa en la falta de evidencia suficiente sobre los efectos a largo plazo de este tipo de uso.
OpenAI prefiere frenar antes que abrir otro frente
Todo esto encaja con una tendencia más amplia dentro de la compañía: reforzar los límites en áreas especialmente delicadas mientras intenta consolidar sus productos principales. Reuters señaló que OpenAI había decidido reenfocar esfuerzos en sus herramientas centrales, y The Verge habló de una reorientación estratégica hacia productos considerados prioritarios.
Eso no significa que el debate haya desaparecido. De hecho, en la comunidad de OpenAI llevan meses apareciendo peticiones de usuarios que reclamaban un sistema de acceso verificado para contenido adulto o erótico en texto. Pero una cosa es la presión de una parte de la base de usuarios y otra muy distinta es que una empresa como OpenAI, ya sometida a un nivel enorme de escrutinio político, legal y social, quiera abrir ese frente ahora mismo.
La conclusión parece bastante clara: OpenAI no ha cancelado este modo porque el mercado no exista, sino porque los riesgos eran demasiado altos y demasiado difíciles de controlar. El acceso de menores, la posible dependencia emocional y el contexto de demandas y vigilancia regulatoria hacían del “modo adulto” una apuesta mucho más tóxica de lo que podía parecer desde fuera.
