OpenAI ha aturat indefinidament la seva idea de llançar un “mode adult” per a ChatGPT, una funció que hauria permès converses eròtiques en text per a majors d'edat. La decisió, avançada per Financial Times i recollida després per mitjans com Reuters i Engadget, arriba després de mesos de debat intern sobre seguretat, verificació d'edat i possibles efectes psicològics d'aquest tipus d'interaccions.
L'important aquí no és només que OpenAI hagi fet marxa enrere, sinó per què. La companyia fa temps que reforça els seus controls per a usuaris adolescents i, de fet, ja ha desplegat a ChatGPT un sistema de predicció d'edat per a detectar comptes que probablement pertanyen a menors de 18 anys i activar proteccions addicionals. OpenAI també permet que un adult verifiqui la seva edat per a desactivar aquestes restriccions en alguns casos, cosa que deixa clar que la qüestió de l'accés per edats ja estava al centre de la seva estratègia de seguretat.
El principal fre: no podien garantir un accés realment només per a adults
Segons la informació publicada aquest 26 de març, OpenAI va decidir congelar el projecte perquè continuaven existint dubtes importants sobre la seva capacitat per impedir que menors accedissin a aquest tipus d'experiència. Engadget afirma que els plans per a aquest mode, anunciats el 2025 i previstos inicialment per a finals de l'any passat, ja s'havien endarrerit diverses vegades abans de ser arxivats de forma indefinida.
Tot i que alguns articles han parlat de percentatges concrets d'error en la verificació d'edat, aquesta xifra no apareix confirmada en les fonts oficials obertes d'OpenAI que he pogut localitzar. El que sí que està documentat és que l'empresa ja utilitza models de predicció d'edat basats en senyals de compte i comportament, i que considera aquesta capa de protecció prou important per a aplicar-la de forma general als seus plans de consum.
En altres paraules, el problema no sembla haver estat una simple qüestió moral, sinó un de molt més delicat: si no pots estar segur de qui hi ha a l'altra banda, llançar un producte sexualitzat multiplica el risc legal i reputacional. Aquesta preocupació encaixa a més amb l'enduriment del debat sobre seguretat infantil en plataformes conversacionals.
També preocupava el vincle emocional amb usuaris vulnerables
El segon gran motiu té a veure amb la salut mental. OpenAI va publicar a finals de febrer una actualització sobre la seva feina en converses relacionades amb benestar emocional, on explicava que està reforçant la detecció de senyals d'angoixa, millorant respostes en moments sensibles i treballant amb especialistes clínics. En aquest mateix text reconeixia a més l'existència de litigis coordinats a Califòrnia relacionats amb danys de salut mental vinculats a ChatGPT.
Això ajuda a entendre per què un “mode adult” podia veure's dins de l'empresa com una línia especialment perillosa. Si un bot de conversa ja planteja preguntes complicades quan un usuari desenvolupa dependència emocional o busca suport en moments vulnerables, la situació es torna encara més sensible quan s'afegeixen components eròtics, afectius o d'intimitat simulada. Reuters resumeix que empleats i inversors havien expressat preocupació pel possible impacte social d'un bot de conversa sexualitzat, i The Verge afegeix que OpenAI va justificar la pausa en la manca d'evidència suficient sobre els efectes a llarg termini d'aquest tipus d'ús.
OpenAI prefereix frenar abans que obrir un altre front
Tot això encaixa amb una tendència més àmplia dins de la companyia: reforçar els límits en àrees especialment delicades mentre intenta consolidar els seus productes principals. Reuters va assenyalar que OpenAI havia decidit reenfocar esforços en les seves eines centrals, i The Verge va parlar d'una reorientació estratègica cap a productes considerats prioritaris.
Això no significa que el debat hagi desaparegut. De fet, a la comunitat d'OpenAI fa mesos que apareixen peticions d'usuaris que reclamaven un sistema d'accés verificat per a contingut adult o eròtic en text. Però una cosa és la pressió d'una part de la base d'usuaris i una altra de molt diferent és que una empresa com OpenAI, ja sotmesa a un nivell enorme d'escrutini polític, legal i social, vulgui obrir aquest front ara mateix.
La conclusió sembla bastant clara: OpenAI no ha cancel·lat aquest mode perquè el mercat no existeixi, sinó perquè els riscos eren massa alts i massa difícils de controlar. L'accés de menors, la possible dependència emocional i el context de demandes i vigilància regulatòria feien del “mode adult” una aposta molt més tòxica del que podia semblar des de fora.
