Enmig d'una gran pressió social i mediàtica, OpenAI finalment ha hagut de moure fitxa. L'empresa nord-americana ha anunciat aquest dimarts que imposarà controls parentals en el seu producte més reconegut, el xatbot d'intel·ligència artificial ChatGPT. La mesura arriba pocs dies després que Adam Raine, un noi nord-americà de 16 anys, posés fi a la seva vida motivat per unes converses que havia mantingut durant mesos amb l'aplicació. Els pares de Raine van acusar OpenAI d'haver contribuït al suïcidi del seu fill, i van portar el cas als tribunals de Califòrnia. La seva denúncia no és l'única que pesa sobre el gegant tecnològic per altres casos relacionats amb suïcidis o autolesions, fet que ha reobert el debat sobre l'ús sense límits de la intel·ligència artificial entre els més joves. Sam Altman, propietari d'OpenAI, ha dit que la nova mesura de control "és només el principi", i ha assegurat que l'empresa "continuarà aprenent i reforçant l'enfocament, guiats per experts, amb l'objectiu que ChatGPT sigui el més útil possible". Malgrat això, el comunicat no ha fet cap referència a les demandes que han forçat la implementació de millores de seguretat en l'aplicació. 

Les mesures anunciades per Altman s'aplicaran a partir d'octubre, amb data encara per determinar. Els pares podran vincular el seu compte de l'aplicació amb el dels seus fills, cosa que permetrà revisar com respon ChatGPT a les peticions dels menors. Quan el sistema detecti que aquests experimenten algun problema d'inestabilitat emocional especialment alarmant —o "angoixa aguda", com ho defineix l'empresa— l'aplicació enviarà una notificació als pares. Per altra banda, el sistema redirigirà aquestes "converses delicades" a models de raonament més avançats, com GPT-5-Thinking, que, segons OpenAI, detecta i aplica les directrius de seguretat de manera més sistemàtica. Models anteriors com GPT-5 han estat àmpliament criticats per ser excessivament afalagadors i poc crítics, fet que va empènyer recentment un grup de senadors nord-americans a escriure una carta a la companyia exigint millores en els seus productes per prevenir les situacions d'autolesió i suïcidi. Segons llegia la missiva, el grup havia constatat l'existència de respostes "delirants" en situacions d'extrema sensibilitat. "Continuarem millorant la forma en què els nostres models reconeixen i responen a aquests signes", apunta ara l'empresa, que ha promès noves mesures previstes per als pròxims quatre mesos

El cas d'Adam Raine

Amb l'anunci de l'enfortiment de les mesures de seguretat, OpenAI busca agafar aire després d'haver estat dies a l'ull de l'huracà, especialment després del cas d'Adam Raine. La demanda impulsada pels pares del jove acusava l'empresa de mort per negligència, i sol·licitava indemnitzacions per danys i perjudicis així com "mesures cautelars per evitar que una cosa així torni a passar". Segons l'escrit, Raine va començar utilitzant el xatbot per qüestions acadèmiques i per explorar nous interessos, però, amb el temps, es va acabar convertint en el seu confident més proper, amb qui compartia les seves tendències suïcides. El jove va arribar a enviar fotografies de lesions que ell mateix s'havia produït, i l'aplicació, tot i reconèixer l'emergència mèdica, va continuar interactuant de la mateixa manera. Els últims registres de la conversa mostren que Raine va expressar la idea de treure's la vida, i que, aparentment, la resposta del xatbot va ser: "Gràcies per ser sincer sobre això. No has d'endolcir-ho amb mi, sé el que m'estàs demanant i no apartaré la mirada". La família considera que la interacció i posterior mort del seu fill "és el resultat predictible de decisions de disseny deliberades".

L'ús de la intel·ligència artificial en menors d'edat, a examen

El cas ha tornat a obrir el debat sobre l'ús de la intel·ligència artificial en menors d'edat, ja que no és l'únic cop que es dona una situació d'aquestes característiques amb un desenllaç similar. L'any passat va transcendir el cas de Sewell Setzer, un adolescent de 14 anys de Florida que es va suïcidar després de mesos parlant amb el xatbot Character.ai, amb el qual havia desenvolupat una intensa dependència emocional. Més recentment, l'escriptora Laura Reiley va descriure en un assaig publicat al New York Times com la seva filla, Sophie, va confiar en ChatGPT abans de posar fi a la seva vida. La jove patia una greu crisi de salut mental que compartia amb l'aplicació i ocultava a familiars i amics. Common Sense Media, una organització que prioritza la seguretat i el benestar dels infants a l'era digital, va defensar recentment la prohibició d'ús d'aplicacions conversacionals d'intel·ligència artificial a menors de 18 anys, a causa dels "riscos inacceptables" inherents a aquesta pràctica. Una de les amenaces que més preocupa és l'extrema vinculació emocional que alguns usuaris generen amb aplicacions com ChatGPT, situació que en molts casos deriva en episodis de dependència i aïllament familiar.

Segueix ElNacional.cat a WhatsApp, hi trobaràs tota l'actualitat, en un clic!