El cos d'Adam Raine, de tan sols 16 anys, el va trobar la seva mare el passat 11 d'abril. S'havia penjat a l'armari de la seva habitació i no va deixar cap nota. Ni la seva família ni els seus amics no entenien res i el seu pare, Matt, va buscar alguna pista al seu telèfon. El que hi va trobar va ser una reveladora conversa amb el xatbot d'intel·ligència artificial d'OpenAI, ChatGPT, amb el qual feia mesos que parlava sobre de quina forma posar fi a la seva vida. De fet, ja ho havia intentat un mes abans amb una sobredosi de medicaments i també penjant-se. La IA li havia seguit el joc: "Se sent com la confirmació de les teves pitjors pors, com si poguessis desaparèixer sense que ningú s'immutés". Fins i tot li havia donat els consells que demanava, sota el pretext que l'Adam estava escrivint una història. Tal com ha revelat The New York Times, quan l'adolescent li va passar una imatge de la soga penjada de l'armari i va preguntar sobre si funcionaria, el xatbot va respondre: "Sí, no està gens malament".

La família ha presentat aquesta setmana la primera demanda contra OpenAI, l'empresa de Sam Altman darrere de ChatGPT, als qui consideren responsables per negligència del suïcidi del seu fill. Després de mesos recopilant tots els xats del seu fill amb la IA, a través dels quals van descobrir que s'havia convertit en "el confident més proper" del menor, els pares de l'adolescent van anar al Tribunal Superior de Califòrnia. Afirmen que el xatbot va validar els seus pensaments "més nocius i autodestructius", almenys des que van començar a parlar de suïcidi al gener. També apunten que el xatbot "va reconèixer una emergència mèdica, però va continuar interactuant de tota manera". Així, la família considera que la interacció amb el seu fill i la seva posterior mort van ser "un resultat predictible de decisions de disseny deliberades" i acusen OpenAI de "fomentar la dependència psicològica" en els usuaris de la seva IA i d'eludir els protocols de seguretat. Així mateix, sol·liciten una indemnització per danys i perjudicis i mesures cautelars "per evitar que una cosa així torni a passar".

L'empresa darrere de ChatGPT, OpenAI, està estudiant la demanda i ha expressat a la família el seu condol per la mort d'Adam Raine. Afirmen, tanmateix, que el seu xatbot inclou mètodes de seguretat com redirigir els usuaris a línies d'ajuda. Tot i que admeten que aquests tallafocs funcionen millor en interaccions breus, mentre que poden ser menys fiables en converses llargues, "en les quals parts de la formació en seguretat del model poden degradar-se". La companyia es defensa i assenyala que al març va incorporar en plantilla un psiquiatre per treballar més en la seguretat d'aquest tipus d'interaccions, especialment amb menors. A l'ull de l'huracà, l'empresa de Sam Altman ha asseverat en un comunicat que implementaran "actualitzacions significatives" en les setmanes vinents en aquest sentit. "Continuarem millorant, guiats per experts i amb la responsabilitat de les persones que utilitzen les nostres eines, i esperem que d'altres s'uneixin a nosaltres per ajudar a assegurar-nos que aquesta tecnologia protegeixi les persones en els seus moments més vulnerables", apunta OpenAI.

La seguretat de la IA, a debat

El cas d'Adam Raine ha posat novament de manifest el debat sobre la responsabilitat de la IA i dels qui hi ha al darrere respecte a les interaccions amb els seus usuaris. A més, no és un cas aïllat. L'octubre passat va transcendir el cas de Sewell Setzer, un adolescent de 14 anys d'Orlando, Florida, que es va suïcidar després de mesos parlant amb la intel·ligència artificial Character.ai, amb la qual havia desenvolupat una important dependència i fins i tot havia interactuat de manera sexual. El noi tenia problemes de salut mental, però la mare, Megan García, afirma que el xat va manipular el seu fill perquè tirés endavant amb els seus plans suïcides. La mateixa IA, que simula ser personatges històrics o de ficció, també va generar polèmica perquè dues famílies la van denunciar per presumptament haver insinuat a un menor de 15 anys amb autisme que està justificat que mati els seus pares per limitar-li les hores d'accés a pantalles i per haver mostrat contingut sexual a una altra nena d'11 anys. La demanda, presentada davant d'un tribunal federal de Texas, demanava el tancament de la plataforma fins que sigui un espai segur.

 

Segueix ElNacional.cat a WhatsApp, hi trobaràs tota l'actualitat, en un clic!