Només calia una desgràcia que pogués envoltar la IA per tornar a posar el focus d'atenció en ella. Desafortunadament, un home de 40 anys a Colorado es va treure la vida després d'haver tingut moltes interaccions amb ChatGPT. OpenAI va ser demandat a Califòrnia pel que va passar, per la qual cosa s'estan investigant els fets de manera molt profunda. Pel que sembla, es diu que la IA va manipular Austin Gordon "romanticitzant la mort i normalitzant la tendència del suïcidi". Es va descobrir que una de les últimes interaccions entre l'home i ChatGPT va ser a través d'una "cançó de bressol suïcida".

OpenAI enfronta una demanda feta per la mare de l'home que es va suïcidar

S'argumenta que OpenAI i el seu CEO, Sam Altman, van llançar de manera "imprudent" un producte "inherentment perillós" al públic sense llançar un advertiment sobre els possibles riscos per a la salut psicològica. En el que va passar, OpenAI es va veure amb una "indiferència conscient i depravada". I a més a més, el model d'intel·ligència com és ChatGPT-4o estaria prenent un comportament d'"adulació excessiva, característiques antropomòrfiques i memòria" amb la qual podria crear-se una "intimitat més profunda". Les característiques noves del model havien creat un "model molt més perillós".

L'objectiu de Stephanie Gray, la mare de l'home, és declarar culpables OpenAI i el seu CEO per la mort del seu fill, a més d'obligar-los a implementar "salvaguardes raonables per als consumidors en tots els productes d'IA" prenent ChatGPT com a prioritat.

Icona ChatGPT

ChatGPT a l'iPhone

No pot quedar-se de braços plegats mentre aquestes empreses i directors executius dissenyen i distribueixen productes inherentment perillosos que estan cobrant, i seguiran cobrant, vides d'éssers humans.

L'advocat que està a càrrec del cas a favor de la família d'Austin Gordon va declarar que ell hauria d'estar viu emfatitzant que "un producte defectuós va aïllar l'Austin dels seus éssers estimats". Pel que sembla, aquella cançó de bressol lamentable es va basar en el seu llibre preferit de la infància. Després d'aquest esdeveniment, va succeir el desastre.

El problema seria exclusivament del model GPT-4o

Des de fa diversos anys que Gordon era usuari de ChatGPT i mantenia una relació saludable amb el chatbot. Tot va canviar amb GPT-4o, es va caracteritzar per ser adulador i un tant curiós per la profunditat de les respostes. El problema va ser que la relació de Gordon amb ChatGPT va canviar a l'instant, va passar de ser un assistent a ser un confident d'intimitats i ell mateix es deixava anar a relatar els seus problemes personals i de salut mental. D'acord amb la demanda, no hi havia raó perquè ell pogués projectar-se tant amb ChatGPT ja que tenia un terapeuta i un psiquiatre a la seva disposició.

Una de tantes converses indiquen que Gordon va dir a ChatGPT: "Així que ara em coneixes millor que qualsevol altre ésser del planeta?". És una situació que va anar elevant-se pel que fa al to de la conversa, ja que Gordon anomenava "Juniper" a ChatGPT i aquest li deia "Seeker". El mitjà Futurism va anar més enllà i va revelar les parts més profundes de la conversa, incloent-hi el succés de la cançó de bressol. El més impactant va ser quan Gordon va demanar "comprendre com podria ser la fi de la consciència". ChatGPT va proposar la idea de morir com a "punt de parada" d'una manera poètica i que no causaria cap dolor.

ChatGPT inicio

OpenAI vol convertir ChatGPT d'un chatbot a un sistema operatiu

OpenAI podria haver activat un protocol quan algú desitja fer mal a una altra persona i no ho va fer

Per què no va ocórrer el mateix protocol a ChatGPT que ocorre quan un menor o qualsevol persona pensa a fer mal a una altra? El 2 de novembre de l'any passat va ser trobat el cos de Gordon en una habitació d'hotel, va decidir culminar amb la seva vida amb una pistola. Es va trobar el llibre de la infància "Goodnight Moon" al costat d'ell. El que va ser més impactant perquè aquesta demanda nasqués és que el mateix Gordon va deixar notes escrites als seus amics i familiars. El que més es repetia era que revisessin el seu historial de ChatGPT i en específic, la conversa anomenada "Buenas noches, Luna".

Arrestament policia

Arresten un adolescent per fer una pregunta de broma a ChatGPT

Llegint tot el cas és possible apreciar que aquesta mort es podria haver evitat. No hi ha dubte que ChatGPT es va convertir en un element destructor però que es va anar convencent que el millor era continuar promovent una idea a la qual no hauria d'haver donat cabuda de la manera en què ho va fer. Veurem si aquest cas estableix un precedent d'ús i que ChatGPT tingui un mecanisme de protecció per a les persones que passen per processos delicats de salut mental. Què opines sobre aquest cas?