Una funció poc clara dins de la plataforma ChatGPT ha deixat al descobert converses privades de milers d'usuaris, incloent-hi missatges sensibles, esborranys confidencials i confessions personals. Tot ha quedat accessible a través de motors de cerca com Google, sense que molts usuaris siguin plenament conscients d'això.

El problema ha sorgit arran de l'opció Make this chat discoverable ("Fes aquesta conversa descoberta"), que permet que els xats siguin indexats i, per tant, visibles públicament. Com a resultat, eines com la Wayback Machine va aconseguir emmagatzemar milers d'aquestes converses, ara arxivades de forma permanent a la xarxa.

El periodista d'investigació Henk van Ess ha estat un dels primers a detectar la filtració massiva, i ha xifrat en més de 110.000 les converses que podien trobar-se en línia. Després de la troballa, OpenAI, l'empresa responsable de ChatGPT, ha demanat a Google l'eliminació de prop de 50.000 enllaços. No obstant això, gran part del contingut continua disponible en altres llocs d'arxivament digital, la qual cosa complica la seva eliminació definitiva.

El responsable de seguretat d'OpenAI, Dane Stuckey, ha reconegut la situació i ha assenyalat que la funció ha estat desactivada per evitar futures exposicions accidentals d'informació delicada. També ha indicat que es va iniciar un procés de desindexació en cercadors, encara que admet que no és possible revertir completament el dany, ja que moltes converses ja han estat descarregades per tercers.

Informació exposada: des de contractes fins a cartes d'amor

Els xats publicats revelen l'ampli rang d'ús que els usuaris fan de ChatGPT. Entre els continguts filtrats es troben:

-Acords de confidencialitat d'empreses
-Esborranys de contractes.
-Cartes personals i consultes emocionals.
-Textos laborals.

Aquest episodi subratlla un vell risc en l'entorn digital: fins i tot les funcions de compartició més inofensives poden derivar en fugues de dades privades si no s'expliquen amb prou claredat. Per als experts en privacitat, el cas ChatGPT es converteix en un recordatori contundent que la transparència i la protecció de la informació personal han de ser prioritàries en el disseny de qualsevol eina tecnològica.

L'any 2023, una bretxa tècnica va permetre que alguns usuaris veiessin fragments de converses alienes, el que va evidenciar que fins i tot sistemes dissenyats amb finalitats positives poden presentar errors crítics. Aquest incident va reforçar la necessitat de més transparència i mesures de protecció de dades més estrictes.

El problema de la desinformació

Una altra preocupació clau és l'ús malintencionat del model per generar desinformació, missatges d'odi o suplantació d'identitat. Malgrat les salvaguardes incorporades, usuaris amb finalitats il·lícites han intentat manipular el sistema per crear contingut fals o per facilitar estafes d'enginyeria social, com correus electrònics de phishing més convincents.

Alguns experts també adverteixen sobre la possible utilització de ChatGPT en activitats de hacking o per escriure codi maliciós. Encara que el sistema està entrenat per rebutjar sol·licituds relacionades amb activitats il·legals, informes acadèmics assenyalen que, amb reformulacions subtils, és possible obtenir instruccions sobre com explotar vulnerabilitats de programari o evitar sistemes de seguretat informàtica.

Una peculiaritat tècnica de ChatGPT és la seva tendència a presentar informació falsa amb un to segur, la qual cosa pot induir a error a usuaris desprevinguts. Aquesta característica, coneguda com a "al·lucinació de la IA", representa un risc si es confia cegament en les seves respostes per a temes delicats com medicina, dret o finances.