Una función poco clara dentro de la plataforma ChatGPT ha dejado al descubierto conversaciones privadas de miles de usuarios, incluyendo mensajes sensibles, borradores confidenciales y confesiones personales. Todo ha quedado accesible a través de motores de búsqueda como Google, sin que muchos usuarios sean plenamente conscientes de ello.
El problema ha surgido a raíz de la opción Make this chat discoverable (“Haz esta conversación descubierta”), que permite que los chats sean indexados y, por tanto, visibles públicamente. Como resultado, herramientas como la Wayback Machine logró almacenar miles de esas conversaciones, ahora archivadas de forma permanente en la red.
El periodista de investigación Henk van Ess ha sido uno de los primeros en detectar la filtración masiva, y ha cifrado en más de 110.000 las conversaciones que podían encontrarse en línea. Tras el hallazgo, OpenAI, la empresa responsable de ChatGPT, ha pedido a Google la eliminación de cerca de 50.000 enlaces. No obstante, gran parte del contenido sigue disponible en otros sitios de archivo digital, lo que complica su eliminación definitiva.
El responsable de seguridad de OpenAI, Dane Stuckey, ha reconocido la situación y ha señalado que la función ha sido desactivada para evitar futuras exposiciones accidentales de información sensible. También ha indicado que se inició un proceso de desindexación en buscadores, aunque admite que no es posible revertir completamente el daño, ya que muchas conversaciones ya han sido descargadas por terceros.
Información expuesta: desde contratos hasta cartas de amor
Los chats publicados revelan el amplio rango de uso que los usuarios hacen de ChatGPT. Entre los contenidos filtrados se encuentran:
-Acuerdos de confidencialidad de empresas
-Borradores de contratos.
-Cartas personales y consultas emocionales.
-Textos laborales.
Este episodio subraya un viejo riesgo en el entorno digital: incluso las funciones de compartición más inofensivas pueden derivar en fugas de datos privados si no se explican con suficiente claridad. Para los expertos en privacidad, el caso ChatGPT se convierte en un recordatorio contundente de que la transparencia y la protección de la información personal deben ser prioritarias en el diseño de cualquier herramienta tecnológica.
En 2023, una brecha técnica permitió que algunos usuarios vieran fragmentos de conversaciones ajenas, lo que evidenció que incluso sistemas diseñados con fines positivos pueden presentar fallos críticos. Este incidente reforzó la necesidad de mayor transparencia y medidas de protección de datos más estrictas.
El problema de la desinformación
Otra preocupación clave es el uso malintencionado del modelo para generar desinformación, mensajes de odio o suplantación de identidad. A pesar de las salvaguardas incorporadas, usuarios con fines ilícitos han intentado manipular al sistema para crear contenido falso o para facilitar estafas de ingeniería social, como correos electrónicos de phishing más convincentes.
Algunos expertos también advierten sobre la posible utilización de ChatGPT en actividades de hacking o para escribir código malicioso. Aunque el sistema está entrenado para rechazar solicitudes relacionadas con actividades ilegales, informes académicos señalan que, con reformulaciones sutiles, es posible obtener instrucciones sobre cómo explotar vulnerabilidades de software o evitar sistemas de seguridad informática.
Una peculiaridad técnica de ChatGPT es su tendencia a presentar información falsa con un tono seguro, lo que puede inducir a error a usuarios desprevenidos. Esta característica, conocida como “alucinación de la IA”, representa un riesgo si se confía ciegamente en sus respuestas para temas sensibles como medicina, derecho o finanzas.