Desde el estallido de la IA generativa a final del año pasado, el famoso ChatGPT, hemos visto en las últimas semanas el inicio de investigaciones de diferentes agencias de protección de datos de la UE y Canadá sobre la gestión que se hace de los datos por parte de las empresas que comercializan estas herramientas. Incluso algunos expertos creen que la Agencia de Protección de la Privacidad de California (California Privacy Protection Agency) podría reforzar sus normas para regular y controlar el uso de los datos que hace esta tecnología.

En realidad, esto no es más que una evolución de las cuestiones sobre el uso que se hace de nuestros datos en muchas aplicaciones tecnológicas, que ya usamos en el día a día, y con las que actuamos de forma inconsciente. ¿Acaso hay transparencia respecto a la utilización de los datos y la información que dejamos en redes sociales? ¿O en aplicaciones que usamos? Es donde nos hemos involucrado por formar parte de la era digital. O donde las empresas que explotan este negocio nos han involucrado.

Y la situación actual es fruto de una gran operación de marketing para conseguir involucrar al mayor número de nuevos usuarios en un periodo tan corto de tiempo, para terminar de entrenar un algoritmo aún en fase de validación.

Pero, ¿por qué nos debe importar nuestra privacidad con la IA? Por las mismas razones que con otras tecnologías. Y por alguna nueva.

En este caso, tenemos los temas clásicos como qué se hace con los datos que introducimos en las herramientas generativas para lanzar las preguntas. En esas cláusulas de consentimiento que nadie lee, los usuarios de la IA ceden sus interacciones a las empresas para que las usen con el fin de entrenar el algoritmo u otros fines, que no están especificados. ¿Cómo se sabe si la información que se introduce en las preguntas que se hace al chatbot se van a usar para generar respuestas a otros usuarios? ¿O si se va a ceder a otras empresas? No lo sabemos.

Y aquí surge un asunto nuevo por el que algunas empresas han limitado el uso de herramientas generativas a sus empleados: si se producen filtraciones de información confidencial que se ha introducido en una interacción con las herramientas como ChatGPT o Bard, ¿qué responsabilidad se tiene? Sobre todo, si se filtra información de terceros como clientes, empleados o socios.

Los repositorios de datos que se han usado para entrenar los algoritmos no son abiertos, por tanto, no se sabe qué datos se han usado, si eran protegidos o no. OpenAI afirma que utiliza un "amplio corpus" de datos, incluidos contenidos con licencia, "contenidos generados por revisores humanos" y contenidos disponibles públicamente en Internet. Bastante ambiguo. Además, reconoce que los datos también se comparten con terceros. Probablemente vendiéndolos, como hacen otras tecnológicas.

Aquí entra otro factor, si hay datos críticos que no querríamos que fueran publicados sin nuestro consentimiento, como cuestiones sanitarias, materias financieras o datos personales, ¿cómo se puede pedir que se eliminen? O, incluso, las informaciones falsas que generan estos programas. Como expliqué en mi anterior artículo “Unas pequeñas vacaciones para la IA”, la clave de la inteligencia artificial está en el big data. Es decir, cuántos más datos se usen, mejores son los resultados. Por tanto, eliminar determinada información de los repositorios, no es fácil en estos casos, y alterará el resultado.

Ya hubo casos, como Clearview AI en Canadá, donde fue sancionado por violar las leyes nacionales al usar fotos de ciudadanos canadienses sin su consentimiento.

¿Cómo podríamos ejercer un derecho al olvido similar al que tardó tanto en conseguirse con Google, por ejemplo?

Además, está la cuestión de la propiedad intelectual y cómo se puede evitar que contenidos protegidos no sean usados sin remuneración a sus autores. Esto ya está ocurriendo. El modelo Spotify ya se implantó en la conciencia popular, generando negocios lucrativos para las plataformas tecnológicas que negocian con contenidos, pero mendigando sus emolumentos para los creadores de esos contenidos culturales.

Del mismo modo que consideramos éticamente reprobable que se usen humanos para probar terapias en su estado primitivo y se usan otras técnicas de laboratorio, por ejemplo, debería tener consideraciones morales el uso de datos que no se han cedido ni cuyo uso no se ha autorizado para que una empresa los use impunemente con fines lucrativos. Al menos en sociedades democráticas, donde los derechos ciudadanos se respetan. Esto no es una cuestión de rechazar la innovación, sino considerar los impactos colaterales y respectar la legalidad vigente. Al fin y al cabo, asuntos que se pueden solventar con creatividad por parte de los desarrolladores.

Como ocurre con muchos otros problemas normativos, es probable que Europa se adelante a EE.UU. a la hora de tomar medidas enérgicas contra ChatGPT y otros LLM por motivos de privacidad. Pero algunas normas como la California Consumer Privacy Act han recalcado la preocupación sobre la protección de los consumidores.

Y aún está por venir la computación cuántica. Cuando sea una tecnología consolidada, cambiará totalmente la inteligencia artificial, puesto que su capacidad de procesamiento permitirá avanzar en direcciones no alcanzables a día de hoy.

Será necesaria mayor agilidad para proteger a los consumidores. Y mayor concienciación. Ya conocen la máxima: si algo es gratis, el producto eres tú. En este caso, tus datos.