Desde que ChatGPT se ha convertido en una herramienta al alcance de cualquier usuario y, por ello, está en boca de todos, la urgencia de una normativa adaptada a la nueva situación que regule el uso de estas y otras herramientas similares es mayor en todos los estamentos sociales. Así, y atendiendo a esta preocupación creciente, el comité de Mercado Interior y Libertades Civiles de la UE acaba de aprobar la reformulación de las pautas principales del borrador de reglamento europeo sobre IA que se elaboró en 2021. Vistos los avances de los últimos meses, nada de lo hecho antes parece ya válido, pero el objetivo de la UE es tener un Reglamento aprobado antes de final de año.

¿A qué obligará la nueva regulación?

Lo que se pretende no es otra cosa que garantizar una supervisión completa de los sistemas de IA para que sean transparentes y respeten la privacidad de los ciudadanos de la UE. Al tiempo, está previsto que se elabore un baremo según el cual se medirá el riesgo que puede generar el uso de IA en determinadas situaciones. Así, en las circunstancias en las que se estime que el uso de sistemas de IA pueda generar “riesgos inaceptables para la seguridad de las personas” el uso de estas herramientas quedará prohibido. Igualmente, los sistemas de identificación biométrica remotos y en tiempo real no podrán usarse en espacios de acceso público. Las técnicas subliminales que puedan manipular de manera intencionada a algún usuario o exploten vulnerabilidades tampoco podrán ser utilizadas. El scrolling social —técnica que permite a una herramienta de IA descartar para recibir servicios o productos concretos a usuarios determinados a partir de datos personales— queda también prohibido.

inteligenciaartificial Rr3EQ3ZUk1ooJpkvIEvzjzH 366x256@abc
 

Nada de clasificaciones

En el nuevo borrador, para cuyo redactado ha dado ya esta semana el visto bueno la UE, se establecerá también la prohibición de clasificar a individuos concretos por razón de género, etnia, religión o ideología y se prohibirá el uso de sistemas policiales predictivos que, a partir de perfiles, localización o comportamientos delictivos anteriores, puedan llegar a utilizarse para vaticinar posibles nuevos actos ilegales. Del mismo modo, estará prohibido usar estos sistemas para conocer las emociones de personas trabajadoras durante el desempeño de sus funciones. Por último, se fijará también la prohibición plena de emplear sistemas de IA que puedan afectar negativamente a la salud de las personas, la seguridad y los derechos de estas o al medio ambiente. Sobre el régimen sancionador no se ha indicado nada de momento, pero en todo lo previsto hay algo muy inquietante: cuando algo se prohíbe, es porque existe la posibilidad de que alguien lo haga. ¿Conviene, por tanto, empezar a preguntarse qué es exactamente esa herramienta que tenemos en las manos?