El Parlamento Europeo ratificó este miércoles la ley de inteligencia artificial (IA) que pactaron en diciembre las instituciones comunitarias. Se trata de la primera regulación de esta tecnología al mundo y sitúa a la Unión Europea (UE) como pionera en la materia. Sin embargo, ni su confección ni su aprobación ha estado exentas de polémica. Aspectos delicados como la videovigilancia o el reconocimiento facial basado en sistemas de IA han sido algunos de los puntos calientes de la legislación. Finalmente, la normativa se ha aprobado este miércoles con 523 votos a favor, 46 en contra y 49 abstenciones.

Si bien la ley estaba casi terminada a finales de 2022, la explosión de herramientas basadas en la inteligencia artificial como ChatGPT ha hecho que se revise y se adapte el texto a la realidad actual. En sí, no se trata de una regulación de la tecnología, sino de su uso en el mercado europeo y con respecto a los derechos de la ciudadanía.

Aspectos claves de la ley

En líneas generales, la ley de inteligencia artificial prohíbe la vigilancia masiva en espacios públicos, pero permite que las fuerzas del orden puedan utilizar las cámaras de identificación biométrica, con la autorización judicial previa, para prevenir una amenaza terrorista inminente. También para localizar o identificar a una persona que haya cometido delitos de terrorismo, tráfico de personas, explotación sexual o, por ejemplo, un crimen medioambiental, así como para buscar a las víctimas de estos delitos.

Sin embargo, varias asociaciones de derechos humanos consideran que estas limitaciones no son suficientes. Por ejemplo, desde Amnistía Internacional sostienen: "La ley de IA solo ofrece protecciones limitadas a las personas afectadas y marginadas. No prohíbe el uso imprudente y la exportación de tecnologías de IA draconianas, a la vez que no garantiza la igualdad de protección a los migrantes, refugiados y solicitantes de asilo.  Del mismo modo, no dispone de disposiciones adecuadas de responsabilidad y transparencia, que probablemente agravarán los abusos de los derechos humanos".

Asimismo, el reglamento establece una serie de obligaciones para los sistemas de inteligencia artificial generativa en los que se basan programas como ChatGPT, de la empresa OpenAI o Bard de Google. En concreto, tendrán que especificar si un texto, una canción o una fotografía se han generado a través de la inteligencia artificial y garantizar que los datos que se han utilizado para entrenar a los sistemas respetan los derechos de autor. Además, se identifican toda una serie de sistemas de inteligencia artificial de alto riesgo que solo se podrán comercializar si los desarrolladores garantizan que respetan los derechos fundamentales. Por ejemplo, los que puedan influir en el resultado de unas elecciones o los que utilicen las entidades financieras para evaluar la solvencia y la calificación crediticia de los clientes. Hoy mismo, Google ha anunciado que restringirá su chatbot, Gemine, basado en la IA de cara a las elecciones venideras de este.

Además, la norma prevé crear la Oficina Europea de Inteligencia Artificial, que coordinará el uso de la tecnología entre las autoridades nacionales y estará asesorada por un grupo de científicos y organizaciones de la sociedad civil.