El objetivo del Reglamento impuesto por la Unión Europea a partir del 2 de agosto afecta en todas las empresas que utilicen a la inteligencia artificial. Según Bruselas, el que se pretende es mejorar el funcionamiento del mercado interior mediante el establecimiento de un marco jurídico uniforme, en particular para el desarrollo, la introducción en el mercado, la puesta en servicio y la utilización de sistemas de inteligencia artificial a la Unión, de conformidad con los valores de la Unión, con el fin de promover la adopción de una inteligencia artificial (IA) centrada en el ser humano y fiable, garantizando al mismo tiempo un elevado nivel de protección de la salud, la seguridad y los derechos fundamentales consagrados en la Carta de los Derechos Fundamentales de la Unión Europea.
El presente Reglamento garantiza la libre circulación transfronteriza de mercancías y servicios basados en la IA, con lo cual impide que los Estados miembros impongan restricciones al desarrollo, la comercialización y la utilización de sistemas de IA, a menos que el presente Reglamento lo autorice expresamente. A grandes rasgos, estas son las afectaciones que si no se cumplen, implican sanciones todavía a determinar según cada una de ellas.
- Chats y similares: informar al usuario que está tratando con un sistema automatizado con IA (obligatorio).
- Contenido generado: informar al usuario de que el texto o la imagen generada está hecha con IA (obligatorio).
- Explicar cómo funcionan las automatizaciones con IA (voluntario).
Sistemas de alto riesgo
Además, si el sistema es considerado de alto riesgo, tendrá que cumplir muchas otras obligaciones, pero para ser de alto riesgo tiene que tratarse de un sistema que gestione con IA. Nos referimos a los siguientes campos o sectores:
- Contratación y empleo (filtrar CVs, evaluar candidatos, evaluar rendimiento, tomar decisiones sobre personas).
- Educación y formación (corregir exámenes, evaluar competencias).
- Decidir acceso a servicios públicos o esenciales (solicitudes de crédito, salud, vivienda, inmigración).
- Seguridad, medicina y vigilancia (biometría, diagnósticos médicos, identificación facial, espacios públicos).
- Aplicación de la ley (predecir reincidencia, evaluar credibilidad, asistir en fallos judiciales, detección de mentiras).
- Infraestructuras críticas, industria, maquinaria o vehículos (sistemas médicos, conducción autónoma, centrales eléctricas, transporte de energía, agua, etc.).
En este estado de alto riesgo, el proveedor también tiene otras obligaciones implícitas:
1. Hacer un análisis de riesgos.
2. Implementar supervisión humana obligatoria.
3. Garantizar trazabilidad y documentación técnica.
4. Garantizar la calidad de los datos de entrenamiento.
5. Registrar el sistema en una base de datos europea.
6. Estar preparado para auditorías.
Es importante entender la diferencia entre MODELO (GPT de OpenAI, Gemini Google, etc.) y SISTEMA (la herramienta que lo integra, como por ejemplo R2 Docuo). Las obligaciones en las cuales se han hecho referencias siempre son de sistemas. Metro que los proveedores del MODELO tienen muchas otras obligaciones en el EU AY Act para las cuales están saltando chispas (entre ellas cumplir la ley de copyright europea y detallar sus datos de entrenamiento). Los proveedores de MODELOS (GPT de OpenAI, Gemini Google, etc.) probablemente siguen con la política de limitar el acceso a funcionalidades a Europa cuando estas sean complicadas de encajar al AY Act.