A partir del 2 de agosto de este 2026 será de obligatoriedad y plena aplicabilidad del Reglamento para la mayoría de sistemas la Ley de IA de la UE (EU AI Act). La Ley de IA es un reglamento europeo sobre inteligencia artificial (IA), el primer reglamento exhaustivo sobre IA de un regulador importante en cualquier lugar. La Ley clasifica las aplicaciones de IA en tres categorías de riesgo. En primer lugar, se prohíben las aplicaciones y sistemas que supongan un riesgo inaceptable, como los sistemas de puntuación social gestionados por el gobierno, como los que se utilizan en China. En segundo lugar, las aplicaciones de alto riesgo, como una herramienta de escaneo de CV que clasifica a los solicitantes de empleo, están sujetas a requisitos legales específicos. Finalmente, las aplicaciones que no están explícitamente prohibidas o catalogadas como de alto riesgo quedan en gran medida sin regular.
Así pues, la Ley de IA es el primer marco jurídico en materia de IA, que aborda los riesgos de la IA y posiciona a Europa para ejercer un papel de liderazgo a escala mundial. Para facilitar la transición al nuevo marco regulador, la Comisión ha puesto en marcha el Pacto sobre la IA, una iniciativa voluntaria que tiene por objeto dar apoyo a la futura aplicación, colaborar con las partes interesadas e invitar a los proveedores e implementadores de IA de Europa y de fuera a cumplir con antelación las obligaciones clave de la Ley de IA. Paralelamente, el servicio de asistencia de la Ley de IA también proporciona información y apoyo para una aplicación fluida y eficaz de la Ley de IA en toda la UE.
¿De qué sirve?
La Ley de IA garantiza que los europeos puedan confiar en lo que la IA tiene para ofrecer. Si bien la mayoría de los sistemas de IA presentan un riesgo limitado a cero y pueden contribuir a resolver muchos retos sociales, ciertos sistemas de IA crean riesgos que deben abordarse para evitar resultados indeseables. Por ejemplo, a menudo no es posible averiguar por qué un sistema de IA ha tomado una decisión o predicción y ha tomado una acción en particular. Por lo tanto, puede ser difícil evaluar si alguien ha sido injustamente desfavorecido, como una decisión de contratación o una solicitud de un plan de beneficios públicos. Aunque la legislación vigente ofrece cierta protección, es insuficiente para abordar los retos específicos que pueden plantear los sistemas de IA.
Los sistemas de IA de alto riesgo están sujetos a obligaciones estrictas antes de que puedan comercializarse:
- sistemas adecuados de evaluación y mitigación de riesgos
- alta calidad de los conjuntos de datos que alimentan el sistema para minimizar los riesgos de resultados discriminatorios
- registro de la actividad para garantizar la trazabilidad de los resultados
- documentación detallada que proporcione toda la información necesaria sobre el sistema y su finalidad para que las autoridades evalúen su cumplimiento
- información clara y adecuada al implementador
- medidas adecuadas de supervisión humana
- alto nivel de robustez, ciberseguridad y precisión
Sanciones y cómo cumplir
Las multas por incumplir la AI Act son relevantes:
- Hasta 35 M€ o el 7% del volumen de negocio mundial (el más grande) por prácticas prohibidas .
- Hasta 15 M€ o el 3% por incumplimientos de otras obligaciones.
- Hasta 7,5M€ o 1,5% por facilitar información incorrecta.
Más allá de la cifra, el riesgo reputacional y operativo es alto: retirada de sistemas, auditorías forzosas, impacto en la confianza de clientes y talento. España ha creado la AESIA (Agencia Española de Supervisión de la IA), con estatuto aprobado por RD 729/2023. AESIA asumirá funciones de vigilancia de mercado y coordinación nacional del marco de la AI Act, en sintonía con otras autoridades (p. ej., AEPD para protección de datos) y reguladores sectoriales (CNMV/BdE, Sanidad, etc.). Por todo ello, ya hay consultorías que están adaptando sus servicios para poder hacer efectivo el cumplimiento de una nueva normativa de la UE única para las empresas europeas.