La Oficina de Inteligencia Artificial de la Unión Europea (EU AI Office) ha lanzado una ambiciosa licitación pública por valor de nueve millones de euros destinada a fortalecer el control técnico sobre el cumplimiento del Reglamento de IA (AI Act), de los modelos de IA de Propósito General (GPAI) que puedan implicar riesgos sistémicos para la seguridad pública, la salud o los derechos fundamentales.
La licitación, publicada bajo el marco del programa Europa Digital, pretende dotar a la Oficina de IA de herramientas avanzadas de evaluación, modelado y monitorización, esenciales para la entrada en vigor de los artículos 53 y 55 de la AI Act, que regulan modelos de alto impacto y su posible uso malicioso o descontrolado.
La convocatoria permanecerá abierta hasta el 25 de agosto de 2025 y está dirigida a instituciones académicas, consorcios tecnológicos, laboratorios de ciberseguridad y entidades con experiencia en gobernanza de riesgos complejos.
Áreas clave para abordar los riesgos de los modelos de IA más potentes
La licitación se divide en seis lotes técnicos, cada uno con una función específica para abordar un tipo de riesgo potencial que podría derivarse de modelos de IA cada vez más autónomos, capaces de influir en infraestructuras críticas, opinión pública o incluso procesos sociales:
Lotes 1 a 5: riesgos sistémicos
-
Riesgos CBRN (químicos, biológicos, radiológicos y nucleares)
Estudia el posible uso de modelos GPAI para facilitar acceso a conocimientos peligrosos o procesos industriales sensibles. -
Riesgos de delitos cibernéticos
Evalúa como modelos de IA pueden facilitar ciberataques, fraudes, generación de malware o explotación de vulnerabilidades. -
Pérdida de control sobre el sistema
Incluye escenarios donde los modelos actúan de forma impredecible, escapan de la supervisión humana o desarrollan conductas emergentes. -
Manipulación maliciosa o dañina
Considera la generación de contenidos falsos, propaganda, sesgos amplificados o desinformación diseñada para causar daño social. -
Riesgos sociotécnicos complejos
Analiza cómo los modelos pueden afectar a estructuras sociales, institucionales o económicas, incluso sin intención maliciosa directa.
Lote 6: evaluaciones “agentecéntricas”
El sexto lote tiene un carácter transversal y se centra en la evaluación de comportamientos autónomos, es decir, la capacidad de un modelo GPAI para actuar de forma proactiva, adaptarse a tareas abiertas o dinámicas, y tomar decisiones con consecuencias significativas. Esta área es clave para anticipar riesgos emergentes y difícilmente predecibles.
Cada lote incluye tareas como:
- Desarrollo de escenarios de riesgo realistas.
- Creación o adaptación de herramientas de evaluación.
- Apoyo técnico para análisis en tiempo real.
- Generación de informes y modelos de predicción sobre la evolución de amenazas.
Esta nueva contratación pública marca un paso importante en la implementación práctica de la AI Act, y refuerza el papel de la Oficina de IA como ente supervisor y científico a nivel comunitario.
Con modelos de IA cada vez más potentes y generalizados —capaces de generar texto, imágenes, código o influir en sistemas técnicos—, la Unión Europea apuesta por un enfoque de precaución técnica y análisis anticipado, en lugar de una regulación reactiva. Según expertos de Bruselas, “la única forma de garantizar una innovación confiable es entender en profundidad cómo pueden fallar o ser mal utilizados estos modelos”.
Relevancia de la licitación
- La UE se convierte en una de las primeras jurisdicciones del mundo en invertir fondos públicos para la evaluación sistemática de riesgos específicos en modelos GPAI.
- El proceso responde a artículos clave de la AI Act, como el 55, que exige a los proveedores de modelos avanzados implementar medidas proactivas de mitigación.
- Permite a los legisladores europeos identificar patrones de riesgo antes de que ocurran daños reales, mediante simulaciones y vigilancia tecnológica.
Perspectivas y próximos pasos
Una vez seleccionados los adjudicatarios, se espera que los proyectos comiencen en el último trimestre de 2025 y aporten datos cruciales para tomar decisiones regulatorias en 2026 y 2027, cuando las obligaciones para modelos de alto riesgo entren plenamente en vigor y sean exigibles.
La Comisión ha subrayado que estos análisis no se usarán únicamente para imponer sanciones, sino también para ofrecer orientación a los proveedores de modelos GPAI, ayudándoles a adaptar sus productos a los estándares europeos de seguridad e integridad.
Europa se sitúa nuevamente a la vanguardia en la gobernanza de la inteligencia artificial. Con esta licitación de 9 millones de euros, la Oficina de IA se dota de músculo técnico para afrontar los desafíos más complejos del futuro digital: prevenir los usos maliciosos, incontrolables o socialmente disruptivos de una tecnología tan poderosa como la IA de propósito general.