L'Oficina d'Intel·ligència Artificial de la Unió Europea (EU AI Office) ha llançat una ambiciosa licitació pública per valor de nou milions d'euros destinada a enfortir el control tècnic sobre el compliment del Reglament d'IA (AI Act), dels models d'IA de Propòsit General (GPAI) que puguin implicar riscos sistèmics per a la seguretat pública, la salut o els drets fonamentals.

La licitació, publicada sota el marc del programa Europa Digital, pretén dotar a l'Oficina d'IA d'eines avançades d'avaluació, modelatge i monitoratge, essencials per a l'entrada en vigor dels articles 53 i 55 de l'AI Act, que regulen models d'alt impacte i el seu possible ús maliciós o descontrolat.

La convocatòria romandrà oberta fins al 25 d'agost de 2025 i està dirigida a institucions acadèmiques, consorcis tecnològics, laboratoris de ciberseguretat i entitats amb experiència en governança de riscos complexos.

Àrees clau per abordar els riscos dels models d'IA més potents

La licitació es divideix en sis lots tècnics, cada un amb una funció específica per abordar un tipus de risc potencial que podria derivar-se de models d'IA cada vegada més autònoms, capaços d'influir en infraestructures crítiques, opinió pública o fins i tot processos socials:

Lots 1 a 5: riscos sistèmics

  1. Riscos CBRN (químics, biològics, radiològics i nuclears)
    Estudia el possible ús de models GPAI per facilitar accés a coneixements perillosos o processos industrials sensibles.
  2. Riscos de delictes cibernètics
    Avalua com a models d'IA poden facilitar ciberatacs, fraus, generació de codi maliciós o explotació de vulnerabilitats.
  3. Pèrdua de control sobre el sistema
    Inclou escenaris on els models actuen de forma impredictible, s'escapen de la supervisió humana o desenvolupen conductes emergents.
  4. Manipulació maliciosa o nociva
    Considera la generació de continguts falsos, propaganda, biaixos amplificats o desinformació dissenyada per causar mal|dany social.
  5. Riscos sociotècnics complexos
    Analitza com els models poden afectar estructures socials, institucionals o econòmiques, fins i tot sense intenció maliciosa directa.

Lot 6: avaluacions "agentecèntriques"

El sisè lot té un caràcter transversal i se centra en l'avaluació de comportaments autònoms, és a dir, la capacitat d'un model GPAI per actuar de forma proactiva, adaptar-se a tasques obertes o dinàmiques, i prendre decisions amb conseqüències significatives. Aquesta àrea és clau per anticipar riscos emergents i difícilment predictibles.

Cada lot inclou tasques com:

  • Desenvolupament d'escenaris de risc realistes.
  • Creació o adaptació d'eines d'avaluació.
  • Suport tècnic per a anàlisi en temps real.
  • Generació d'informes i models de predicció sobre l'evolució d'amenaces.

Aquesta nova contractació pública marca un pas important en la implementació pràctica de l'AI Act, i reforça el paper de l'Oficina d'IA com a ens supervisor i científic a escala comunitària.

Amb models d'IA cada vegada més potents i generalitzats —capaços de generar text, imatges, codi o influir en sistemes tècnics—, la Unió Europea aposta per un enfocament de precaució tècnica i anàlisi anticipada, en lloc d'una regulació reactiva. Segons experts de Brussel·les, "l'única manera de garantir una innovació confiable és entendre en profunditat com poden fallar o ser utilitzats malament aquests models".

Rellevància de la licitació

  • La UE es converteix en una de les primeres jurisdiccions del món en invertir fons públics per a l'avaluació sistemàtica de riscos específics en models GPAI.
  • El procés respon a articles clau de l'AI Act, com el 55, que exigeix als proveïdors de models avançats implementar mesures proactives de mitigació.
  • Permet als legisladors europeus identificar patrons de risc abans que es produeixin danys reals, mitjançant simulacions i vigilància tecnològica.

Perspectives i pròxims passos

Una vegada seleccionats els adjudicataris, s'espera que els projectes comencin en l'últim trimestre de 2025 i aportin dades crucials per prendre decisions reguladores el 2026 i 2027, quan les obligacions per a models d'alt risc entrin plenament en vigor i siguin exigibles.

La Comissió ha subratllat que aquestes anàlisis no s'utilitzaran únicament per imposar sancions, sinó també per oferir orientació als proveïdors de models GPAI, ajudant-los a adaptar els seus productes els estàndards europeus de seguretat i integritat.

Europa se situa novament a l'avantguarda en la governança de la intel·ligència artificial. Amb aquesta licitació de 9 milions d'euros, l'Oficina d'IA es dota de múscul tècnic per afrontar els desafiaments més complexos del futur digital: prevenir els usos maliciosos, incontrolables o socialment disruptius d'una tecnologia tan poderosa com la IA de propòsit general.