Les obligacions del Reglament Europeu d'Intel·ligència Artificial (RIA o AI Act) per a la IA de propòsit general ja estan en vigor i poden ser exigides per les autoritats de control, a Espanya, fonamentalment, l'Agència Espanyola de Supervisió d'Intel·ligència Artificial.

Des del 2 d'agost de 2025, ha entrat en vigor a la Unió Europea una de les fites més esperades, i temudes, per la indústria tecnològica: les obligacions específiques per a proveïdors de models d'intel·ligència artificial de propòsit general (GPAI) sota l'esmentada normativa comunitària d'intel·ligència artificial (AI Act).

Encara que el reglament es va aprovar el 2024, la seva aplicació s'ha realitzat de forma progressiva. Ara és el torn d'un segment clau: models capaços de realitzar una àmplia gamma de tasques com a generació de text, imatge o vídeo i entrenats amb recursos computacionals massius. La seva potència i adaptabilitat han motivat un marc legal diferenciat per garantir seguretat, transparència i respecte als drets fonamentals.

Què és la "IA de propòsit general"?

L'AI Act defineix un model GPAI com aquell entrenat amb recursos superiors a 10²³ operacions de coma flotant (FLOPs) i que pugui generar o comprendre llenguatge natural, imatges o vídeos amb alt grau d'autonomia. Aquests sistemes no es limiten a un cas d'ús específic, sinó que serveixen com a base per a múltiples aplicacions. Per això s'entén que incrementen els seus riscos potencials.

Principals obligacions en vigor

A partir d'ara, els proveïdors de GPAI han de complir una sèrie de requisits tècnics i organitzatius, entre els quals destaquen:

  1. Transparència reforçada
    -Documentar les capacitats i limitacions del model.
    -Identificar clarament els continguts generats per IA (marcadors de procedència, watermarks o marques d'aigua i/o metadades).
     
  2. Respecte a la propietat intel·lectual
    -Proporcionar informació sobre l'ús d'obres protegides entre les dades d'entrenament o data sets.
    -Facilitar mecanismes perquè els titulars de drets puguin verificar i reclamar (entre els quals, que es puguin oposar que la seva obra sigui utilitzada per entrenar sistemes d'IA).
     
  3. Avaluació i mitigació de riscos
    -Anàlisi de possibles impactes sobre la salut, la seguretat, els drets fonamentals.
    -Mesurades per prevenir usos abusius, nocius o potencialment perillosos.
     
  4. Supervisió humana i control d'ús
    -Els sistemes han de permetre tant a operadors, responsables del desplegament (usuaris) com a autoritats limitar comportaments no desitjats.
     
  5. Obligacions addicionals per a models de "risc sistèmic"
    -Quan el model pugui generar impactes massius en la societat o economia, s'exigeix requisits i obligacions reforçades com el monitoratge continu, la realització d'auditories externes i l'establiment de protocols de resposta ràpida.

El codi de conducta voluntari

En paral·lel, la Comissió Europea ha impulsat un Codi de Bones Pràctiques per a GPAI ( o codi de conducta) que no substitueix la llei, però ofereix vies simplificades de compliment per als qui l'adoptin. Els proveïdors que el firmin abans de l'1 d'agost de 2025 seran inclosos en un registre públic i podran beneficiar-se de menor càrrega administrativa i més seguretat jurídica. La major part de les big tech desenvolupadores d'IA ja l'han subscrit, però també hi ha sonades excepcions com Meta.

L'existència d'aquest codi, desenvolupat per un ampli grup d'experts amb una metodologia estricta i diverses iteracions, busca incentivar una autoregulació responsable. Ara bé, l'adhesió no eximeix de la supervisió per part de l'Oficina Europea d'IA, o de l'autoritat nacional que correspongui.

És a dir, sense perjudici de què un proveïdor d'IA hagi firmat el codi, podria incórrer en responsabilitats i, en el seu cas, en sancions, si es demostra que està vulnerant l'AI Act. Al costat del|Juntament amb codi, la Comissió Europea també ha publicat noves directrius oficials per ajudar els proveïdors de models GPAI a complir adequadament amb el Reglament d'IA des del 2 d'agost.

Entre els aspectes clau, les directrius estableixen els següents aspectes:

-Defineixen què és un model d'IA de propòsit general: aquell entrenat amb recursos computacionals superiors a 102310^{23}1023 operacions de coma flotant i capaç de generar text, imatges o vídeo.
-Aclareixen qui és considerat "proveïdor" i què significa "comercialitzar un model" en el context europeu.
-Reconeixen excepcions per a models desenvolupats sota llicències lliures i de codi font obert, sempre que compleixin condicions mínimes de transparencia.Ç
-Detallen obligacions addicionals per a proveïdors de models avançats amb riscos sistèmics, incloent la necessitat d'avaluacions de risc i mesures de mitigació reforçades.

Els riscos i les sancions

L'incompliment de les obligacions per a GPAI pot portar, segons l'AI Act multes de fins a|fins i tot 35 milions d'euros o el 7% del volum de negoci global, segons la gravetat de la infracció. A més, les autoritats nacionals de supervisió tindran potestat per suspendre o prohibir temporalment l'ús de models que representin un risc inacceptable.

El que han de fer les empreses ara:

-Mapar i classificar els seus models per determinar si entren en la definició de GPAI.
-Revisar contractes i llicències que tinguin amb desenvolupadors d'IA per incloure clàusules de compliment amb l'AI Act.
-Implementar traçabilitat de dades utilitzades en l'entrenament.
-Formar equips tècnics i legals, i la plantilla, en el seu conjunt, sobre les noves obligacions.

Com s'ha dit, amb l'entrada en vigor d'aquestes normes, la UE es consolida com a líder mundial en regulació d'IA, apostant per un enfocament basat en drets i seguretat i en una IA ètica i responsable. Tanmateix, per a empreses i desenvolupadors, aquest moment marca, teòricament, l'acabament d'un període d'adaptació intensa que està requerint o requerirà inversions significatives en compliance, auditoria i governança tecnològica.

La incògnita, s'ha dit, és si aquest marc de referència podrà suposar un fre a la innovació o, al contrari, generarà, com vol la UE, un ecosistema més fiable i competitiu. El que està clar és que, des d'aquest agost, el rellotge de la regulació de la IA ja està corrent i no hi ha marxa enrere.