En vigor des d'agost de 2024, la normativa aplicable a la UE tant a companyies europees com a aquells sistemes d'IA establerts fora de la UE, però que es comercialitzen al mercat europeu o aquells els efectes dels quals tenen lloc a la UE (d'empreses americanes, asiàtiques, entre d'altres) estableix una sèrie de requisits d'obligat compliment i aplicació gradual per la seva entrada en vigor esglaonada. Des del mes de febrer passat, els sistemes d'IA que inclouen algunes de les pràctiques prohibides pel Reglament europeu hauran de deixar de comercialitzar-se; de la mateixa manera, en la mateixa data va entrar en vigor l'obligació d'alfabetització en IA als empleats.

A l'agost seran exigibles les obligacions per als sistemes d'IA de propòsit general com els grans models de llenguatge (LLM), entre qui es troben CHATGPT i de similars. L'agost de 2026, amb l'exigència dels requisits corresponents als sistemes d'alt risc, que són aquells que puguin representar una amenaça a la seguretat, la salut o els drets humans, finalitzarà el període transitori i el Reglament serà exigible en totes les empreses, organitzacions o administracions, a tots els sectors d'activitat. Les sancions per incompliment poden arribar fins al 7% dels ingressos mundials de les empreses infractores.

Propostes d'acompanyament de les consultores

En aquest escenari exigent i canviant, moltes consultores han llançat productes i eines per ajudar a les empreses i organitzacions en desplegament ètic, responsable i en compliment, de la IA. Així, Minsait ha publicat del programa AI ACTion, que "pretén guiar a les companyies per entendre el nivell de vulnerabilitat ètica dels seus sistemes d'IA, conèixer les obligacions legals que els corresponen i, especialment, poder evolucionar-les a pràctiques concretes dins de l'organització sense que representi una minva en la seva competitivitat." El projecte inclou el Certificat de Transparència Algorítmica gestionat per Adigital.

Obligacions específiques

El Reglament IA imposa una obligació substantiva per a certs responsables del desplegament, en concret, els organismes de Dret públic, o entitats privades que presten serveis públics, els quals, segons l'art. 27, hauran de dur a terme una avaluació de l'impacte que la utilització dels esmentats sistemes pot tenir en els drets fonamentals (EIDF). S'afegeixen els elements i els requisits que tal avaluació haurà de complir. Finalment, s'estableix al mateix article que per complir aquesta obligació, l'Oficina d'IA elaborarà un model de qüestionari, també mitjançant una eina automatitzada, a fi de facilitar que els responsables del desplegament compleixin les seves obligacions.

L'APDCAT facilita model d'EIDF

L'Autoritat Catalana de Protecció de Dades (APDCAT) ha elaborat un model pioner a Europa per a l'avaluació d'impacte sobre els drets fonamentals en l'ús d'intel·ligència artificial (EIDF). El model està en línia amb la qual cosa estableix el Reglament d'IA. L'eina està disponible en català, espanyol i anglès.

Els obligats a realitzar avaluació d'impacte

L'article 27 del Reglament IA obliga als responsables del desplegament (usuaris, siguin empreses o administracions públiques) de sistemes d'alt risc que siguin organismes de Dret públic, o entitats privades que presten serveis públics, a dur a terme una avaluació de l'impacte que la utilització dels esmentats sistemes pugui tenir en els drets fonamentals. També estan obligats determinats responsables del desplegament, entre qui es troben les entitats financeres i bancàries i les d'assegurances.

El Reglament IA estableix en què ha de constar en tal avaluació:

a) una descripció dels processos del responsable del desplegament en els quals s'utilitzarà el sistema d'IA d'alt risc d'acord amb la seva finalitat prevista; b) (…) el període de temps durant el qual es preveu utilitzar cada sistema d'IA d'alt risc i la freqüència amb què està previst utilitzar-lo; c) les categories de persones físiques i grups que puguin veure's afectats per la seva utilització; d) els riscos de perjudici específics que puguin afectar les categories de persones físiques i grups determinades (...); e) una descripció de l'aplicació de mesures de supervisió humana, d'acord amb les instruccions d'ús; f) les mesures que s'han d'adoptar en cas que els esmentats riscos es materialitzin, en particular els acords de governança interna i els mecanismes de reclamació. També estableix aquest precepte, llarg i detallat, que "en casos similars, el responsable del desplegament podrà basar-se en avaluacions d'impacte relatives als drets fonamentals realitzades prèviament o a avaluacions d'impacte existents realitzades pels proveïdors. Si, durant l'ús del sistema d'IA d'alt risc, el responsable del desplegament considera que algun dels elements ha canviat o ha deixat d'estar actualitzat, adoptarà les mesures necessàries per actualitzar la informació". Per tant, es prescriu com un procés iteratiu, en evolució constant. El mateix article estableix que l'Oficina d'IA elaborarà un model de qüestionari, també mitjançant una eina automatitzada, a fi de facilitar que els responsables del desplegament compleixin les seves obligacions. Tanmateix, aquest model encara no s'ha publicat.

La iniciativa del Consell d'Europa

El Consell d'Europa (no confondre amb el Consell Europeu) és una organització internacional fundada el 1949 i composta per 46 estats membres – principalment europeus-, sent el Canadà, la Santa Seu, Israel, el Japó, Mèxic i els Estats Units països observadors. Com a tal, és independent de la Unió Europea. El seu objectiu principal és promoure la democràcia, els drets humans i l'Estat de dret al continent europeu. Amb seu a Estrasburg, França, aquesta organització ha exercit un paper fonamental en el desenvolupament de normes internacionals, com el Conveni Europeu de Drets Humans. En l'àmbit digital, el Consell d'Europa treballa amb intensitat per garantir que les tecnologies emergents, inclosa la intel·ligència artificial (IA), respectin aquests valors fonamentals.

Metodologia HUDERIA

En aquest context, el Consell ha desenvolupat la metodologia HUDERIA, un marc tecniconormatiu dissenyat per avaluar i mitigar els riscos relacionats amb els drets humans, la democràcia i l'Estat de dret en el desenvolupament i ús de sistemes d'IA. HUDERIA (acrònim d'Human Rights, Democracy, and Rule of Law Impact Assessment for AI Systems) és una eina metodològica dissenyada per identificar, avaluar i mitigar els possibles riscos que els sistemes d'IA puguin representar per als drets humans, la democràcia i l'Estat de dret. Aquest enfocament té per objectiu garantir que aquests sistemes es desenvolupin i utilitzin de manera ètica i responsable, alineant-se amb els valors fonamentals del Consell d'Europa i del Conveni Europeu de Drets Humans.