L'entrada en vigor del Reglament Europeu d'intel·ligència artificial (AI Act o Reglament IA) ha donat pas a una de les peces clau de la seva estructura de vigilància: el Panell Científic d'Experts Independents. Aquest nou organisme, compost per fins a 60 especialistes, té la missió de donar suport tècnicament a la implementació del Reglament i advertir sobre els riscos sistèmics que pugui provocar la intel·ligència artificial de propòsit general (GPAI, per les seves sigles en anglès), com els models fundacionals o generatius.

Un panell científic d'experts

La IA està transformant sectors clau com l'educació, la sanitat, les finances o la comunicació. Amb l'auge de models com a GPT-4 o Gemini, Europa ha optat per una regulació estricta, però flexible, per minimitzar danys sense frenar la innovació. Dins d'aquest marc, el Panell Científic s'encarregarà de controlar els desenvolupaments més avançats, analitzar els seus impactes i emetre "alertes qualificades" si detecta riscos imminents per a la salut, la seguretat o els drets fonamentals. El Reglament, aprovat el 2024 i exigible en les seves principals obligacions des d'agost d'aquell any, preveu diverses noves institucions: l'Oficina Europea d'IA, el Comitè Europeu d'intel·ligència artificial i ara aquest panell científic, que funcionarà com a braç tècnic independent de l'Oficina.

Es busca un equip multidisciplinari, divers i independent

El panell estarà compost per un màxim de 60 experts procedents de diverses disciplines: informàtica, ètica, sociologia, enginyeria o medi ambient, entre d'altres. La Comissió Europea ha establert criteris estrictes per a la seva selecció, prioritzant la independència, la diversitat geogràfica i de gènere, i l'excel·lència professional. Cada expert haurà de poder acreditar coneixements sòlids en IA, tenir experiència contrastada (per exemple, doctorat o publicacions rellevants), i no mantenir vincles financers amb empreses proveïdores d'IA; no hi pot haver conflictes d'interès. Els mandats són de dos anys, renovables, i les funcions inclouen des de l'elaboració de guies tècniques i metodologies d'avaluació fins a la participació en tasques de vigilància de mercat.

Alerta qualificada

Una de les funcions més rellevants del panell és la seva capacitat per emetre una "alerta qualificada", prevista a l'article 90 de l'AI Act. Aquest mecanisme s'activa quan el panell considera que un model d'IA de propòsit general suposa un risc sistèmic: és a dir, que podria afectar greument la salut pública, els drets fonamentals o, per exemple, l'estabilitat democràtica dels estats membres. En aquest cas, el panell envia una notificació formal a l'Oficina Europea d'IA, que té 14 dies per analitzar el cas i decidir si el model ha de ser classificat com d'alt risc. De ser així, el proveïdor d'IA haurà de complir obligacions addicionals, com a avaluacions periòdiques d'impacte, notificació d'incidents, o mesures de ciberseguretat més estrictes.

Transparència i vigilància ciutadana

Algunes organitzacions de la societat civil han exigit que el panell ha d'operar amb la màxima transparència. Algunes com el Future of Life Institute han demanat que es publiquin les actes, agendes, recomanacions i alertes emeses. Si aquest òrgan té poder per frenar models d'IA perillosos, també ha de retre comptes públicament, afirmen. La Comissió ha establert mecanismes per publicar les declaracions d'interès de cada expert, controlar possibles conflictes i garantir que les decisions estiguin ben fonamentades. A més, l'Oficina d'IA coordina amb les agències nacionals de vigilància del mercat per assegurar que les decisions del panell tinguin abast efectiu i homogeni a tota la Unió Europea.

Retribució

A diferència d'altres comitès tècnics, els membres del panell no tenen salari fix, però sí que poden rebre honoraris si participen activament com a relators o experts en informes específics. També està previst que se'ls reemborsin les despeses de viatge i allotjament quan participen en activitats oficials.

Lideratge digital europeu

Amb la creació del Panell Científic d'Experts, la Unió Europea reforça la seva ambició de convertir-se en líder mundial en regulació ètica i responsable de la intel·ligència artificial. A diferència d'altres blocs, com els Estats Units o la Xina, Europa aposta per un model centrat en els drets fonamentals, la protecció de l'usuari i la sostenibilitat tecnològica. El repte no és menor: gestionar els beneficis d'una tecnologia poderosa sense caure en el pànic ni en la complaença. Per a això, comptar amb veus científiques independents, amb criteri tècnic i visió a llarg termini, serà crucial.