L'administració de Donald Trump ha fet un gir inesperat en la seva política tecnològica. Després de mesos defensant una regulació mínima per afavorir la innovació a Silicon Valley, el govern nord-americà ha anunciat aquest dimarts un acord amb tres dels grans laboratoris d'intel·ligència artificial del país. Google DeepMind, Microsoft i xAI, la companyia d'Elon Musk, hauran de sotmetre els seus models a una avaluació prèvia per part d'un organisme oficial abans de llançar-los al mercat. L'anunci el va fer el Centre d'Estàndards i Innovació en IA, un departament depenent de l'Institut Nacional d'Estàndards i Tecnologia del Departament de Comerç.
Segons ha explicat l'agència en un comunicat, l'objectiu d'aquest acord és "dur a terme avaluacions prèvies al desplegament i investigacions específiques" que permetin entendre millor les capacitats reals dels sistemes d'intel·ligència artificial més avançats. Fins ara, la Casa Blanca havia optat per un model de no-intervenció, confiant que les mateixes empreses regulessin els seus avenços per no perdre la cursa tecnològica davant la Xina. Però alguns esdeveniments recents han fet canviar d'opinió els assessors de Trump, especialment després de les revelacions sobre un model de ciberseguretat que ha posat en alerta els serveis d'intel·ligència.
El model Mythos, el detonant que ha fet saltar les alarmes
El factor que ha precipitat aquest canvi de rumb ha estat l'aparició de Mythos, el nou sistema d'Anthropic. La companyia, que va néixer com una escissió d'OpenAI, va decidir el mes passat no posar aquesta eina a disposició del públic general a causa de la seva perillositat. Mythos ha demostrat ser capaç de trobar vulnerabilitats de seguretat en sistemes operatius i navegadors que havien passat desapercebudes durant dècades. En proves internes, el model va detectar una fallada a FreeBSD que tenia 17 anys amagada, i una altra a OpenBSD que feia 27 anys que no era detectada. Amb aquesta capacitat a les mans equivocades, els danys podrien ser incalculables.
Els experts en ciberseguretat consultats per la Casa Blanca han advertit que el risc no és només que models com Mythos puguin identificar vulnerabilitats, sinó que ho fan a una velocitat mai vista. Tradicionalment, quan un investigador descobria una fallada de seguretat, els equips de defensa disposaven d'una finestra de dies o setmanes per reaccionar abans que els atacants l'explotessin. Amb eines com Mythos, aquesta finestra es pot reduir a poques hores. Encara més preocupant: el model és capaç d'encadenar diverses vulnerabilitats de severitat baixa o mitjana per construir atacs complexos que, individualment, cap sistema d'escaneig consideraria perillosos.
Aquest gir en la política tecnològica coincideix amb una reestructuració interna a l'ala oest de la Casa Blanca. El març passat, David Sacks, l'home conegut com el "tsar de la IA" i que havia defensat una regulació mínima, va abandonar el seu càrrec. Des de llavors, la gestió de la política d'intel·ligència artificial ha recaigut en dues figures de pes: Susie Wiles, la cap de gabinet de la Casa Blanca, i Scott Bessent, el secretari del Tresor. Ambdós han mostrat una posició més prudent i han estat els principals impulsors d'aquest acord amb els laboratoris tecnològics.
Acords previs amb OpenAI i Anthropic
Cal recordar que aquesta no és la primera vegada que l'administració nord-americana intenta posar fre als models d'IA. L'agost del 2024, encara amb Joe Biden a la presidència, es van signar acords voluntàriament vinculants amb OpenAI i Anthropic perquè sotmetessin els seus models a proves de seguretat. El que ha fet ara l'equip de Trump ha estat renegociar aquells acords per adaptar-los a les seves prioritats i ampliar-ne l'abast a nous actors com Google DeepMind, Microsoft i xAI. L'objectiu és que cap model d'importància pugui arribar al mercat sense una certificació prèvia de l'Institut Nacional d'Estàndards.
Les companyies afectades han acceptat l'acord, encara que amb diferents graus d'entusiasme. Tom Lue, vicepresident d'assumptes globals d'IA de Google DeepMind, va confirmar l'associació en una breu publicació a les xarxes socials. Microsoft i xAI, per la seva banda, s'han limitat a ratificar la seva participació sense fer declaracions públiques més àmplies. Segons ha pogut saber la premsa nord-americana, el nou director del CAISI, Chris Fall, ja ha comunicat a les empreses que les proves hauran de fer-se sobre models sense les salvaguardes de seguretat habituals, per tal que els avaluadors governamentals puguin avaluar-ne les capacitats reals en entorns classificats. Aquesta exigència, que fins ara era impensable en el model de no-intervenció, demostra fins a quin punt ha canviat la postura de l'administració.