Experts tecnològics, científics, polítics i empresaris s'han unit per signar conjuntament una carta que alerta dels perills de desenvolupament desenfrenat de la intel·ligència artificial (IA). Tanmateix, la carta no és només una queixa, també és propositiva. Es proposa que els experiments actuals d'IA se suspenguin durant sis mesos. Per què? Per tenir temps per valorar els potencials riscos d'aquesta tecnologia i generar un marc legal sòlid al voltant de la IA

"La societat ha fet una pausa en altres tecnologies amb efectes potencialment catastròfics a la societat. Podem fer-ho aquí. Gaudim d'una llarga pausa estiuenca de la IA i no ens afanyem a caure sense estar preparats", es recorda en la carta que porta signatures de figures tan destacades com el director executiu de Tesla, Elon Musk, el cofundador d'Apple Steve Wozniak, els investigadors nord-americans Yoshua Bengio, Stuart Russel o els espanyols Carles Sierra i Ramón López De Mantaras. 

"La IA avançada podria representar un canvi profund en la història de la vida a la terra, i s'hauria de planificar i gestionar amb la cura i els recursos corresponents", es remarca en la missiva. També s'adverteix que la febre per la IA ha desembocat en una "carrera fora  de control per desenvolupar i desplegar ments digitals cada cop més poderoses". 

Aquesta carrera sense control en un mercat radicalment competitiu i amb nul·la regulació encega un aspecte fonamental d'aquesta nova tecnologia que es recorda a la carta: "ningú -ni tan sols els seus creadors- pot entendre, predir o controlar de manera fiable" aquestes ments digitals. És a dir, es demana fer un pas enrere per analitzar la situació a la qual s'ha arribat en aquesta carrera tecnològica en què s'han tingut poc en compte algunes possibles conseqüències. 

Una petició per frenar temporalment

"Fem una crida a tots els laboratoris d'IA perquè aturin immediatament durant almenys sis mesos l'entrenament dels sistemes d'IA més potents que GPT-4", recull el text, on se subratlla repetidament que els sistemes potents d'intel·ligència artificial només s'han de desenvolupar quan hi hagi la seguretat que els efectes són positius i els riscos són manejables. La carta no és tecnofòbia, ja que conclou expressant l'esperança que aquesta nova tecnològica tiri endavant sent precisa, segura, transparent, fiable i lleial. 

En una entrevista amb elNacional.cat fa unes setmanes, Judith Membrives i Llorens, tècnica de digitalització de Lafede.cat, ja apostava per parar temporalment l'evolució de la IA per adaptar la societat, però remarcava que en aquell moment (i probablement encara) no era una opció molt popular al sector.  "Això no vol dir que mai es pugui fer servir, sinó que de moment no estem ni socialment ni legalment prou avançats  per a poder introduir certes tecnologies", remarcava.