La publicació de la carta firmada per alguns dels investigadors en intel·ligència artificial més influents, on demanen d'interrompre els desenvolupaments en aquesta àrea durant sis mesos, ha posat el focus sobre la potencial amenaça que pot portar per a la humanitat.

La intel·ligència artificial no és una cosa recent, sinó que es comença a investigar als anys cinquanta. El segle passat. Al cap i a la fi, el que hi ha darrere són matemàtiques i algoritmes que analitzen el que ha passat per predir el futur. Una de les barreres que existien per al seu desenvolupament era la falta de capacitat per processar grans quantitats de dades, el famós big data, i així aconseguir establir patrons i predir quines accions podrien tenir lloc.

Els avenços en computació de les últimes dècades van eliminar aquest obstacle i ara sí que tenim equips amb aquesta habilitat. Per això, aquesta tecnologia ha avançat tan ràpid en pocs anys. I ho farà més d'ara endavant. Per això, per exemple, que en la guerra econòmica Xina-EUA, aquest últim intenti frenar l'accés als semiconductors per part del país asiàtic. Així no pot avançar tecnològicament en camps com la IA, perquè li faltaria una de les eines per fer-ho.

Em sembla curiós el debat sobre "les màquines contra els humans" que s'ha establert i el que la carta anuncia com a problemes futurs. El que es denominaria intel·ligència artificial general (AGI, en les seves sigles en anglès) encara ha d'arribar, si arriba. Aquesta és la que podria equiparar-se a les persones.

Tanmateix, la falta de regulació uniforme afecta ja els problemes actuals que generen les eines d'IA. Problemes relacionats amb els humans que construeixen la tecnologia, no amb aquesta tecnologia. És a dir, els biaixos, la falta d'ètica, la desinformació ja els tenim entre nosaltres i poden afectar decisions que estigui prenent ara vostè mateix. Per exemple, en algunes col·laboracions que estic fent en l'àmbit sanitari, les dades amb les quals "s'entrena" l'algoritme són principalment de països desenvolupats. Costa molt trobar reposadors consistents en altres països. Saben què pot passar amb els resultats? Que poden estar esbiaixats i pot no anticipar una malaltia en una altra raça o un altre entorn geogràfic/social.

Exactament igual amb els exemples ja existents de biaix racista en eines utilitzades per detectar potencials delinqüents en països com els EUA. La majoria eren negres.

I aquesta és la qüestió. Es necessiten dades per "ensenyar" la màquina. I la fiabilitat de les dades serà fonamental per tenir resultats efectius. També els qui construeixen els algoritmes tenen prejudicis o inclinacions. Fixin-se que la majoria dels empleats del sector tecnològic són homes. No representa el conjunt de la societat.

La setmana passada escoltava com un treballador d'un client em deia que estava fent servir GPT per dur a terme projectes. Si a internet tenim milions de dades errònies i fem servir aquesta eina per tirar endavant hipòtesis, quina fiabilitat podran tenir les conclusions a les quals arribem? I com podem detectar-ho si l'usuari mitjà no és capaç d'esbudellar els comandos de l'eina, només introduir variables de recerca?

"Ens enfrontem a una situació on els coneixements tecnològics reals de la població són escassos, i el pensament crític està en hores baixes"

En els últims 30 anys, des de l'auge d'internet i les eines digitals, la població s'ha convertit en usuària, però sense saber què hi ha darrere. La majoria no entén com es genera, com s'utilitzen les seves dades, ni quin impacte té en el nostre comportament. Hem vist com es pot polaritzar des de xarxes socials, influint en opinions o eleccions, per exemple. I ara tindrem situacions on la capacitat de discernir es veurà compromesa.

Ens enfrontem a una situació on els coneixements tecnològics reals de la població són escassos, i el pensament crític està en hores baixes. És urgent incentivar ambdues capacitats.

Perquè regulació ja existeix o està en tràmit en alguns països. La qüestió serà adaptar-la a l'evolució tan ràpida de la tecnologia i les seves repercussions. I en un context global, com es posa límit a alguns impactes negatius, si no hi ha una opinió unànime respecte a qüestions morals, ètiques o fins i tot la democràcia en alguns estats. Pensem quin criteri diferent respecte al seu ús podem tenir a la UE, als EUA o en països no democràtics com la Xina, Rússia o els del Golf.

Mentre que tenim polítics que ataquen Mercadona o Ferrovial, deixen que alguns líders tecnològics decideixin com es modela la societat, sense que ningú els voti. Principalment perquè molts líders electes són incapaços, com la majoria dels ciutadans, d'entendre què s'està desenvolupant. Com deia Arthur C. Clarke, "qualsevol tecnologia prou avançada és indistingible de la màgia".