Fa poc més d’una setmana, Jensen Huang, el fundador i director general de la tecnològica Nvidia, afirmava durant una entrevista que li semblava que "ara vivim el moment precís d’assoliment de la AGI", un acrònim que fa referència a l'Artificial General Intelligence o intel·ligència artificial general. Aquest terme està àmpliament acceptat per referir-se al llindar intel·lectual entre humans i màquines: el moment en el qual podríem considerar que, en conjunt, les màquines són més intel·ligents que els humans en un ventall de disciplines transversal. En un sentit vertical ja és així des de fa molts anys: fa dècades que s’han anat superant fites on una màquina ha superat al millor humà: als escacs, a determinats càlculs matemàtics... però no és fins ara quan es comença a debatre si la frontera s’ha creuat en el sentit ampli.

Per a intentar objectivar-ho, partim de la realitat que els humans tenim un coeficient intel·lectual que segueix una distribució normal (és a dir, una campana de Gauss, simètrica) centrada als 100 punts, de tal manera que el 96% de la població té un coeficient intel·lectual d’entre 70 i 130. L’institut noruec Mensa ha desenvolupat i perfeccionat una metodologia per mesurar el coeficient intel·lectual de les intel·ligències artificials en termes equivalents al dels humans. Justament ara, el conjunt dels models analitzat –vint-i-cinc, concretament– se situen, en forma de campana de Gauss, entre els 70 i 130. És a dir, certament encara hi ha molts models menys intel·ligents que els humans més intel·ligents, però també models més intel·ligents que els humans menys intel·ligents. I, en terme mitjà, la distribució d’intel·ligència dels models reflecteix la mateixa que la població humana.

Aquesta és la clau que porta Jensen Huang a afirmar que el moment és ara. És a dir, no ha estat abans, en la mesura que no havíem vist fa un any o fa dos anys, que els models d’intel·ligència generativa se situessin sobre la mateixa mitjana i amb les mateixes desviacions a extrems superior i inferior que els tests d’intel·ligència humans. Tampoc ho veurem d'aquí a un any o dos: fins ara, la trajectòria dels models ha estat clarament ascendent, de tal manera que extrapolant aquest comportament podríem dir que qualsevol model futur serà més intel·ligent que els actuals. Així doncs, el moment actual pot ser històric: és l’any en què humans i màquines creuen la trajectòria.

Quan una tendència disruptiva afecta el conjunt de la productivitat, no es pot resoldre cas a cas: cal parlar de com abordar-ho com repte de tota la societat

El mitjà nord-americà especialitzat en economia i empresa Fortune publicava també la setmana passada una filtració de l’empresa Anthropic. Sembla que es tractava d’un repositori de documents intern on la companyia discutia de forma col·laborativa entre els membres de l’equip directiu i els professionals de comunicació el contingut dels seus anuncis públics i notes de premsa. I precisament estaven comentant-hi els termes amb els quals fer públic el que internament tenia el nom de ‘projecte Capibara’, externament Mythos: un esglaó de models addicional, per sobre de les seves divisions Haiku (baix cost, baixa complexitat), Sonnet (cost mitjà, complexitat mitjana) i Opus (alt cost, alta complexitat). Per tant, no parlem de la nova versió d’Opus sinó d’una nova categoria de models. Anteriorment, quan han aparegut noves categories de models ha estat els moments temporals on no es parlava de millores iteratives ni d'eficiència més alta sinó de poder abordar reptes que fins ara no eren abordables.

Considerant que les fronteres superiors d’Opus són francament impressionants (podríem argumentar que la seva eficiència energètica és el punt feble, però en tot cas no hi ha gaire dubtes sobre la capacitat de raonament del model), la qüestió es pot tornar seriosa. I s’hi torna més un cop analitzat el contingut de les converses d’Anthropic filtrades, que versaven sobretot entorn de com fer front als riscos de ciberseguretat del model, és a dir, com garantir que la seva inexplorada capacitat de programació no es farà servir amb fins perversos. Si bé la majoria dels sistemes poden ja avui detectar una intencionalitat negativa, el cas és que hi ha qüestions que es poden plantejar amb un pretext que convenci el model a resoldre el problema i, un cop es disposa de la solució, aplicar-la per a un objectiu ben diferent.

El més fascinant de tot plegat és com s’està creant una bretxa enorme entre el que podem llegir a algunes capçaleres com Fortune i el nostre entorn diari. Estem parlant de com gestionar riscos davant de la imminent aparició de models d’intel·ligència artificial que superen la humana de mitjana. Parlem d’acomiadaments rellevants a grans empreses, però també a petites, de casa nostra –Parlem ho va deixar entreveure la setmana passada. I no és oportú demonitzar als empresaris en aquesta ocasió: l’empresari que no va adoptar la màquina de vapor per preservar llocs de treball va ser el que més llocs de treball va acabar destruint, i passarà el mateix. Quan una tendència disruptiva afecta el conjunt de la productivitat, no es pot resoldre cas a cas: cal parlar de com abordar-ho com repte del conjunt de la societat. Els sindicats no en parlen, encara. Tampoc sembla que sigui una preocupació política important. És un elefant a la sala, és a dir, en realitat tothom sap que estem assistint a un moment de canvi majúscul i senzillament anem fent com si res perquè no sabem exactament què fer, o és que la profunditat del debat no ha arribat a alguns sectors del nostre entorn?