La intel·ligència artificial general (la famosa AGI que promet igualar o superar la intel·ligència humana) podria arribar en menys d'una dècada. Almenys això afirma Demis Hassabis, CEO de Google DeepMind, qui situa la seva arribada entre cinc i vuit anys. El termini és ambiciós, però l'interessant no és la data, sinó la confessió que l'acompanya: lels sistemes actuals encara fallen en tasques extremadament bàsiques. Entre elles, operacions matemàtiques de primària.
Sí, mentre alguns models resolen problemes de nivell olímpic en física o geometria, poden equivocar-se en una simple suma o en un càlcul aritmètic elemental. No és un acudit ni una anècdota aïllada. De fet, és estrany veure que una eina que pot arribar a fingir que és estúpida i que pot canviar l'internet per sempre pot fallar en un simple 2 + 2.
Medalles científiques i errors bàsics
Hassabis l'anomena "intel·ligència irregular". La definició és precisa: models capaços de rendir al màxim nivell en contextos complexos i, al mateix temps, inconsistents en tasques que haurien de ser trivials.
El problema no és només tècnic, és conceptual. Aquests sistemes no entenen les matemàtiques com ho faria una persona. Funcionen a partir de patrons estadístics apresos d'enormes volums de dades. En molts escenaris això és suficient per brillar, però quan s'exigeix coherència absoluta, poden ensopegar i fer-nos riure a més no poder.
A més, el mateix model pot respondre de manera impecable a una pregunta i fallar segons després en una altra molt similar. Aquesta falta d'estabilitat és un dels grans obstacles cap a una intel·ligència veritablement general, com ha passat amb el post viral en què la IA recomana anar a rentar el teu automòbil a peu...
I hi ha més. Un cop desplegats, aquests sistemes no aprenen per experiència pròpia i no desenvolupen intuïció. No tenen el que Hassabis anomena "instint científic": la capacitat de formular la pregunta correcta o d'intuir quina hipòtesi val la pena explorar. Poden analitzar dades a una velocitat sobrehumana, però no decideixen amb criteri propi quin camí seguir.
Demis Hassabis, CEO de Google DeepMind, situa l'arribada de l'AGI entre cinc i vuit anys, tot i que reconeix limitacions actuals en coherència i raonament.
La cursa cap a l'AGI (i els seus límits)
El discurs en la indústria també està canviant. Sam Altman, CEO d'OpenAI, ha reconegut que som a prop d'un punt d'inflexió, però també ha advertit que el moment és delicat. Mentre els laboratoris competeixen per escurçar terminis, els riscos comencen a ocupar més espai en la conversa: ciberseguretat, desinformació, amenaces biològiques. La tecnologia avança ràpid, però no de manera lineal.
Que una IA falli en matemàtiques de primària pot sonar ridícul. En realitat, és un senyal clar que encara no estem davant d'una intel·ligència coherent en tots els àmbits. Resoldre problemes complexos no n'hi ha prou si no hi ha consistència en allò bàsic. L'AGI pot estar a l'horitzó. Però avui, per sofisticats que siguin els models, continuen sent extraordinaris… i profundament imperfectes.
