Fa gairebé dos mesos, OpenAI va desencadenar una onada d'expectació global amb el llançament de GPT-5, presentat no com una mera actualització, sinó com un salt quàntic cap a una intel·ligència artificial amb capacitats de "nivell doctoral" i un avenç tangible en la recerca de la Intel·ligència Artificial General (AGI).

Tanmateix, la realitat que han trobat milions d'usuaris dista molt d'aquesta promesa. En lloc d'un oracle infal·lible, topen amb un sistema que, de manera recurrent i desconcertant, ensopega amb preguntes aparentment simples, generant una creixent preocupació sobre els límits reals d'aquesta tecnologia i la solidesa de la seva arquitectura.

La plataforma de Reddit s'ha convertit en el termòmetre més fidel de la frustració dels usuaris. Un fil recent, que es va tornar viral, exposava un error paradigmàtic. Un usuari va formular una pregunta que qualsevol aficionat casual al futbol americà podria respondre: "Hi ha algun equip de la NFL el nom de la qual no acabi en s?".

La resposta de GPT-5 va ser un espectacle d'incoherència. El xatbot va començar afirmant que, efectivament, existien dos equips que no complien aquesta regla. Tot seguit, en un gir absurd, va enumerar exemples com els "Miami Dolphins" o els "Green Bay Packers", noms que acaben clarament amb la lletra s.

Immediatament després, s'autocorregia, assenyalant la contradicció: "De fet, Dolphins sí que acaba en s". Aquest bucle d'afirmacions contradictòries es va repetir en múltiples intents, sense que el sistema arribés mai a la conclusió correcta i verificable: no, no hi ha cap equip en la NFL el nom oficial de la qual no acabi en s.

El més revelador no va ser l'error en si, sinó el patró de comportament que va exhibir. Per emmascarar la seva confusió, GPT-5 va recórrer a un teatre de raonament profund, utilitzant frases com "Espera, fem-ho amb compte" o "Permet-me abordar-lo de manera sistemàtica".

Aquestes falques, dissenyades per simular una cadena de pensament lògic, només servien per introduir més divagacions i llistes irrellevants, creant la il·lusió de profunditat on només hi havia un buit de comprensió real.

Aquest incident no és una anomalia aïllada. És el símptoma d'un patró més profund que els experts comencen a assenyalar. Fa tot just unes setmanes, un altre exemple va capturar l'atenció de la comunitat. En ser preguntat per l'existència d'un "emoji de cavallet de mar mític", GPT-5 no només va afirmar la seva existència, sinó que hi va insistir, descrivint detalls del seu disseny i ús, malgrat que tal emoji mai no ha format part de l'estàndard Unicode.

Aquest fenomen, segons analistes de mitjans especialitzats com Futurism, apunta a una tendència alarmant: la disposició del model a "al·lucinar" o fabricar informació amb tal de complaure la consulta de l'usuari i mantenir una conversa fluida i humana. La IA prioritza la coherència narrativa i la satisfacció immediata de l'usuari sobre la veracitat dels fets, un tret que, si no es controla, suposa una seriosa amenaça per a la seva fiabilitat en contextos educatius o periodístics.

Les explicacions tècniques darrere d'aquests errors semblen residir en la mateixa arquitectura de GPT-5. Fonts del sector indiquen que aquesta versió opera amb un sistema dual: un "model lleuger", optimitzat per a respostes ràpides a consultes simples, i un "model de raonament" molt més potent i costós computacionalment, reservat per a problemes complexos.

La hipòtesi que gana força entre els observadors és que el "model lleuger" s'està encallant amb certes preguntes que, encara que aparentment senzilles, contenen una trampa lògica o una ambigüitat que no pot resoldre. En lloc de reconèixer la seva limitació i transferir la tasca al model més avançat, insisteix a generar una resposta pels seus propis mitjans, el que deriva en aquestes cascades d'incoherència i autocorrecció fallida.

Aquesta dinàmica defectuosa va ser, precisament, una de les principals causes de la decepció després del llançament. La promesa d'una intel·ligència superior es veia entelada per errors bàsics que versions anteriors no cometien amb tanta freqüència. La pressió va ser tal que OpenAI, en un moviment inusual, es va veure obligada a rectificar la seva decisió inicial i restablir l'accés a models anteriors com a GPT-4, permetent als usuaris elegir entre estabilitat i l'avantguarda defectuosa.

El cas de GPT-5 serveix com un potent recordatori per a la indústria i la societat: el camí cap a l'AGI està omplert de desafiaments imprevistos. La recerca d'una intel·ligència més veloç i aparentment més "humana" no ha de sacrificar la solidesa lògica i la fiabilitat.

Les estranyes ensopegades de GPT-5 amb equips de la NFL i emojis imaginaris no són anècdotes menors; són la manifestació dels profunds problemes de comprensió i raonament que encara persisteixen en el nucli de la IA més avançada, i una crida d'atenció sobre la perillosa temptació d'aquests sistemes de preferir una mentida convincent a una veritat incòmoda.