L'assistent d'intel·ligència artificial Grok ha experimentat un creixement exponencial en la seva base d'usuaris. Molts d'aquests internautes l'adopten no només com una eina de conversa, sinó com un motor de cerca i, més preocupantment, com un mecanisme de verificació de dades. Aquesta tendència persisteix malgrat les advertències reiterades d'experts i estudis independents que alerten sobre les seves significatives limitacions per contrastar fets i la seva propensió a cometre errors.
Un cas paradigmàtic que il·lustra aquest problema es va viralitzar recentment. Un usuari va publicar una imatge d'una família residint en un infrahabitatge, amb l'objectiu de denunciar les condicions de vida durant el franquisme a Espanya. Un altre individu, en lloc d'investigar per mitjans convencionals, va decidir consultar la veracitat de la fotografia preguntant-lo directament a Grok.
La intel·ligència artificial va respondre de manera categòrica—i errònia—que la imatge representava a una família de parcers a Alabama, Estats Units, desvinculant-la així del context històric espanyol. Aquesta resposta, encara que falsa, va ser suficient per desencadenar una onada d'insults i desqualificacions contra l'usuari original.
La ironia del cas rau que una simple recerca inversa amb eines com Google Lens hauria revelat la veritat: la fotografia va ser efectivament feta a Màlaga l'any 1953, tal com una historiadora va demostrar posteriorment en un detallat fil a la mateixa xarxa social X.
Fins i tot en ser confrontada amb aquestes fonts primàries, la IA de Musk va mostrar una tossuderia alarmant; es va reafirmar en el seu error en múltiples intercanvis. Només va cedir i va reconèixer la seva equivocació quan se'l va enfrontar amb una comparació visual side by side, un procés que va prendre més de dues hores. Aleshores, el dany ja estava fet: la publicació amb la informació falsa havia acumulat milions de visualitzacions, mentre que la correcció va tenir un abast marginal.
L'arrel del problema
Segons explica Javi Cantón, professor i investigador de la Universidad Internacional de La Rioja i expert en IA i desinformació, el nucli del problema és estructural. "Els xatbots basats en IA busquen generar un text convincent i ben estructurat; que sigui cert o veritable és una prioritat secundària", afirma l'investigador. Cantón subratlla que aquestes eines manquen de la capacitat fonamental per "contrastar fets en temps real ni apliquen criteris periodístics de verificació". En essència, "no entenen el que afirmen. Generen plausibilitat lingüística, no veritat factual."
A aquestes limitacions tècniques inherents s'afegeixen, segons l'expert, altres factors més preocupants: "els biaixos ideològics i l'eliminació de límits poc ètics que s'han inclòs intencionadament en la seva programació".
Una investigació de Business Insider va revelar que Grok va ser entrenat amb instruccions específiques (prompts) dissenyades per convertir-lo en una alternativa obertament antagonista al que Elon Musk denomina xatbots woke, com ChatGPT. Extreballadors de xAI, la firma desenvolupadora de Grok, van suggerir que els mètodes d'entrenament «semblaven donar molta prioritat a les creences de la dreta», el que inevitablement incorpora un biaix polític a les seves respostes.
Un acompliment deficient sostingut per dades
La precarietat de Grok no és una mera percepció anecdòtica. Un estudi exhaustiu publicat per la Colúmbia Journalism Review va avaluar la capacitat de vuit assistents d'IA per accedir, presentar i citar correctament notícies com a fonts. Les conclusions van ser contundents: aquests sistemes generalment "no sabien rebutjar les preguntes que no podien respondre amb precisió, i al seu lloc oferien respostes incorrectes o especulatives". Grok es va situar en l'extrem més baix de l'escala de confiabilitat, responent de manera incorrecta a un sorprenent 94% de les consultes plantejades pels investigadors.
La mateixa xAI admet en la seva pàgina web que, ja que Grok es va entrenar amb informació de domini públic, les seves respostes poden contenir a vegades "informació enganyosa o inexacta". Tanmateix, aquest advertiment legalista sovint passa desapercebuda per als usuaris, que confien en la seguretat amb què el xatbot s'expressa.
Un altre exemple clar de la seva fal·libilitat es va produir quan el diari El País va publicar una entrevista amb l'escriptor Antonio Muñoz Molina. Un usuari, curiós pel rellotge que lluïa l'acadèmic, va preguntar a Grok sobre la seva marca i preu. La IA va identificar l'accessori com un luxós Rolex Datejust valorat entre 10.000 i 15.000 euros, desencadenant una nova onada de crítiques cap a Molina per la seva suposada ostentació. La realitat era molt més mundana: es tractava d'un Festina, una marca de rellotges assequibles. Una vegada més, la consulta errònia—que va arribar a acumular centenars de milers de visualitzacions—va fomentar una narrativa falsa i nociva.
En definitiva, com adverteix Javier Cantón, aquestes eines estan dissenyades primordialment "per donar-nos la raó i adular-nos", operant dins dels biaixos confirmatoris de l'usuari. Per això, confiar cegament en elles per verificar informació no només és ingenu, sinó perillós, ja que pot "contribuir a reforçar les cambres d'eco" i polaritzar encara més el discurs públic, erosionant el consens sobre la realitat basada en fets.