En una troballa que genera un enorme dubte sobre la fiabilitat de la intel·ligència artificial com a font d'informació, la investigació independent més gran feta fins ara conclou que els principals assistents d'IA tergiversen de manera habitual i sistèmica el contingut de les notícies.

L'estudi, encapçalat per la European Broadcasting Union (EBU) i la BBC, no deixa lloc a dubtes: el problema és estructural, transcultural i multilingüe, i representa una amenaça directa per a la integritat de l'ecosistema informatiu i la confiança pública.

La magnitud d'aquest treball, considerat com la segona fase d'una investigació iniciada per la BBC al febrer, és el que li confereix una autoritat incontestable.

No es tracta d'una anàlisi aïllada, sinó d'un esforç col·laboratiu que ha reunit 22 mitjans de servei públic de 18 països diferents, operant en 14 idiomes diferents. Aquest enfocament global va permetre als investigadors descartar des del principi que els errors estiguessin vinculats a un territori, una llengua o una plataforma concreta.

Un equip de periodistes professionals va sotmetre els quatre assistents d'IA més populars (ChatGPT, Copilot, Gemini i Perplexity) a un escrutini meticulós.

El procés va consistir a analitzar més de 3.000 respostes generades per aquests sistemes, avaluant-les amb una rigorosa bateria de criteris periodístics: precisió factual, atribució i qualitat de les fonts, capacitat per a distingir entre fets i opinions, i la provisió d'un context suficient per a una comprensió completa de la notícia.

Dels errors innocents a la desinformació estructurada

Els resultats, detallats a l'informe, pinten un panorama preocupant sobre la maduresa actual d'aquestes tecnologies per gestionar informació noticiosa.

  • Un problema generalitzat: Gairebé la meitat de les respostes analitzades, un 45%, van presentar almenys un "problema significatiu". Això indica que l'error no és una anomalia, sinó una característica recurrent en el funcionament d'aquests models.
  • La crisi de les fonts: Un dels errors més greus es troba en la gestió de les fonts. Un 31% de les respostes van mostrar serioses deficiències, que van des de la manca total d'atribucions (presentant informació com si fos pròpia) fins a l'atribució enganyosa (citant un mitjà que no ha tractat la notícia) o directament incorrecta (enllaçant a fonts que no existeixen o no contenen la informació afirmada).
  • Precisió en dubte: Un 20% dels continguts generats patien problemes importants d'exactitud. Aquí és on emergeixen les temudes "al·lucinacions" de la IA: la invenció de detalls, dates, cites o esdeveniments que mai no van ocórrer. Juntament amb això, la informació desactualitzada era un altre error comú, i mostrava la dificultat d'aquests sistemes per mantenir-se al dia amb l'actualitat en temps real.
  • Gemini, l'assistent amb pitjor rendiment: De totes les eines avaluades, Gemini, de Google, va ser la que va mostrar un rendiment més deficient, amb problemes significatius en un alarmant 76% de les seves respostes. Aquest percentatge, més del doble que el dels seus competidors, s'atribueix en gran manera a la seva pèssima gestió de les fonts, un pilar fonamental del periodisme.

Més enllà d'un error tècnic

Els responsables de l'estudi transcendeixen la mera descripció tècnica dels errors i alerten sobre les seves profundes conseqüències socials i democràtiques. Aquesta "distorsió" massiva de la realitat informativa és especialment crítica en un moment en què, com assenyala l'informe, "els assistents d'IA ja estan reemplaçant els motors de cerca per a molts usuaris".

A diferència d'un cercador, que ofereix una llista d'enllaços perquè l'usuari jutgi la procedència, la IA sintetitza i respon amb una autoritat que emmascara les seves freqüents imprecisions, creant una il·lusió de veracitat que pot ser profundament enganyosa.

Davant d'aquests resultats, el to des de la BBC és de cautelós optimisme i crida a la col·laboració. Com a part del seu compromís per solucionar aquests problemes, l'equip d'investigació ha publicat el Kit d'eines per a la integritat informativa en assistents d'IA.

Aquest document pràctic busca establir un marc comú per desenvolupar solucions, definint tant les característiques d'una resposta d'IA fiable com els problemes específics que han de ser erradicats.

Paral·lelament, els membres de la EBU estan intensificant la seva tasca d'incidència política, pressionant la Unió Europea i els reguladors nacionals perquè facin complir amb rigor la legislació existent en matèria d'integritat de la informació, serveis digitals i pluralisme dels mitjans de comunicació.

El missatge és clar: l'autoregulació de les big tech no és suficient, i la fiabilitat de la informació que consumeixen els ciutadans és un bé públic massa valuós per deixar-lo en mans d'algoritmes els biaixos i errors dels quals encara no s'han corregit. L'era de la IA exigeix, ara més que mai, un nou pacte per la veracitat.