En un hallazgo que arroja una enorme duda sobre la fiabilidad de la inteligencia artificial como fuente de información, la mayor investigación independiente realizada hasta la fecha concluye que los principales asistentes de IA tergiversan de manera habitual y sistémica el contenido de las noticias.
El estudio, encabezado por la European Broadcasting Union (EBU) y la BBC, no deja lugar a dudas: el problema es estructural, transcultural y multilingüe, y representa una amenaza directa para la integridad del ecosistema informativo y la confianza pública.
La magnitud de este trabajo, considerado como la segunda fase de una investigación iniciada por la BBC en febrero, es lo que le confiere una autoridad incontestable.
No se trata de un análisis aislado, sino de un esfuerzo colaborativo que ha reunido a 22 medios de servicio público de 18 países distintos, operando en 14 idiomas diferentes. Este enfoque global permitió a los investigadores descartar desde el principio que los fallos estuvieran vinculados a un territorio, una lengua o una plataforma concreta.
Un equipo de periodistas profesionales sometió a los cuatro asistentes de IA más populares (ChatGPT, Copilot, Gemini y Perplexity) a un escrutinio meticuloso.
El proceso consistió en analizar más de 3.000 respuestas generadas por estos sistemas, evaluándolas con una rigurosa batería de criterios periodísticos: precisión factual, atribución y calidad de las fuentes, capacidad para distinguir entre hechos y opiniones, y la provisión de un contexto suficiente para una comprensión completa de la noticia.
De los errores inocentes a la desinformación estructurada
Los resultados, detallados en el informe, pintan un panorama preocupante sobre la madurez actual de estas tecnologías para gestionar información noticiosa.
- Un problema generalizado: Casi la mitad de las respuestas analizadas, un 45%, presentaron al menos un "problema significativo". Esto indica que el error no es una anomalía, sino una característica recurrente en el funcionamiento de estos modelos.
- La crisis de las fuentes: Uno de los fallos más graves se encuentra en el manejo de las fuentes. Un 31% de las respuestas mostraron serias deficiencias, que van desde la falta total de atribuciones (presentando información como si fuera propia) hasta la atribución engañosa (citando un medio que no ha tratado la noticia) o directamente incorrecta (enlazando a fuentes que no existen o no contienen la información afirmada).
- Precisión en entredicho: Un 20% de los contenidos generados adolecían de importantes problemas de exactitud. Aquí es donde emergen las temidas "alucinaciones" de la IA: la invención de detalles, fechas, citas o eventos que nunca ocurrieron. Junto a esto, la información desactualizada era otro fallo común, mostrando la dificultad de estos sistemas para mantenerse al día con la actualidad en tiempo real.
- Gemini, el asistente con peor desempeño: De todas las herramientas evaluadas, Gemini, de Google, fue la que mostró un rendimiento más deficiente, con problemas significativos en un alarmante 76% de sus respuestas. Este porcentaje, más del doble que el de sus competidores, se atribuye en gran medida a su pésima gestión de las fuentes, un pilar fundamental del periodismo.
Más allá de un error técnico
Los responsables del estudio trascienden la mera descripción técnica de los fallos y alertan sobre sus profundas consecuencias sociales y democráticas. Esta "distorsión" masiva de la realidad noticiosa es especialmente crítica en un momento en que, como señala el informe, "los asistentes de IA ya están reemplazando a los motores de búsqueda para muchos usuarios".
A diferencia de un buscador, que ofrece una lista de enlaces para que el usuario juzgue la procedencia, la IA sintetiza y responde con una autoridad que enmascara sus frecuentes imprecisiones, creando una ilusión de veracidad que puede ser profundamente engañosa.
Frente a estos resultados, el tono desde la BBC es de cauteloso optimismo y llamado a la colaboración. Como parte de su compromiso para solucionar estos problemas, el equipo de investigación ha publicado el Kit de Herramientas para la Integridad Noticiosa en Asistentes de IA.
Este documento práctico busca establecer un marco común para desarrollar soluciones, definiendo tanto las características de una respuesta de IA fiable como los problemas específicos que deben ser erradicados.
Paralelamente, los miembros de la EBU están intensificando su labor de incidencia política, presionando a la Unión Europea y a los reguladores nacionales para que hagan cumplir con rigor la legislación existente en materia de integridad de la información, servicios digitales y pluralismo de los medios de comunicación.
El mensaje es claro: la autorregulación de las big tech no es suficiente, y la fiabilidad de la información que consumen los ciudadanos es un bien público demasiado valioso como para dejarlo en manos de algoritmos cuyos sesgos y errores aún no han sido corregidos. La era de la IA exige, ahora más que nunca, un nuevo pacto por la veracidad.