El asistente de inteligencia artificial Grok ha experimentado un crecimiento exponencial en su base de usuarios. Muchos de estos internautas lo adoptan no solo como una herramienta de conversación, sino como un motor de búsqueda y, más preocupantemente, como un mecanismo de verificación de datos. Esta tendencia persiste a pesar de las advertencias reiteradas de expertos y estudios independientes que alertan sobre sus significativas limitaciones para contrastar hechos y su propensión a cometer errores.
Un caso paradigmático que ilustra este problema se viralizó recientemente. Un usuario publicó una imagen de una familia residiendo en una infravivienda, con el objetivo de denunciar las condiciones de vida durante el franquismo en España. Otro individuo, en lugar de investigar por medios convencionales, decidió consultar la veracidad de la fotografía preguntándole directamente a Grok.
La inteligencia artificial respondió de manera categórica—y errónea—que la imagen representaba a una familia de aparceros en Alabama, Estados Unidos, desvinculándola así del contexto histórico español. Esta respuesta, aunque falsa, fue suficiente para desatar una ola de insultos y descalificaciones contra el usuario original.
La ironía del caso radica en que una simple búsqueda inversa con herramientas como Google Lens habría revelado la verdad: la fotografía fue efectivamente tomada en Málaga en el año 1953, tal y como una historiadora demostró posteriormente en un detallado hilo en la misma red social X.
Incluso al ser confrontada con estas fuentes primarias, la IA de Musk mostró una terquedad alarmante; se reafirmó en su error en múltiples intercambios. Solo cedió y reconoció su equivocación cuando se le enfrentó con una comparación visual side by side, un proceso que tomó más de dos horas. Para entonces, el daño ya estaba hecho: la publicación con la información falsa había acumulado millones de visualizaciones, mientras que la corrección tuvo un alcance marginal.
La raíz del problema
Según explica Javi Cantón, profesor e investigador de la Universidad Internacional de La Rioja y experto en IA y desinformación, el núcleo del problema es estructural. “Los chatbots basados en IA buscan generar un texto convincente y bien estructurado; que sea cierto o verdadero es una prioridad secundaria”, afirma el investigador. Cantón subraya que estas herramientas carecen de la capacidad fundamental para “contrastar hechos en tiempo real ni aplican criterios periodísticos de verificación”. En esencia, “no entienden lo que afirman. Generan plausibilidad lingüística, no verdad factual”.
A estas limitaciones técnicas inherentes se suman, según el experto, otros factores más preocupantes: “los sesgos ideológicos y la eliminación de límites poco éticos que se han incluido intencionadamente en su programación”.
Una investigación de Business Insider reveló que Grok fue entrenado con instrucciones específicas (prompts) diseñadas para convertirlo en una alternativa abiertamente antagonista a lo que Elon Musk denomina chatbots woke, como ChatGPT. Extrabajadores de xAI, la firma desarrolladora de Grok, sugirieron que los métodos de entrenamiento «parecían dar mucha prioridad a las creencias de la derecha», lo que inevitablemente incorpora un sesgo político a sus respuestas.
Un desempeño deficiente respaldado por datos
La precariedad de Grok no es una mera percepción anecdótica. Un estudio exhaustivo publicado por la Columbia Journalism Review evaluó la capacidad de ocho asistentes de IA para acceder, presentar y citar correctamente noticias como fuentes. Las conclusiones fueron contundentes: estos sistemas generalmente “no sabían rechazar las preguntas que no podían responder con precisión, y en su lugar ofrecían respuestas incorrectas o especulativas”. Grok se situó en el extremo más bajo de la escala de confiabilidad, respondiendo de manera incorrecta a un asombroso 94% de las consultas planteadas por los investigadores.
La propia xAI admite en su página web que, dado que Grok se entrenó con información de dominio público, sus respuestas pueden contener en ocasiones "información engañosa o inexacta". Sin embargo, esta advertencia legalista a menudo pasa desapercibida para los usuarios, que confían en la seguridad con la que el chatbot se expresa.
Otro ejemplo claro de su falibilidad ocurrió cuando el diario El País publicó una entrevista con el escritor Antonio Muñoz Molina. Un usuario, curioso por el reloj que lucía el académico, preguntó a Grok sobre su marca y precio. La IA identificó el accesorio como un lujoso Rolex Datejust valorado entre 10.000 y 15.000 euros, desatando una nueva oleada de críticas hacia Molina por su supuesta ostentación. La realidad era mucho más mundana: se trataba de un Festina, una marca de relojes asequibles. Una vez más, la consulta errónea—que llegó a acumular cientos de miles de visualizaciones—fomentó una narrativa falsa y dañina.
En definitiva, como advierte Javier Cantón, estas herramientas están diseñadas primordialmente “para darnos la razón y adularnos”, operando dentro de los sesgos confirmatorios del usuario. Por ello, confiar ciegamente en ellas para verificar información no solo es ingenuo, sino peligroso, ya que puede “contribuir a reforzar las cámaras de eco” y polarizar aún más el discurso público, erosionando el consenso sobre la realidad basada en hechos.