Imaginemos por un momento que alguien entra a una habitación y ve que hay un charco de agua en el piso, y cerca, una maceta caída. Sin pensarlo mucho, concluye: la maceta se cayó y derramó el agua. Tiene sentido, pero ¿y si el agua vino de una cañería rota, y la maceta se cayó después, al resbalar alguien? Esta es la diferencia entre ver que dos cosas ocurren juntas —correlación— y entender por qué una ocurrió —causalidad. La mayoría de las personas no distingue entre ambas, y ese error se multiplica cuando usamos herramientas como los modelos de lenguaje, o LLMs, que están entrenados para imitar el lenguaje humano, pero no para comprender causas.

Los LLMs funcionan como autocompletadores de frases. Les damos una oración, y predicen la palabra que probablemente sigue. Aprenden esto tras leer billones de palabras en internet, libros, artículos. Si muchas veces ven que “fumar causa cáncer” aparece en los textos, aprenden a decir eso. Pero no saben por qué fumar causa cáncer. No entienden ni lo que es fumar ni lo que es cáncer. Solo repiten lo que más frecuentemente han leído que viene después de “fumar”. Y como la mayoría de los humanos también confunde correlación con causa, el modelo termina reflejando ese mismo error. Si en muchos textos alguien dice que “dormir mal causa pobreza”, el modelo puede empezar a decir eso también, aunque no haya ninguna prueba de que esa relación sea causal.

Esto tiene una consecuencia profunda. Cuando usamos un modelo como ChatGPT para responder preguntas, puede darnos respuestas que suenan convincentes, pero que en realidad son ecos de patrones comunes, no razonamientos lógicos. No puede preguntarse “¿qué pasaría si esto no ocurriera?”, ni hacer experimentos mentales del tipo “supongamos que quitamos esta causa, ¿desaparece el efecto?”. No puede hacer lo que hacemos los humanos cuando intentamos descubrir una justificación: intervenir, probar, comparar. Solo puede completar frases. En eso es brillante, pero no sale de ahí.

La IA repite patrones, no entiende causas. Y sin causas no hay avance, no hay ciencia, no hay diagnóstico, no hay prevención. Solo hay ecos

El problema se agrava porque nuestra mente, como explicó hace siglos el filósofo David Hume, tiende naturalmente a confundir que algo ocurra muchas veces junto con otra cosa con que una cosa cause la otra. Si siempre que llueve alguien abre el paraguas, terminamos creyendo que abrir el paraguas trae lluvia. Sabemos que no es así, pero muchas veces actuamos como si lo fuera. Y ahora hemos creado una máquina que funciona exactamente igual. Repite patrones, no entiende causas. Y sin causas no hay avance, no hay ciencia, no hay diagnóstico, no hay prevención. Solo hay ecos.

Usar LLMs sin entender esto es como confiar en un loro muy entrenado para que nos dé consejos médicos o legales. Puede sonar experto, pero no tiene idea. Si no entendemos esta diferencia entre correlación y causalidad, corremos el riesgo de que el loro nos guíe al abismo, y encima lo aplaudamos porque habla bien.

Las cosas como son.