Correlació no és causalitat: el vell error que la intel·ligència artificial repeteix

- Mookie Tenembaum
- Tòquio. Divendres, 12 de setembre de 2025. 05:30
- Temps de lectura: 2 minuts
Imaginem per un moment que algú entra en una habitació i veu que hi ha un bassal d’aigua a terra, i a prop, un test caigut. Sense pensar-hi gaire, conclou: el test ha caigut i ha vessat l’aigua. Té sentit, però, i si l’aigua vingués d’una canonada trencada i el test hagués caigut després, en relliscar algú? Aquesta és la diferència entre veure que dues coses passen juntes —correlació— i entendre per què una va passar —causalitat. La majoria de les persones no distingeix entre ambdues, i aquest error es multiplica quan fem servir eines com els models de llenguatge, o LLMs, que estan entrenats per imitar el llenguatge humà, però no per comprendre causes.
Els LLMs funcionen com a autocompletadors de frases. Els donem una oració, i prediuen la paraula que probablement ve després. Això ho aprenen després de llegir bilions de paraules a internet, llibres, articles. Si moltes vegades veuen que “fumar causa càncer” apareix als textos, aprenen a dir-ho. Però no saben per què fumar causa càncer. No entenen ni què és fumar ni què és el càncer. Només repeteixen el que més freqüentment han llegit que apareix després de “fumar”. I com que la majoria dels humans també confon correlació amb causa, el model acaba reflectint aquest mateix error. Si en molts textos algú diu que “dormir malament causa pobresa”, el model pot començar a dir-ho també, encara que no hi hagi cap prova que aquesta relació sigui causal.
Això té una conseqüència profunda. Quan fem servir un model com ChatGPT per respondre preguntes, pot donar-nos respostes que sonin convincents, però que en realitat són ecos de patrons comuns, no raonaments lògics. No pot preguntar-se “què passaria si això no passés?”, ni fer experiments mentals del tipus “suposem que traiem aquesta causa, desapareix l’efecte?”. No pot fer el que fem els humans quan intentem descobrir una justificació: intervenir, provar, comparar. Només pot completar frases. En això és brillant, però no surt d’aquí.
La IA repeteix patrons, no entén causes. I sense causes no hi ha avenç, no hi ha ciència, no hi ha diagnòstic, no hi ha prevenció. Només hi ha ecos
El problema s’agreuja perquè la nostra ment, com va explicar fa segles el filòsof David Hume, tendeix naturalment a confondre que alguna cosa passi moltes vegades juntament amb una altra amb què una cosa causi l’altra. Si sempre que plou algú obre el paraigua, acabem creient que obrir el paraigua porta la pluja. Sabem que no és així, però moltes vegades actuem com si ho fos. I ara hem creat una màquina que funciona exactament igual. Repeteix patrons, no entén causes. I sense causes no hi ha avenç, no hi ha ciència, no hi ha diagnòstic, no hi ha prevenció. Només hi ha ecos.
Fer servir LLMs sense entendre això és com confiar en un lloro molt entrenat perquè ens doni consells mèdics o legals. Pot sonar expert, però no en té ni idea. Si no entenem aquesta diferència entre correlació i causalitat, correm el risc que el lloro ens guiï cap a l’abisme, i a sobre l’aplaudim perquè parla bé.
Les coses com són.