L'estadística invisible: per què ningú aplaudeix l'algoritme que li salva la vida
- Mookie Tenembaum
- Buenos Aires. Divendres, 13 de febrer de 2026. 05:30
- Temps de lectura: 2 minuts
Vivim en una era dominada pel soroll de la catàstrofe. Si un chatbot, en una al·lucinació estranya, suggereix a una persona cometre un acte imprudent, la notícia recorrerà el món en minuts. Els titulars cridaran sobre els “perills de la intel·ligència artificial”. Tanmateix, ningú escriu un titular sobre allò que no va ocórrer. No hi ha notícies que diguin: “Avui, Joan Pérez no va acabar a la sala d’urgències perquè la seva intel·ligència artificial (IA) li va advertir que no barregés lleixiu amb amoníac”.
Aquest és el problema fonamental de la percepció del risc, perquè la prevenció és silenciosa, és un “no-esdeveniment”. Estem davant d'una paradoxa contrafàctica massiva. Per entendre el valor de la seguretat, necessitem veure l'accident; però si la seguretat funciona, l'accident mai no ocorre. És la síndrome de l'operari de la xarxa elèctrica: si fa la seva feina a la perfecció i la xarxa mai cau, és invisible. Ningú li dona una medalla per la normalitat. Però si la xarxa col·lapsa i ell la repara sota una tempesta, es converteix en heroi. La nostra cultura premia la correcció del desastre, no la seva prevenció.
Avui, els grans models de llenguatge o LLMs, per la seva sigla en anglès, actuen com aquesta infraestructura de prevenció invisible, una “profilaxi cognitiva” que opera les 24 hores. Milions de persones utilitzen aquestes eines com una segona opinió objectiva en moments de dubte crític. Pensem en l’àmbit domèstic i mèdic, on l’error humà és estadísticament letal.
Un usuari, confós per la medicació, pregunta si pot prendre un antiinflamatori comú juntament amb el seu anticoagulant receptat. La IA, entrenada amb biblioteques mèdiques, llança una advertència immediata sobre el risc d'hemorràgia i l'usuari deixa la pastilla a la taula. Aquest acte minúscul acaba de salvar una vida o evitar una hospitalització greu. Però aquesta dada no queda registrada enlloc. No hi ha un “comptador de morts evitades” a la interfície del xat. Simplement, la vida continua. El mateix passa a la cuina o al taller quan l'advertència sobre temperatures, pressions o reaccions químiques actua com un fre de mà davant la ignorància momentània o el descuit.
Els grans models de llenguatge, LLMs, actuen com aquesta infraestructura de prevenció invisible, una “profilaxi cognitiva” que opera les 24 hores
Tanmateix, perquè aquest sistema de seguretat funcioni, la confiança és la moneda de canvi. I aquí és on la indústria afronta un risc autoinfligit amb la censura excessiva. En un intent desesperat per evitar la “mala premsa”, molts models estan castrats digitalment. Si un escriptor de novel·les policíaques pregunta “quina és la dosi letal d'arsènic?” per documentar la seva trama, i el model es nega a respondre citant polítiques de seguretat, es trenca la utilitat de l'eina.
El perill real no és que la IA respongui; el perill és que, en trobar una porta tancada per una censura puritana, l'usuari migri cap a models “sense censura” en els racons foscos de la web. Aquests models alternatius no tenen filtres ètics ni advertències de seguretat química o mèdica; poden tenir biaixos ideològics terribles o donar instruccions veritablement perjudicials sense l'advertència de “perill”. En higienitzar massa els models principals, empentem la gent cap a eines que no tenen baranes de seguretat.
La IA salva vides mitjançant la lògica i l'accés instantani al coneixement tècnic, reduint la taxa d'error humà en la vida quotidiana. És una malla de seguretat que es tornarà més densa i efectiva amb el temps. Però en ser contrafàctica, en basar-se en “el que no va passar”, sempre serà difícil de demostrar. Veurem titulars sobre l'únic error escandalós, mentre milions de tragèdies deixen d'ocórrer sota el radar.
Les coses com són.