Vivimos en una era dominada por el ruido de la catástrofe. Si un chatbot, en una alucinación extraña, le sugiere a una persona cometer un acto imprudente, la noticia recorrerá el mundo en minutos. Los titulares gritarán sobre los “peligros de la inteligencia artificial”. Sin embargo, nadie escribe un titular sobre lo que no ocurrió. No hay noticias que digan: “Hoy, Juan Pérez no terminó en la sala de urgencias porque su inteligencia artificial (IA) le advirtió que no mezclara lavandina con amoníaco”.

Este es el problema fundamental de la percepción del riesgo, porque la prevención es silenciosa, es un “no-evento”. Estamos ante una paradoja contrafáctica masiva. Para entender el valor de la seguridad, necesitamos ver el accidente; pero si la seguridad funciona, el accidente nunca ocurre. Es el síndrome del operario de la red eléctrica: si hace su trabajo a la perfección y la red nunca cae, es invisible. Nadie le da una medalla por la normalidad. Pero si la red colapsa y él la repara bajo una tormenta, se convierte en héroe. Nuestra cultura premia la corrección del desastre, no la prevención del mismo.

Hoy, los grandes modelos de lenguaje o LLMs, por su sigla en inglés, actúan como esa infraestructura de prevención invisible, una “profilaxis cognitiva” que opera las 24 horas. Millones de personas utilizan estas herramientas como una segunda opinión objetiva en momentos de duda crítica. Pensemos en el ámbito doméstico y médico, donde el error humano es estadísticamente letal.

Un usuario, confundido por la medicación, pregunta si puede tomar un antiinflamatorio común junto con su anticoagulante recetado. La IA, entrenada con bibliotecas médicas, lanza una advertencia inmediata sobre el riesgo de hemorragia y el usuario deja la pastilla en la mesa. Ese acto minúsculo acaba de salvar una vida o evitar una hospitalización grave. Pero ese dato no queda registrado en ningún lado. No hay un “contador de muertes evitadas” en la interfaz del chat. Simplemente, la vida continúa. Lo mismo ocurre en la cocina o el taller cuando la advertencia sobre temperaturas, presiones o reacciones químicas actúa como un freno de mano ante la ignorancia momentánea o el descuido.

Los grandes modelos de lenguaje, o LLMs, actúan como esa infraestructura de prevención invisible, una “profilaxis cognitiva” que opera las 24 horas

Sin embargo, para que este sistema de seguridad funcione, la confianza es la moneda de cambio. Y aquí es donde la industria enfrenta un riesgo autoinfligido con la censura excesiva. En un intento desesperado por evitar la “mala prensa”, muchos modelos están castrados digitalmente. Si un escritor de novelas policiales pregunta “¿cuál es la dosis letal de arsénico?” para documentar su trama, y el modelo se niega a responder citando políticas de seguridad, se rompe la utilidad de la herramienta.

El peligro real no es que la IA responda; el peligro es que, al encontrar una puerta cerrada por una censura puritana, el usuario migre hacia modelos “sin censura” en los rincones oscuros de la web. Esos modelos alternativos no tienen filtros éticos ni advertencias de seguridad química o médica; pueden tener sesgos ideológicos terribles o dar instrucciones verdaderamente dañinas sin la advertencia de “peligro”. Al higienizar demasiado los modelos principales, empujamos a la gente hacia herramientas que no tienen barandillas de seguridad.

La IA salva vidas mediante la lógica y el acceso instantáneo al conocimiento técnico, reduciendo la tasa de error humano en la vida cotidiana. Es una malla de seguridad que se volverá más densa y efectiva con el tiempo. Pero al ser contrafáctica, al basarse en “lo que no pasó”, siempre será difícil de demostrar. Veremos titulares sobre el único error escandaloso, mientras millones de tragedias dejan de ocurrir bajo el radar.

Las cosas como son.