La IA: ¿elefante en la sala o riesgo inesperado?

- Pau Vila
- Barcelona. Miércoles, 1 de abril de 2026. 05:30
- Tiempo de lectura: 3 minutos
Hace poco más de una semana, Jensen Huang, el fundador y director general de la tecnológica Nvidia, afirmaba durante una entrevista que le parecía que “ahora vivimos el momento preciso de consecución de la AGI”, un acrónimo que hace referencia a la Artificial General Intelligence o inteligencia artificial general. Este término está ampliamente aceptado para referirse al umbral intelectual entre humanos y máquinas: el momento en el que podríamos considerar que, en conjunto, las máquinas son más inteligentes que los humanos en un abanico de disciplinas transversal. En un sentido vertical ya es así desde hace muchos años: hace décadas que se han ido superando hitos donde una máquina ha superado al mejor humano: en el ajedrez, en determinados cálculos matemáticos… pero no es hasta ahora cuando se empieza a debatir si la frontera se ha cruzado en el sentido amplio.
Para intentar objetivarlo, partimos de la realidad de que los humanos tenemos un coeficiente intelectual que sigue una distribución normal (es decir, una campana de Gauss, simétrica) centrada en los 100 puntos, de tal manera que el 96 % de la población tiene un coeficiente intelectual de entre 70 y 130. El instituto noruego Mensa ha desarrollado y perfeccionado una metodología para medir el coeficiente intelectual de las inteligencias artificiales en términos equivalentes al de los humanos. Justo ahora, el conjunto de los modelos analizados —veinticinco, concretamente— se sitúa, en forma de campana de Gauss, entre los 70 y 130. Es decir, ciertamente todavía hay muchos modelos menos inteligentes que los humanos más inteligentes, pero también modelos más inteligentes que los humanos menos inteligentes. Y, en término medio, la distribución de inteligencia de los modelos refleja la misma que la población humana.
Esta es la clave que lleva a Jensen Huang a afirmar que el momento es ahora. Es decir, no ha sido antes, en la medida en que no habíamos visto hace un año o hace dos años que los modelos de inteligencia generativa se situaran sobre la misma media y con las mismas desviaciones a extremos superior e inferior que los tests de inteligencia humanos. Tampoco lo veremos de aquí a un año o dos: hasta ahora, la trayectoria de los modelos ha sido claramente ascendente, de tal manera que, extrapolando este comportamiento, podríamos decir que cualquier modelo futuro será más inteligente que los actuales. Así pues, el momento actual puede ser histórico: es el año en que humanos y máquinas cruzan la trayectoria.
Cuando una tendencia disruptiva afecta al conjunto de la productividad, no se puede resolver caso a caso: hay que hablar de cómo abordarlo como reto de toda la sociedad
El medio estadounidense especializado en economía y empresa Fortune publicaba también la semana pasada una filtración de la empresa Anthropic. Parece que se trataba de un repositorio de documentos interno donde la compañía discutía de forma colaborativa entre los miembros del equipo directivo y los profesionales de comunicación el contenido de sus anuncios públicos y notas de prensa. Y precisamente estaban comentando los términos con los cuales hacer público lo que internamente tenía el nombre de ‘proyecto Capibara’, externamente Mythos: un escalón de modelos adicional, por encima de sus divisiones Haiku (bajo coste, baja complejidad), Sonnet (coste medio, complejidad media) y Opus (alto coste, alta complejidad). Por lo tanto, no hablamos de la nueva versión de Opus sino de una nueva categoría de modelos. Anteriormente, cuando han aparecido nuevas categorías de modelos, han sido los momentos temporales donde no se hablaba de mejoras iterativas ni de eficiencia más alta, sino de poder abordar retos que hasta ahora no eran abordables.
Considerando que las fronteras superiores de Opus son francamente impresionantes (podríamos argumentar que su eficiencia energética es el punto débil, pero en todo caso no hay muchas dudas sobre la capacidad de razonamiento del modelo), la cuestión se puede volver seria. Y se vuelve más una vez analizado el contenido de las conversaciones de Anthropic filtradas, que versaban sobre todo en torno a cómo hacer frente a los riesgos de ciberseguridad del modelo, es decir, cómo garantizar que su inexplorada capacidad de programación no se usará con fines perversos. Si bien la mayoría de los sistemas pueden ya hoy detectar una intencionalidad negativa, el caso es que hay cuestiones que se pueden plantear con un pretexto que convenza al modelo a resolver el problema y, una vez se dispone de la solución, aplicarla para un objetivo bien diferente.
Lo más fascinante de todo esto es cómo se está creando una brecha enorme entre lo que podemos leer en algunas cabeceras como Fortune y nuestro entorno diario. Estamos hablando de cómo gestionar riesgos ante la inminente aparición de modelos de inteligencia artificial que superan la humana de media. Hablamos de despidos relevantes en grandes empresas, pero también en pequeñas, de aquí —Parlem lo dejó entrever la semana pasada. Y no es oportuno demonizar a los empresarios en esta ocasión: el empresario que no adoptó la máquina de vapor para preservar puestos de trabajo fue el que más puestos de trabajo acabó destruyendo, y pasará lo mismo. Cuando una tendencia disruptiva afecta al conjunto de la productividad, no se puede resolver caso a caso: hay que hablar de cómo abordarlo como reto del conjunto de la sociedad. Los sindicatos no hablan de ello, todavía. Tampoco parece que sea una preocupación política importante. Es un elefante en la sala, es decir, en realidad todo el mundo sabe que estamos asistiendo a un momento de cambio mayúsculo y sencillamente vamos haciendo como si nada porque no sabemos exactamente qué hacer, ¿o es que la profundidad del debate no ha llegado a algunos sectores de nuestro entorno?