La RAND Corporation publicó un informe sobre los riesgos que plantea el desarrollo de la llamada inteligencia general artificial (AGI, por su sigla en inglés). El título del documento es pretencioso: La carrera por la inteligencia general artificial y la seguridad internacional. Lo firman seis autores de distintas universidades estadounidenses, algunos de ellos vinculados a centros de poder académico como Stanford y Cornell, dos de las instituciones más prestigiosas del sistema universitario norteamericano, y otros con filiación en lugares más periféricos, como Temple University o la Escuela Naval de Posgrado.
Todos reunidos por RAND como expertos en inteligencia artificial, política internacional y estrategia. Lo que entregaron, sin embargo, es una serie de ensayos especulativos que carecen del rigor mínimo exigible para una conversación seria. Lo más preocupante no es lo que dicen, sino que lo digan como si supieran.
RAND no es una institución menor, fundada en 1948, fue uno de los pilares intelectuales de la Guerra Fría. Escribieron para el Pentágono, participaron en la doctrina de disuasión nuclear, formaron generaciones de estrategas militares y asesores de seguridad. Muchas de sus ideas centrales moldearon el pensamiento norteamericano sobre la guerra, la competencia tecnológica y el equilibrio global. RAND tiene, o tuvo, autoridad. Por eso este documento sorprende por el modo en que se disuelven en una mezcla de futurismo difuso, lenguaje académico inflado y ausencia de definiciones claras. Es, literalmente, un texto que no sabe de qué habla.
El objeto del documento es la inteligencia general artificial, o AGI. Pero en ningún momento los autores explican con precisión qué entienden por ese término y cada uno usa una definición distinta. Algunos se refieren a sistemas autónomos con capacidades cognitivas amplias o la describen como una infraestructura de predicción estratégica. Otros directamente evitan definirla.
En la práctica, cada uno habla de algo diferente. Es como si se debatiera sobre el continente americano en 1420: algunos lo imaginan como una ruta hacia las Indias, otros como una extensión de Asia y otros no saben si existe. Y aun así, se atreven a escribir tratados sobre cómo deben organizarse los imperios que aún no lo descubrieron.
La crítica de fondo es ante el desconocimiento sobre la inteligencia general artificial, entonces no se sabe de qué se habla. Por lo tanto, el único resultado posible es un castillo de conjeturas montado sobre la ignorancia. Uno de los autores, Miles Brundage, sostiene que para 2027 casi todas las tareas que hoy se hacen con una computadora serán realizadas mejor por sistemas automáticos.
No ofrece pruebas, ni describe qué capacidades serían necesarias para lograr eso, ni explica cómo pasamos de los modelos actuales, incapaces de razonar sobre su salida, a esa omnipresencia digital. Pero desde esa premisa lanza recomendaciones de política global, estrategias de contención y esquemas de verificación. Construye un mausoleo sin saber cómo se colocan dos ladrillos juntos.
Otra autora, Sarah Kreps, plantea que una carrera acelerada hacia la inteligencia artificial mejoraría la estabilidad internacional, porque obligaría a todos los actores a mostrar sus cartas. Su argumento es que la transparencia reduce el riesgo de malentendidos. Pero no explica cómo se hace aclara algo que no se puede observar. Hoy quienes construyen modelos de lenguaje pueden explicar cómo funcionan. Se trata de sistemas opacos, no por decisión política, sino por limitación técnica. Pretender que los estados compartan entre sí información sobre tecnologías que no entienden ni sus creadores es desconocer la naturaleza del problema.
Los demás autores aportan especulaciones: guerras preventivas provocadas por el miedo a perder la supremacía, ataques no estatales con inteligencia artificial suficiente para fabricar armas biológicas, sabotajes y despliegues estratégicos automatizados. Todos estos escenarios comparten un mismo vicio: se basan en conjeturas sobre capacidades inexistentes, sin entender cómo funcionan las actuales. No hay una línea que se base en pruebas. No hay una sola simulación ni modelización matemática. Todo se construye con palabras.
Y eso es, quizás, lo más revelador. Lo que se observa en este informe no es un problema aislado, sino un síntoma de una enfermedad más profunda. Se trata de expertos que ya no entienden lo que pasa, pero que no están dispuestos a admitirlo. Llenan la ignorancia de terminología y reemplazan el saber por el prestigio. Hablan con naturalidad de cosas que no existen, como si fuera natural hacerlo.
Y como son profesores en universidades reconocidas, sus palabras no se discuten. El problema, sin embargo, no es sólo la ignorancia. Es que tampoco parecen saber que no entienden. En otro tiempo, un académico serio hubiera dicho: “este tema me excede”, o “si suponemos que esto fuera así, entonces…”. Aquí no, se construye sobre la nada. Y esa falta de rigor tiene una explicación simple: lo que está en juego no es la verdad, sino el empleo.
Todos los autores de este informe están frente a una amenaza directa. La inteligencia artificial transforma industrias y también amenaza la función tradicional del experto, interpretando lo que otros no entienden. Pero en este caso, los sistemas automáticos hacen lo mismo que hacen muchos de estos académicos, con más velocidad, más datos y sin necesidad de inventar jerga. La desesperación se nota. Escriben no para explicar el fenómeno, sino para demostrar que aún son necesarios.
Esa desesperación los lleva a escribir cualquier cosa. Y como el entorno intelectual actual premia más la apariencia que la profundidad, se genera una espiral donde todos fingen entender, se citan entre sí, organizan encuentros, presentan papers y construyen marcos teóricos sobre una tecnología que ninguno de ellos podría explicar frente a una pizarra.
Mientras tanto, los que sí trabajan con estos sistemas son quienes entrenan modelos, optimizan tareas y hacen negocios reales. Estos, no necesitan entender qué es la inteligencia general artificial, les alcanza con que funcione. Y por eso avanzan. Mientras los expertos escriben informes sobre mundos que no existen, el mundo real sigue girando.
El informe de RAND es importante por lo que revela. Muestra a un ecosistema intelectual que se queda atrás y a una institución que fue central en el diseño de la estrategia estadounidense, y que hoy publica documentos que no resisten una evaluación técnica básica. Y a una generación de expertos que, en lugar de reconocer sus límites, los cubre con retórica. Lo que más debería preocuparnos es que cuando los ciegos creen ver, lo que ven no es el mundo, sólo son visiones. Y estas visiones, cuando se imponen como guía, nunca terminan bien.
Las cosas como son