El camino hacia una inteligencia artificial (IA) capaz de operar con autonomía total en guerra exige una arquitectura modular. Esta no se parece a un modelo estadístico entrenado con millones de ejemplos, sino que se asemeja a un organismo compuesto por partes especializadas. Y cada componente cumple una función definida, al tiempo que interactúan para producir decisiones coherentes, incluso cuando el entorno cambia y los datos se vuelven ruidosos.
El primer módulo sería un modelo de mundo que mantiene una representación interna del entorno. No es un mapa estático, sino una simulación en miniatura que predice movimientos, calcula cambios en el clima, anticipa maniobras enemigas y evalúa señales sospechosas. El modelo compara constantemente sus predicciones con los registros de los sensores. Si hay discrepancias repetidas, interpreta que el entorno cambió y esa detección es fundamental porque indica riesgo operativo. La máquina necesita saber cuándo las condiciones dejaron de encajar con su base interna. Pero los sistemas actuales no hacen esta comparación profunda. Solo procesan señales y entregan clasificaciones.
El segundo módulo sería la percepción explicativa. Una cámara normal recoge imágenes y un modelo estadístico señala que una figura se parece a un tanque. Una percepción explicativa necesita agrupar varias señales y producir causas posibles. Por ejemplo, calor alto, vibración baja y ruido electrónico pueden indicar un vehículo encendido en reposo. Una señal térmica sin vibración puede indicar una trampa térmica. Para esto se necesita un sistema de grafos causales, donde cada señal se vincula con una causa probable. Investigaciones de Stanford y Facebook AI Research exploran estos grafos. Por su parte, Palantir usa grafos en inteligencia militar. Ninguno construyó todavía un modelo de percepción que razone en tiempo real dentro de un entorno dinámico.
El módulo de simulación interna ejecuta escenarios futuros. Si la máquina piensa que una señal es auténtica, calcula qué debería ocurrir en los próximos segundos. Si ocurren cosas distintas, la máquina descarta esa hipótesis y prueba otra. Esta capacidad de autoevaluación requiere ciclos rápidos de simulación y comparación. Lockheed Martin trabaja con gemelos digitales de aeronaves completas y DeepMind investiga simulaciones automáticas en juegos complejos. Anduril experimenta con ciclos de autoevaluación para drones. Todas estas son piezas parciales de algo más grande que todavía no existe.
La IA actual resuelve tareas concretas con eficiencia alta, pero no resuelve tareas complejas con incertidumbre extrema y señales distorsionadas
Sobre todo esto aparece un planificador explícito que necesita calcular rutas, movimientos, cambios de altitud, maniobras evasivas y priorización de objetivos. Este no toma decisiones basadas en lo que funcionó antes, sino en el estado actual del modelo interno y de las simulaciones futuras. Se parece a un sistema que analiza varios caminos posibles y selecciona el que encaja mejor con su imagen del entorno.
La arquitectura nueva también requiere una capa simbólica, con reglas duras. Estas fijan acciones permitidas y prohibidas de acuerdo con la estructura de la misión. Una máquina no puede improvisar en zonas donde el riesgo táctico es alto sin revisar primero esta instancia. La capa simbólica se programa y se verifica matemáticamente. Industrias como la aeroespacial ya tienen décadas de experiencia en verificación formal de software para sistemas críticos.
La máquina también necesita aprender de forma adversaria. Un módulo de autoevaluación genera amenazas y crea escenarios problemáticos, al tiempo que otro módulo intenta resolverlos. Este proceso se repite hasta reducir fallas internas. DeepMind usa esta técnica en juegos con resultados llamativos. DARPA financia programas que usan adversarios automáticos para mejorar sistemas militares. Esto todavía no se integró en un sistema autónomo de combate.
Finalmente, se necesita hardware específico para cada módulo. Un procesador a base de GPU no sirve para todo. La percepción requiere hardware neuromórfico como el que desarrollan SynSense o Intel con Loihi. La simulación demanda hardware con paralelismo masivo como el de Cerebras o Graphcore. El planificador exige procesadores configurables como los FPGA de Xilinx. La capa simbólica necesita microcontroladores verificados. El modelo de mundo precisa memoria rápida y procesadores dedicados a cálculos físicos. Ningún fabricante produce hoy un conjunto integrado de hardware para esta arquitectura.
Empresas como Anduril avanzan en la integración de sensores, simulación, lógica simbólica y modelos estadísticos en un único sistema, aunque todavía en etapas iniciales. Lockheed Martin aporta simulación profunda y fusión sensorial. DeepMind impulsa técnicas de planificación y razonamiento. Palantir unifica grafos para análisis de inteligencia. Entre tanto, Hailo produce chips de bajo consumo. Sin embargo, ninguna compañía tiene la arquitectura completa. Todas aportan piezas que podrían acoplarse en un futuro.
La autonomía total necesita que todas estas partes funcionen juntas. La IA actual resuelve tareas concretas con eficiencia alta, pero no resuelve tareas complejas con incertidumbre extrema y señales distorsionadas. El desarrollo de una arquitectura nueva permitirá una máquina capaz de interpretar, simular, actualizar hipótesis y actuar en entornos dinámicos sin depender de patrones previos. Ese tipo de inteligencia todavía no está construido.
Las cosas como son.
