La autonomía total en sistemas militares aparece muchas veces en películas y en conferencias tecnológicas como si fuera un paso lógico dentro del camino de la inteligencia artificial (IA). La idea suena simple, con máquinas que ven, entienden y deciden sin intervención humana. La realidad técnica es distinta: para que un sistema actúe sin supervisión necesita capacidades que hoy no existen dentro de una máquina. La explicación se puede dar desde cero, sin presupuestos técnicos, con análisis del funcionamiento de un sistema autónomo.

Un sistema autónomo necesita primero percibir el entorno. La percepción no es solamente ver. La percepción combina cámaras, radar, infrarrojo, micrófonos especializados y sensores que detectan calor, movimiento, vibración o emisiones electromagnéticas. En un laboratorio los sensores funcionan de forma limpia, sin embargo, en una guerra la situación es opuesta. Hay humo, polvo, interferencias, calor extremo, reflejos falsos y señales diseñadas para confundir. Un detector que funciona bien en un día despejado pierde exactitud en un entorno real. Empresas como Raytheon, Lockheed Martin, Northrop Grumman, Elbit o Thales fabrican sensores avanzados y cada una aporta mejoras importantes. Aun así, los dispositivos actuales no son estables bajo condiciones donde el objetivo es engañar a la máquina.

La percepción además necesita energía. Un dron pequeño depende de baterías livianas. La batería alimenta el motor, las hélices, los sensores y la computadora interna. Cada minuto de vuelo consume energía. Si añadimos un procesador grande que corre modelos de IA, el consumo aumenta. Un dron con poca potencia no puede mantener un modelo complejo activo durante mucho tiempo. Esto explica por qué las empresas fabrican chips especiales que consumen poco. Hailo en Israel produce procesadores diseñados para baja energía. Intel Movidius, Nvidia Jetson y Habana Labs siguen el mismo camino. Todos permiten percepción rápida con consumo reducido, pero ninguno sostiene un modelo grande capaz de razonamiento profundo dentro de una plataforma pequeña.

Un avión de combate sí dispone de energía. En una aeronave moderna sobran kilovatios para radares, sensores y computadoras. En ese entorno la potencia deja de ser el límite y este cambia de lugar, pasa al plano cognitivo. La clave es que la máquina necesita interpretar lo que ve, al tiempo que recibe miles de datos por segundo. Un punto de calor puede ser un motor o una trampa térmica, o una señal de radar puede ser un avión o un reflejo; un ruido de radio puede ser comunicación real o interferencia. El enemigo diseña el entorno para producir señales engañosas y todo está hecho para romper patrones. Una máquina que reconoce aviones en un conjunto de datos no distingue sin ayuda humana cuando el entorno cambia y deja de parecerse a lo aprendido.

EuropaPress 7110461 18 november 2025 russia     member of russian army 291st regiment

La IA actual funciona identificando patrones. Si el entorno mantiene esos patrones, la máquina acierta, por el contrario, si el entorno cambia por completo, la máquina no sabe qué hacer. La guerra cambia los patrones de forma intencional y el dispositivo tiende a equivocarse de manera simultánea en todas las unidades que comparten el mismo modelo. El error se extiende a todo el sistema y provoca fallas coordinadas.

La manera de resolver esto sería contar con una IA que no dependa únicamente de patrones estadísticos. Haría falta una arquitectura distinta capaz de crear un modelo interno del entorno. Este representa posiciones de objetos, estados posibles de actores, efectos físicos del viento y del calor, escenarios futuros y cambios probables. Compara lo que espera ver con lo que realmente ve, y esa diferencia le indica si el entorno está dentro de lo normal o si algo cambió de manera significativa. Este proceso se asemeja a la forma en que un piloto humano detecta señales extrañas. El piloto no necesita haber visto antes una situación para comprender que algo no encaja, identifica la ruptura del patrón y actúa con cautela.

Todavía no existe una arquitectura que produzca este nivel de interpretación. Los modelos generan respuestas basadas en estadísticas aprendidas, sin hipótesis o explicaciones internas. Tampoco generan escenarios futuros a partir de un entendimiento profundo de la física y de las intenciones enemigas. Estos límites explican por qué incluso los aviones más avanzados mantienen un piloto que toma las decisiones complejas, mientras la máquina organiza la información y asiste con cálculos y sugerencias.

La autonomía total debe avanzar en percepción estable, sensores resistentes, energía distribuida y sobre todo en una inteligencia capaz de simular el entorno, comparar hipótesis y tomar decisiones cuando las señales son contradictorias. Ninguna de estas piezas está completa. Existen avances en sensores, en chips de bajo consumo y en simulación, aunque no convergen en un sistema unificado. La autonomía total no requiere modelos más grandes, requiere una forma distinta de inteligencia.

Las cosas como son.