La inteligencia artificial se percibe cada vez más como un factor estratégico en la capacidad de actuación de un país. Los gobiernos de todo el mundo esperan que esta tecnología les ayude a superar retos nacionales complejos, aumentar la creación de valor económico y prestar los servicios públicos de forma más eficiente. Al mismo tiempo, los riesgos para la seguridad, la estabilidad y la competitividad cobran protagonismo, de modo que la IA no solo se ve como un motor de innovación, sino también como una fuente potencial de nuevas dependencias.
En este contexto, surge la duda de cuánto control pueden asegurar los países sobre tecnologías que actualmente se desarrollan y operan principalmente en Estados Unidos y China. Por ello, el foco se está desplazando hacia la soberanía de la IA: la capacidad de tomar decisiones importantes sobre el uso, el control y el desarrollo posterior de los sistemas de IA de forma independiente. Cada nación desarrolla su propia estrategia. Algunos países aspiran a una "autosuficiencia" de gran alcance y a un control exhaustivo. Otros —especialmente los que no tienen capacidad para un desarrollo de IA totalmente independiente— persiguen un enfoque gradual, basándose en la infraestructura y la experiencia existentes y complementándolas con asociaciones estratégicas para cerrar las brechas tecnológicas.
Capacidad de actuación mediante la libertad de elección e infraestructura
En esencia, la soberanía de la IA trata sobre la libertad de elección. Los países y las organizaciones deben poder elegir las herramientas adecuadas para tareas específicas dentro de sus fronteras, mantener el control sobre sus datos y operar aplicaciones de forma flexible sin estar atados a proveedores o enfoques individuales. La base para ello es una cadena de suministro digital diversificada y resiliente que garantice la autonomía y las opciones.
La Ley de IA de la UE, como marco jurídico basado en el riesgo, pretende crear seguridad jurídica y reforzar la confianza a partir de agosto de 2024, aunque también ha sido criticada por crear barreras a la innovación con obligaciones de cumplimiento y sanciones potenciales de millones de euros. Para facilitar un futuro con diversas opciones de IA, los países abordan cada vez más los obstáculos prácticos de una digitalización soberana apoyada en la IA; en particular, los altos costes y los requisitos de infraestructura. Un pilar importante es el desarrollo de mercados dinámicos que permitan diferentes soluciones y creen así la máxima capacidad de elección.
Infraestructura accesible
Las estrategias políticas suelen centrarse en centros de datos de alto rendimiento para el entrenamiento de modelos de IA generales, pero pueden pasar por alto la infraestructura para un uso productivo amplio. En particular, las redes distribuidas (Edge) situadas cerca de los usuarios son fundamentales para ofrecer aplicaciones de IA con baja latencia, alto rendimiento y escalabilidad. Aunque ciertas funciones de IA se ejecuten directamente en los dispositivos finales, muchos casos de uso requieren potencia de cálculo adicional para tareas de inferencia que pueden procesarse eficazmente en el extremo de la red.
Inclusividad
Muchos países persiguen el objetivo de garantizar que toda la economía —desde las pequeñas y medianas empresas hasta las instituciones de investigación, la sociedad civil y las grandes corporaciones— se beneficie de la transformación de la IA. Los modelos operativos sin servidor (serverless) y basados en el uso reducen las barreras de entrada, ya que solo se pagan los recursos que realmente se consumen (pago por uso) y no se requieren grandes inversiones iniciales.
Control sobre los datos
La capacidad de controlar exhaustivamente los propios datos se considera un requisito importante para la soberanía. No se trata tanto de la pura localización de los datos, sino de la integración de soluciones de seguridad que aporten transparencia, controlen el acceso de forma granular y tengan en cuenta los requisitos de cumplimiento. Las arquitecturas globales y distribuidas permiten aplicar reglas de acceso y controles allí donde se procesan los datos y se operan las aplicaciones de IA.
Pilares de la autonomía digital: estándares, código abierto y promoción
Numerosos países están fijando sus propias prioridades para impulsar la innovación de la IA en sus mercados, por ejemplo, mediante programas para grandes modelos de lenguaje (LLM). Durante mucho tiempo predominaron los sistemas entrenados principalmente con conjuntos de datos en inglés y, cada vez más, en chino, lo que ponía en desventaja a las regiones con acceso limitado a estos idiomas.
Como respuesta, existe un número creciente de modelos de IA basados en conjuntos de datos en idiomas locales que reflejan las características culturales y lingüísticas de regiones específicas, a menudo bajo licencias abiertas. La UE está invirtiendo fuertemente en sus propios modelos europeos y, en particular, en lengua alemana, para reducir su dependencia de los proveedores estadounidenses y chinos. El objetivo es desarrollar modelos abiertos y multilingües que tengan en cuenta sistemáticamente las lenguas, los valores y las normativas europeas, como la Ley de IA de la UE.
En definitiva
En conjunto, está claro que los países están utilizando la IA de formas muy diversas para lograr una mayor soberanía digital, con consecuencias técnicas y normativas de largo alcance. La clave será establecer mercados de IA dinámicos, abiertos y competitivos que garanticen la libertad de elección, reduzcan las dependencias y abran así importantes oportunidades de innovación y crecimiento, especialmente para las economías europeas.