La administración de Donald Trump ha dado un giro inesperado en su política tecnológica. Después de meses defendiendo una regulación mínima para favorecer la innovación en Silicon Valley, el gobierno estadounidense ha anunciado este martes un acuerdo con tres de los grandes laboratorios de inteligencia artificial del país. Google DeepMind, Microsoft y xAI, la compañía de Elon Musk, deberán someter sus modelos a una evaluación previa por parte de un organismo oficial antes de lanzarlos al mercado. El anuncio lo hizo el Centro de Estándares e Innovación en IA, un departamento dependiente del Instituto Nacional de Estándares y Tecnología del Departamento de Comercio.

Según ha explicado la agencia en un comunicado, el objetivo de este acuerdo es "llevar a cabo evaluaciones previas al despliegue e investigaciones específicas" que permitan entender mejor las capacidades reales de los sistemas de inteligencia artificial más avanzados. Hasta ahora, la Casa Blanca había optado por un modelo de no intervención, confiando en que las propias empresas regularan sus avances para no perder la carrera tecnológica frente a China. Pero algunos acontecimientos recientes han hecho cambiar de opinión a los asesores de Trump, especialmente después de las revelaciones sobre un modelo de ciberseguridad que ha puesto en alerta a los servicios de inteligencia.

El modelo Mythos, el detonante que ha hecho saltar las alarmas

El factor que ha precipitado este cambio de rumbo ha sido la aparición de Mythos, el nuevo sistema de Anthropic. La compañía, que nació como una escisión de OpenAI, decidió el mes pasado no poner esta herramienta a disposición del público general a causa de su peligrosidad. Mythos ha demostrado ser capaz de encontrar vulnerabilidades de seguridad en sistemas operativos y navegadores que habían pasado desapercibidas durante décadas. En pruebas internas, el modelo detectó un fallo en FreeBSD que tenía 17 años escondido, y otro en OpenBSD que hacía 27 años que no era detectado. Con esta capacidad en las manos equivocadas, los daños podrían ser incalculables.

Los expertos en ciberseguridad consultados por la Casa Blanca han advertido que el riesgo no es solo que modelos como Mythos puedan identificar vulnerabilidades, sino que lo hacen a una velocidad nunca vista. Tradicionalmente, cuando un investigador descubría un fallo de seguridad, los equipos de defensa disponían de una ventana de días o semanas para reaccionar antes de que los atacantes lo explotaran. Con herramientas como Mythos, esta ventana se puede reducir a pocas horas. Aún más preocupante: el modelo es capaz de encadenar varias vulnerabilidades de severidad baja o media para construir ataques complejos que, individualmente, ningún sistema de escaneo consideraría peligrosos.

Este giro en la política tecnológica coincide con una reestructuración interna en el ala oeste de la Casa Blanca. El marzo pasado, David Sacks, el hombre conocido como el "zar de la IA" y que había defendido una regulación mínima, abandonó su cargo. Desde entonces, la gestión de la política de inteligencia artificial ha recaído en dos figuras de peso: Susie Wiles, la jefa de gabinete de la Casa Blanca, y Scott Bessent, el secretario del Tesoro. Ambos han mostrado una posición más prudente y han sido los principales impulsores de este acuerdo con los laboratorios tecnológicos.

Acuerdos previos con OpenAI y Anthropic

Cabe recordar que esta no es la primera vez que la administración estadounidense intenta poner freno a los modelos de IA. En agosto de 2024, todavía con Joe Biden en la presidencia, se firmaron acuerdos voluntariamente vinculantes con OpenAI y Anthropic para que sometieran sus modelos a pruebas de seguridad. Lo que ha hecho ahora el equipo de Trump ha sido renegociar aquellos acuerdos para adaptarlos a sus prioridades y ampliar su alcance a nuevos actores como Google DeepMind, Microsoft y xAI. El objetivo es que ningún modelo de importancia pueda llegar al mercado sin una certificación previa del Instituto Nacional de Estándares.

Las compañías afectadas han aceptado el acuerdo, aunque con diferentes grados de entusiasmo. Tom Lue, vicepresidente de asuntos globales de IA de Google DeepMind, confirmó la asociación en una breve publicación en las redes sociales. Microsoft y xAI, por su parte, se han limitado a ratificar su participación sin hacer declaraciones públicas más amplias. Según ha podido saber la prensa estadounidense, el nuevo director del CAISI, Chris Fall, ya ha comunicado a las empresas que las pruebas deberán hacerse sobre modelos sin las salvaguardas de seguridad habituales, para que los evaluadores gubernamentales puedan evaluar sus capacidades reales en entornos clasificados. Esta exigencia, que hasta ahora era impensable en el modelo de no-intervención, demuestra hasta qué punto ha cambiado la postura de la administración.