El grupo de inteligencia sobre amenazas de Google ha publicado un documento en el que advierte de un cambio de fase en el uso de la inteligencia artificial por parte de actores estatales y de ciberdelincuentes. Según el informe, titulado AI Threat Tracker, los grupos vinculados a China, Corea del Norte y Rusia han intensificado la aplicación de estas tecnologías para encontrar vulnerabilidades, crear programas maliciosos más sofisticados y llevar a cabo campañas de desinformación a gran escala. Los autores del estudio califican esta evolución como una auténtica "industrialización" del uso ofensivo de la IA.

Uno de los descubrimientos más relevantes que incluye el documento es la primera evidencia documentada de un "ataque de día cero" desarrollado con la ayuda de sistemas de inteligencia artificial. Según la información recogida por los analistas, un grupo criminal utilizó un modelo de IA para identificar y explotar una vulnerabilidad que permitía eludir los sistemas de autenticación de doble factor en una popular herramienta de administración web. Google no ha revelado el nombre concreto del software afectado por motivos de seguridad, pero asegura que la compañía detectó el fallo antes de que fuera explotado de manera masiva y notificó el incidente al proveedor.

Rusia y la clonación de voces para campañas de desinformación

El documento también señala que los grupos asociados al gobierno ruso han incorporado la inteligencia artificial en sus operaciones de influencia. Uno de los casos más paradigmáticos es la operación prorrusa conocida como "Operation Overload", en la cual los atacantes utilizaron herramientas de clonación de voz para suplantar a periodistas reales. Los videos manipulados resultantes se difundieron con el objetivo de llegar a audiencias de Estados Unidos, Ucrania y Francia, aprovechando la credibilidad de las voces suplantadas para diseminar mensajes falsos.

La investigación de Google describe igualmente la aparición de una nueva generación de software malicioso capaz de actuar de manera autónoma. Un ejemplo ilustrativo es Promptspy, una puerta trasera diseñada para dispositivos Android que utiliza el modelo Gemini de Google para analizar la interfaz del teléfono infectado. El software malicioso puede ejecutar acciones automáticamente, como pulsar botones, desplazarse por menús o asegurar su persistencia dentro del sistema operativo. Los analistas subrayan que esta evolución supone un cambio cualitativo: la IA ya no es solo una herramienta de soporte, sino que se convierte en un componente central con capacidad de decisión autónoma.

Ataques a través del software empresarial

El informe advierte también que algunos grupos de atacantes han dejado de dirigirse directamente a las compañías y han comenzado a infectar el software que estas utilizan. El caso más ilustrativo es el de un grupo llamado TeamPCP, que habría conseguido contaminar herramientas y repositorios de código fuente. Cuando las empresas descargan estos programas aparentemente legítimos, los atacantes se introducen en sus sistemas y roban contraseñas y claves de acceso a servicios en la nube. Los ciberdelincuentes buscan especialmente las herramientas utilizadas para integrar modelos de IA en las empresas, dado que les proporcionan acceso a datos delicados y a infraestructuras corporativas estratégicas.

John Hultquist, analista jefe del grupo de inteligencia sobre amenazas de Google, advierte en el informe que existe una idea errónea extendida según la cual la carrera por explotar las vulnerabilidades de la inteligencia artificial es un fenómeno que todavía está por llegar. "La realidad es que ya ha comenzado", afirma Hultquist, quien subraya que la IA está permitiendo a los atacantes aumentar la velocidad, la escala y la sofisticación de sus operaciones. El gigante tecnológico aprovecha el informe para defender el uso de la IA con fines defensivos y para reclamar estándares de seguridad más rigurosos en el desarrollo y despliegue de estas tecnologías.