El grup d'intel·ligència sobre amenaces de Google ha publicat un document en què adverteix d'un canvi de fase en l'ús de la intel·ligència artificial per part d'actors estatals i de ciberdelinqüents. Segons l'informe, titulat AI Threat Tracker, els grups vinculats a la Xina, Corea del Nord i Rússia han intensificat l'aplicació d'aquestes tecnologies per a trobar vulnerabilitats, crear programes maliciosos més sofisticats i dur a terme campanyes de desinformació a gran escala. Els autors de l'estudi qualifiquen aquesta evolució com una autèntica "industrialització" de l'ús ofensiu de la IA.
Un dels descobriments més rellevants que inclou el document és la primera evidència documentada d'un "atac de dia zero" desenvolupat amb l'ajuda de sistemes d'intel·ligència artificial. Segons la informació recollida pels analistes, un grup criminal va utilitzar un model d'IA per a identificar i explotar una vulnerabilitat que permetia eludir els sistemes d'autenticació de doble factor en una popular eina d'administració web. Google no ha revelat el nom concret del programari afectat per motius de seguretat, però assegura que la companyia va detectar el fall abans que fos explotat de manera massiva i va notificar l'incident al proveïdor.
Rússia i la clonació de veus per a campanyes de desinformació
El document també assenyala que els grups associats al govern rus han incorporat la intel·ligència artificial en les seves operacions d'influència. Un dels casos més paradigmàtics és l'operació prorussa coneguda com a "Operation Overload", en la qual els atacants van utilitzar eines de clonació de veu per a suplantar periodistes reals. Els vídeos manipulats resultants es van difondre amb l'objectiu d'arribar a audiències dels Estats Units, Ucraïna i França, aprofitant la credibilitat de les veus suplantades per a disseminar missatges falsos.
La investigació de Google descriu igualment l'aparició d'una nova generació de programari maliciós capaç d'actuar de manera autònoma. Un exemple il·lustratiu és Promptspy, una porta del darrere dissenyada per a dispositius Android que utilitza el model Gemini de Google per a analitzar la interfície del telèfon infectat. El programari maliciós pot executar accions automàticament com ara polsar botons, desplaçar-se per menús o assegurar la seva persistència dins del sistema operatiu. Els analistes subratllen que aquesta evolució suposa un canvi qualitatiu: la IA ja no és només una eina de suport, sinó que es converteix en un component central amb capacitat de decisió autònoma.
Atacs a través del programari empresarial
L'informe adverteix també que alguns grups d'atacants han deixat de dirigir-se directament a les companyies i han començat a infectar el programari que aquestes utilitzen. El cas més il·lustratiu és el d'un grup anomenat TeamPCP, que hauria aconseguit contaminar eines i repositoris de codi font. Quan les empreses descarreguen aquests programes aparentment legítims, els atacants s'introdueixen en els seus sistemes i roben contrasenyes i claus d'accés a serveis al núvol. Els ciberdelinqüents busquen especialment les eines utilitzades per a integrar models d'IA a les empreses, atès que els proporcionen accés a dades delicades i a infraestructures corporatives estratègiques.
John Hultquist, analista en cap del grup d'intel·ligència sobre amenaces de Google, adverteix en l'informe que existeix una idea errònia estesa segons la qual la cursa per explotar les vulnerabilitats de la intel·ligència artificial és un fenomen que encara està per arribar. "La realitat és que ja ha començat", afirma Hultquist, qui subratlla que la IA està permetent als atacants augmentar la velocitat, l'escala i la sofisticació de les seves operacions. El gegant tecnològic aprofita l'informe per a defensar l'ús de la IA amb fins defensius i per a reclamar estàndards de seguretat més rigorosos en el desenvolupament i desplegament d'aquestes tecnologies.