Google ha publicat un informe que confirma un canvi estructural en l'ecosistema de les amenaces cibernètiques. La intel·ligència artificial ha travessat una línia perillosa: ja no és només una eina que els ciberdelinqüents utilitzen per millorar la seva eficiència, sinó que s'ha convertit en el component central del programari maliciós més avançat.

Aquest canvi qualitatiu obre una etapa completament nova en la seguretat digital, on les amenaces ja no són estàtiques sinó que poden aprendre, adaptar-se i evolucionar en temps real. El document, que amplia i actualitza l'anàlisi Adversarial Misuse of Generative AI de gener de 2025, revela per primera vegada l'existència de famílies de programari maliciós (malware) amb capacitats cognitives integrades. 

Aquestes noves famílies de programari maliciós representen un salt en la sofisticació dels atacs informàtics. A diferència del programari maliciós tradicional, que opera amb un conjunt fix d'instruccions, aquestes amenaces poden generar codi maliciós segons les necessitats del moment, modificar el seu propi comportament per evitar la detecció i crear funcionalitats a la carta sense necessitat de reprogramació.

La implicació és profunda: estem davant del naixement del primer malware veritablement adaptatiu. És com si una amenaça digital hagués desenvolupat la capacitat de raonar sobre el seu entorn i prendre decisions autònomes sobre com procedir. Això no només augmenta exponencialment la seva perillositat, sinó que obliga a replantejar les estratègies defensives tradicionals.

L'art de l'engany en l'era de la IA

En un gir irònic, els atacants han après que per enganyar les màquines intel·ligents, primer han d'aprendre a persuadir-les. L'informe detalla com els ciberdelinqüents estan traslladant les tècniques d'enginyeria social al terreny de la interacció amb models d'IA. Ja no es tracta només de trobar vulnerabilitats tècniques, sinó de construir narratives persuasives per convèncer els sistemes d'IA perquè violin les seves pròpies mesures de seguretat.

Els exemples són clarificadors: atacants que es fan passar per estudiants que participen en competicions de seguretat, apel·lant a la vocació pedagògica de la IA, o que es presenten com a investigadors que necessiten accés a informació delicada per a projectes legítims. Aquestes estratègies reflecteixen una comprensió sofisticada de com "pensen" aquests models i quins són els seus punts febles psicològics.

Paral·lelament a aquesta evolució tècnica, el mercat negre d'eines d'intel·ligència artificial il·lícites ha experimentat un procés de maduració accelerat. El que abans eren productes aïllats i poc refinats, ara s'han convertit en veritables invents que ofereixen serveis complets de ciberdelinqüència. Aquests espais del crim integren funcions de phishing automatitzat, desenvolupament de programari maliciós assistit per intel·ligència artificial i detecció de vulnerabilitats, tot en un sol paquet.

Aquesta industrialització del cibercrim té un efecte democratitzador: ara fins i tot delinqüents amb pocs coneixements tècnics poden llançar atacs d'alta sofisticació. La barrera d'entrada s'ha reduït dràsticament, mentre que el potencial destructiu s'ha multiplicat.

Enfront d'aquest panorama, Google ha detallat una estratègia que va més enllà de les simples solucions tècniques. La companyia no només està millorant els seus models mitjançant tècniques d'ajustos continus, sinó que també adopta un enfocament més integral que inclou la cancel·lació proactiva de comptes maliciosos, compartir intel·ligència amb la comunitat de seguretat i la publicació transparent de les seves mesures de protecció.

Aquest darrer punt és particularment important: en publicar llibres blancs com Advancing Gemini's Security Safeguards, Google no només rendeix comptes davant la societat, sinó que estableix un estàndard de transparència que pot beneficiar a tot el sector.

Les prediccions de l'any 2026

Les prediccions de Google Cloud Security per a 2026 pinten un escenari encara més complex. La companyia alerta que l'abús de la IA pels atacants passarà de ser experimental a generalitzat, augmentant no només la freqüència dels atacs sinó també la seva velocitat, abast i eficàcia. Tècniques com el prompt injection, on s'injecten comandaments maliciosos dins de les entrades de dades, es convertiran en amenaces crítiques.

Igualment preocupant és l'auge de la veu clonada mitjançant IA, que permetrà als atacants realitzar trucades de suplantació d'identitat gairebé indetectables. Però sens dubte, el desenvolupament més transformador serà l'arribada dels agents d'IA al camp de batalla digital. Aquestes entitats autònomes obligaran les organitzacions a repensar completament les seves estratègies de seguretat, des de la gestió d'identitats fins a la mateixa naturalesa del treball dels analistes de seguretat.

L'informe també aborda la dimensió geopolítica del ciberespai. Els actors estatals de països com Rússia, Xina, Iran i Corea del Nord continuaran utilitzant aquestes tecnologies amb objectius que van des de l'espionatge fins a la desinformació, cadascú amb les seves pròpies motivacions estratègiques. Per a Europa, l'advertència és particularment greu. La regió ha d'estar preparada per a una escalada de la guerra híbrida, que podria incloure ciberatacs físics contra infraestructures crítiques. 

El que aquests informes mostren és una realitat incòmoda, però ineludible: la batalla en el ciberespai ha evolucionat d'una confrontació tècnica a un enfrontament cognitiu. Ja no es tracta només de protegir-nos del codi maliciós, sinó de defensar-nos de sistemes que poden aprendre, adaptar-se i fins i tot persuadir.

La línia entre eina i adversari s'ha esvaït, i amb ella les certeses que havien guiat la ciberseguretat durant dècades. En aquest nou panorama, la capacitat d'anticipar, comprendre i respondre a amenaces que canvien en temps real no és només una qüestió tècnica, sinó una necessitat estratègica per a qualsevol organització que vulgui sobreviure en l'era de la intel·ligència artificial.