Si pensàvem que l'automatització de les coses entre tecnologia era cosa del passat respecte a emprar aplicacions per fer més ràpides les nostres tasques, amb la IA s'ha revolucionat totalment. En bona mesura, ja hem vist que són capaços de poder planificar, raonar i executar accions per assolir l'objectiu a través d'agents.

El problema és que es van fent millors; els models d'IA no es queden estancats i estan canviant cada cert temps. S'està notant com una força d'acció que comença a inclinar-se cap a un altre costat. Desafortunadament, se'ls està detectant com comencen a planificar ciberatacs sense intervenció humana.

La IA comença a prendre camins perillosos; el pitjor és que els humans no han fet res per generar-ho

Les primeres tasques dels agents d'IA eren tan senzilles que per això se'ls donava tota la confiança. La majoria estaven associats amb la descàrrega de fitxers i la creació de contingut per publicar de forma automatitzada. Va arribar a convertir-se en alguna cosa més a causa que els agents es troben en una xarxa simulada. És com si estiguessin dins d'una empresa on hi ha servidors interns i apps.

En un escenari de prova, se li va assignar la recuperació de fitxers dins d'una Wiki de la qual no tenia accés a nivell de permisos. En aquest cas, la IA va anar més enllà i va poder trobar una clau secreta dins del codi. Aquí parlem d'una cerca de scripts locals per trobar credencials d'administrador, per la qual cosa va portar a deshabilitar les proteccions perquè pogués concretar-se la descàrrega d'aquesta informació.

Els agents d'IA i el seu veritable potencial
Els agents d'IA i el seu veritable potencial

Així va ser com van descobrir el seu veritable potencial per hackejar

Es pot dir que el seu potencial es va descobrir per una badada, però sense pensar que podria portar conseqüències. Per poder descobrir-ho d'una manera més àmplia, es va dissenyar una prova per coordinar-los en equip. Dos bots havien de fer esborranys de publicacions per a xarxes socials que incloïen credencials d'un document tècnic. La tasca no es completava, com en la prova passada; en aquest cas van fer un mètode per amagar la clau d'accés en un text. 

Els investigadors del cas indiquen que cal tenir en compte els comportaments dels agents d'IA, sobretot per evitar casos complexos on la seguretat d'una empresa pugui estar compromesa. El que ens deixa atònits és la capacitat de mentir, d'amagar informació i sobretot de no tenir sentit comú. No importa el que calgui fer; l'important per a la IA és complir l'objectiu. Això veient-ho sota un entorn controlat, què passarà quan aquest tipus d'agents estigui a internet? El dolent és que nosaltres hem de posar fre de mà a aquests comportaments en la mesura del possible, cosa que deixa en evidència completament les proteccions amb què es compta actualment.