Els dubtes sobre els usos i impactes de les noves eines d'intel·ligència artificial (IA) com el famós ChatGPT comencen a planar en diverses àrees de la societat, incloent-hi la seguretat pública. L'Europol, l'Agència de la Unió Europea (UE) per la Cooperació Policial, ha advertit que aquestes eines poden ser de gran ajuda per la ciberdelinqüència. En un informe l'agència europea mostra el "costat fosc" que poden eines com ChatGPT, on es reconeix que es presenta un "panorama ombrívol" i es presenten nous reptes legislatius. 

"Les capacitats de ChatGPT es presten a una sèrie de possibles casos d'abús a l'àrea del terrorisme, la propaganda i la desinformació. El model es pot fer servir per recopilar més informació en general que pugui facilitar les activitats terroristes, com ara el finançament del terrorisme o l'intercanvi anònim d'arxius", s'alerta en el text i s'afegeix: "És possible crear eines bàsiques per a una varietat de propòsits maliciosos. Tot i que només són bàsiques, això proporciona un començament per al delicte cibernètic, ja que permet que algú sense coneixements tècnics exploti un vector d'atac al sistema d'una víctima". 

Tanmateix, el ChatGPT té certes eines per tractar d'evitar comportaments maliciosos, però com passar amb totes les tecnologies, i en especial en les que encara estan en construcció, estan lluny de ser infal·libles. És a dir, el ChatGPT té un escut ple de forats que els ciberdelinqüents poden utilitzar com millor convingui. La protecció només funciona quan l'eina identifica que el que es vol fer és maliciós o un crim, però si se li donen indicacions que es divideixen en passos individuals, és trivial eludir aquestes mesures de seguretat.

Un usuari amb coneixements més avançats també pot explotar les capacitats millorades de ChatGPT per perfeccionar encara més o fins i tot automatitzar modus operandi sofisticats dels ciberdelinqüents.

Preocupació per l'avenç de la IA

Experts tecnològics, científics, polítics i empresaris s'han unit per signar conjuntament una carta que alerta dels perills de desenvolupament desenfrenat de la intel·ligència artificial (IA). Tanmateix, la carta no és només una queixa, també és propositiva. Es proposa que els experiments actuals d'IA se suspenguin durant sis mesos. Per què? Per tenir temps per valorar els potencials riscos d'aquesta tecnologia i generar un marc legal sòlid al voltant de la IA.  Així ho signen personalitats com el director executiu de Tesla, Elon Musk, el cofundador d'Apple Steve Wozniak, els investigadors nord-americans Yoshua Bengio, Stuart Russel o els espanyols Carles Sierra i Ramón López De Mantaras.