Des que ChatGPT s'ha convertit en una eina a l'abast de qualsevol usuari i, per això, és en boca de tots, la urgència d'una normativa adaptada a la nova situació que reguli l'ús d'aquestes i altres eines similars és més gran en tots els estaments socials. Així, i atenent aquesta preocupació creixent, el comitè de Mercat Interior i Llibertats Civils de la UE acaba d'aprovar la reformulació de les pautes principals de l'esborrany de reglament europeu sobre IA que es va fer el 2021. Vistos els avenços dels últims mesos, res del que s'havia fet abans sembla vàlid, però l'objectiu de la UE és tenir un reglament aprovat abans de final d'any.

A què obligarà la nova regulació?

El que es pretén no és altra cosa que garantir una supervisió completa dels sistemes d'IA perquè siguin transparents i respectin la privacitat dels ciutadans de la UE. Alhora, està previst que s'elabori un barem segons el qual es mesurarà el risc que pot generar l'ús d'IA en determinades situacions. Així, en les circumstàncies en les quals s'estimi que l'ús de sistemes d'IA pugui generar "riscos inacceptables per a la seguretat de les persones" l'ús d'aquestes eines quedarà prohibit. Igualment, els sistemes d'identificació biomètrica remots i en temps real no podran utilitzar-se en espais d'accés públic. Les tècniques subliminars que puguin manipular de manera intencionada algun usuari o explotin vulnerabilitats tampoc podran ser utilitzades. L'scrolling social —tècnica que permet a una eina d'IA descartar per rebre serveis o productes concrets usuaris determinats a partir de dades personals— també queda prohibit.

inteligenciaartificial Rr3EQ3ZUk1ooJpkvIEvzjzH 366x256@abc
 

No a les classificacions

Al nou esborrany, per al redactat del qual ha donat aquesta setmana el vistiplau la UE, s'establirà també la prohibició de classificar individus concrets per raó de gènere, ètnia, religió o ideologia i es prohibirà l'ús de sistemes policials predictius que, a partir de perfils, localització o comportaments delictius anteriors, puguin arribar a utilitzar-se per vaticinar possibles nous actes il·legals. De la mateixa manera, estarà prohibit utilitzar aquests sistemes per conèixer les emocions de persones treballadores durant l'acompliment de les seves funcions. Finalment, es fixarà també la prohibició plena de fer servir sistemes d'IA que puguin afectar negativament la salut de les persones, la seguretat i els drets d'aquestes o el medi ambient. Sobre el règim sancionador no s'ha indicat res de moment, però hi ha una cosa inquietant en totes les mesures previstes: quan alguna cosa es prohibeix, és perquè existeix la possibilitat que algú ho faci. Convé, per tant, començar a preguntar-se què és exactament aquesta eina que tenim entre mans?