"Els sistemes d'intel·ligència artificial (IA) han amplificat de forma flagrant el racisme i les desigualtats i han perpetuat la vulneració dels drets humans", denuncia Amnistia Internacional en un comunicat. Malgrat que sovint es té la imatge de la tecnologia com quelcom neutre i lliure de qualsevol prejudici, no és així. Els sistemes d'IA estan programats per persones i es nodreixen del coneixement que se'ls posa a l'abast, en tots dos casos els biaixos són inevitables. El resultat és que es poden arribar a amplificar discriminacions com el racisme o el masclisme. Aprofitant que la Unió Europea (UE) està treballant en la primera llei per definir els límits de la IA, l'organització ha advertit dels perills vinculats a la nova tecnologia i ha exigit mesures com el veto de sistemes de reconeixement facial en llocs públics o evitar que les grans multinacionals guanyin capacitat per "autoregular" el sector.

Segons l'assessor sobre regulació de la intel·ligència artificial d'Amnistia Internacional, Mher Hakobyan, bona part dels sistemes basats en noves tecnologies que s'utilitzen avui dia "no s'empren per millorar el benestar de la gent, sinó que es fan servir per estalviar costos". "Quan ja existeixen problemes sistèmics com el racisme i la discriminació, aquestes tecnologies danyen encara més les comunitats marginades", lamenta, segons recull l'ACN. 

Vells estereotips, noves tecnologies que els implementen

Hakobyan destaca que els legisladors de la UE se centri a formular lleis  "que facin front als problemes existents, com ara que la tecnologia s'utilitzi per prendre decisions discriminatòries que vulnerin drets humans bàsics". L'expert ho exemplifica amb un cas als Països Baixos. El govern neerlandès va posar en marxa un programa que pretenia detectar si les sol·licituds d'ajudes a la infància eren fraudulentes o no. Segons Amnistia, el sistema "va penalitzar erròniament milers de famílies de classe baixa i d'origen immigrant, enfonsant-los en la pobresa i haver de fer front a més deutes". De fet, l'organització lamenta que els estats membres recorrin a tecnologies "opaques i hostils" per "abusar de migrants" i exigeix que es prohibeixi el biaix "racista" d'alguns sistemes d'avaluació.

Especial focus als sistemes de reconeixement facial 

Amnistia demana posar el ficus legislatiu especialment en prohibir "sense excepcions" els sistemes de reconeixement facial en espais públics, incloent-hi zones frontereres al voltant de centres de detenció. Per l'ONG, aquestes tecnologies s'han convertit en l'eina "per excel·lència" per dur a terme una vigilància que considera "excessiva" i alerta que poden derivar en detencions "incorrectes".