Els resultats que lliura l'IA generativa reflecteixen un "considerable biaix fonamentat en el gènere i la sexualitat". Així ho indica, almenys, la Unesco, que acaba d'elaborar un informe sobre la qüestió que demostra com s'associen noms femenins a rols de gènere tradicionals i es generen continguts negatius sobre temes homosexuals.

intel·ligència artificial

 

Qui ho diu?

El nou informe ha estat elaborat pel Centre Internacional d'Investigació sobre Intel·ligència Artificial de la Unesco i part d'estudis individuals de biaix previs. Així, s'identifiquen proves d'associacions entre noms de gènere i curses professionals que, amb freqüència, generaven respostes menys positives a preguntes relacionades amb persones LGBTQ+ i dones i assignaven professions estereotipades a membres de diferents gèneres i grups ètnics.

Tres categories

Els investigadors van descobrir tres categories de biaixos subjacents en les tecnologies d'IA generativa. La primera deriva d'"un problema de dades" i part d'un fet: la majoria de les eines d'IA no estan exposades a dades d'entrenament de grups infrarepresentats o, també, estan exposades a dades que no tenen en compte les diferències de sexe o ètnia, la qual cosa pot donar lloc a imprecisions. El segon és la selecció de l'algoritme, que pot donar lloc a un biaix d'agregació o aprenentatge. Com a exemple, se cita el cas d'una eina d'IA que identifiqui com més desitjables els currículums de candidats masculins basant-se en disparitats de gènere ja presents en les pràctiques de contractació. Finalment, l'estudi detecta també biaixos en el desplegament, que es donen quan els sistemes d'IA s'apliquen a contextos diferents a aquells per als quals havien estat desenvolupats, la qual cosa donava lloc a associacions "inadequades" entre termes psiquiàtrics i grups ètnics o gèneres específics.