Durant la tercera jornada de l’Integrated Systems Europe (ISE), l’espai expositiu de l’Ajuntament de Barcelona s’ha convertit en escenari d’una reflexió crítica sobre els biaixos de gènere en els sistemes d’intel·ligència artificial i els reptes que plantegen a l’hora d’avançar cap a una tecnologia més equitativa. La xerrada ha posat el focus en com aquests biaixos s’incorporen als algoritmes, com es poden detectar i quines estratègies responsables es poden aplicar per minimitzar-ne l’impacte en la societat.
Una de les primeres idees que ha sobrevolat la sessió ha estat la baixa presència femenina en l’àmbit tecnològic, una realitat que també s’ha fet evident en el mateix congrés. A l’ISE, només un 18% de les persones participants són dones, una xifra que evidencia que la desigualtat de gènere continua sent estructural en un sector clau per al desenvolupament tecnològic i econòmic.
Aquesta manca de diversitat no només afecta qui dissenya la tecnologia, sinó també el tipus de solucions que es creen i la mirada des de la qual es construeixen. En aquest context, han intervingut Cristina Mont, directora de la divisió d’intel·ligència artificial de Lavinia, i Helena Oller, directora d’Estratègia de Filmin, que han aportat visions complementàries sobre l’impacte de la IA i la necessitat d’afrontar els seus límits de manera crítica.
L'origen de les dades d'on s'alimenta la IA
Oller ha subratllat que la intel·ligència artificial no és una eina neutra ni objectiva. Segons ha explicat, “la IA ens marca i ens condiciona”, ja que els seus resultats influeixen directament en la manera com es prenen decisions, tant a escala empresarial com social. Aquest condicionament té l’origen en el tipus de dades amb què s’entrenen els sistemes, que responen a contextos històrics desiguals. “La IA s’alimenta per unes dades històriques amb biaix”, ha afirmat, tot remarcant que aquests biaixos no són accidentals, sinó el reflex de dècades de desigualtats estructurals.
Oller també ha posat sobre la taula el fet que la tecnologia s’ha desenvolupat majoritàriament des d’una mirada masculina. “La tecnologia s’alimenta principalment a partir de la visió i tasca d’homes”, ha assegurat, advertint que aquesta manca de pluralitat acaba reproduint estereotips i absències en els resultats que ofereix la IA. Davant d’aquesta realitat, ha defensat la necessitat d’una actitud exigent per part de les organitzacions i de la societat en general. “Hem d’exigir diversitat a l’hora d’incorporar i crear dades”, ha apuntat, tot destacant que sense aquesta diversitat no és possible parlar d’una tecnologia realment inclusiva.
En aquest sentit, Oller ha volgut desmuntar la idea que la IA pot arribar a ser completament imparcial. “No podem demanar a la IA que sigui neutra, perquè no ho és i ja ve predeterminada”, ha afirmat, insistint que el repte no és eliminar el biaix, sinó reconèixer-lo, fer-lo visible i treballar activament per reduir-ne els efectes.
El paper clau del component humà
Des de l’experiència de Lavinia, Cristina Mont ha posat l’accent en la importància del factor humà en l’ús de la intel·ligència artificial. Tot i que l’empresa utilitza de manera habitual eines basades en IA, ha remarcat que “a Lavinia fem servir moltes eines d’IA, però remarquem sempre el component humà”. Aquesta mirada crítica és especialment rellevant en el procés d’aplicació de la tecnologia, un aspecte que, segons Mont, sovint rep menys atenció que el desenvolupament de les eines en si mateixes.
La directora de la divisió d’IA ha explicat que una part important dels esforços se centren precisament en aquest procés. “Centrem molt els esforços en el procés d’aplicació de la IA”, ha indicat, posant de manifest que la manera com s’utilitza la tecnologia pot amplificar o mitigar els biaixos existents. Mont ha il·lustrat aquesta problemàtica amb exemples concrets extrets de projectes reals, en què els resultats generats per la IA evidencien una manca clara de diversitat. Segons ha relatat, quan es demanen perfils empresarials als sistemes d’IA, “majoritàriament apareixen homes i, com a molt, dones joves i mai més grans”, una mostra clara que aquests sistemes no incorporen una representació plural de la realitat.
Aquesta absència de diversitat no és només una qüestió de representació simbòlica, sinó que té conseqüències directes en la presa de decisions i en la reproducció de rols de gènere. Tal com ha conclòs Mont, la IA “no té aquesta diversitat incorporada” si no hi ha una voluntat explícita de construir-la, supervisar-la i corregir-la.
La xerrada ha deixat clar que el futur de la intel·ligència artificial passa, inevitablement, per una revisió crítica dels seus fonaments i per una aposta decidida per la diversitat, tant en les dades com en els equips humans que la dissenyen i l’apliquen. Només així es podrà avançar cap a una tecnologia que no perpetuï desigualtats, sinó que contribueixi activament a reduir-les.