Los resultados que entrega la IA generativa reflejan un “considerable sesgo fundamentado en el género y la sexualidad”. Así lo indica, al menos, la Unesco, que acaba de elaborar un informe sobre la cuestión que demuestra cómo se asocian nombres femeninos a roles de género tradicionales y se generan contenidos negativos sobre temas homosexuales.

inteligencia artificial

 

¿Quién lo dice?

El nuevo informe ha sido elaborado por el Centro Internacional de Investigación sobre Inteligencia Artificial de la Unesco y parte de estudios individuales de sesgo previos. Así, se identifican pruebas de asociaciones entre nombres de género y carreras profesionales que, con frecuencia, generaban respuestas menos positivas a preguntas relacionadas con personas LGBTQ+ y mujeres y asignaban profesiones estereotipadas a miembros de distintos géneros y grupos étnicos. 

Tres categorías

Los investigadores descubrieron tres categorías de sesgos subyacentes en las tecnologías de IA generativa. La primera deriva de “un problema de datos” y parte de un hecho: la mayoría de las herramientas de IA no están expuestas a datos de entrenamiento de grupos infrarrepresentados o, también, están expuestas a datos que no tienen en cuenta las diferencias de sexo o etnia, lo que puede dar lugar a imprecisiones. El segundo es la selección del algoritmo, que puede dar lugar a un sesgo de agregación o aprendizaje. Como ejemplo, se cita el caso de una herramienta de IA que identifique como más deseables los currículos de candidatos masculinos basándose en disparidades de género ya presentes en las prácticas de contratación. Por último, el estudio detecta también sesgos en el despliegue, que se dan cuando los sistemas de IA se aplican a contextos distintos a aquellos para los que habían sido desarrollados, lo que daba lugar a asociaciones "inadecuadas" entre términos psiquiátricos y grupos étnicos o géneros específicos.