Durante la tercera jornada de l’Integrated Systems Europe (ISE), el espacio expositivo del Ajuntament de Barcelona se ha convertido en escenario de una reflexión crítica sobre los sesgos de género en los sistemas de inteligencia artificial y los retos que plantean a la hora de avanzar hacia una tecnología más equitativa. La charla ha puesto el foco en cómo estos sesgos se incorporan a los algoritmos, cómo se pueden detectar y qué estrategias responsables se pueden aplicar para minimizar su impacto en la sociedad.

Una de las primeras ideas que ha sobrevolado la sesión ha sido la baja presencia femenina en el ámbito tecnológico, una realidad que también se ha hecho evidente en el mismo congreso. En el ISE, solo un 18% de las personas participantes son mujeres, una cifra que evidencia que la desigualdad de género continúa siendo estructural en un sector clave para el desarrollo tecnológico y económico.

Esta falta de diversidad no solo afecta a quien diseña la tecnología, sino también al tipo de soluciones que se crean y a la mirada desde la que se construyen. En este contexto, han intervenido Cristina Mont, directora de la división de inteligencia artificial de Lavinia, y Helena Oller, directora de Estrategia de Filmin, que han aportado visiones complementarias sobre el impacto de la IA y la necesidad de afrontar sus límites de manera crítica.

El origen de los datos de donde se alimenta la IA

Oller ha subrayado que la inteligencia artificial no es una herramienta neutra ni objetiva. Según ha explicado, “la IA nos marca y nos condiciona”, ya que sus resultados influyen directamente en la manera en que se toman decisiones, tanto a escala empresarial como social. Este condicionamiento tiene su origen en el tipo de datos con los que se entrenan los sistemas, que responden a contextos históricos desiguales. “La IA se alimenta por unos datos históricos con sesgo”, ha afirmado, remarcando que estos sesgos no son accidentales, sino el reflejo de décadas de desigualdades estructurales.

Oller también ha puesto sobre la mesa el hecho de que la tecnología se ha desarrollado mayoritariamente desde una mirada masculina. “La tecnología se alimenta principalmente a partir de la visión y tarea de hombres”, ha asegurado, advirtiendo que esta falta de pluralidad acaba reproduciendo estereotipos y ausencias en los resultados que ofrece la IA. Ante esta realidad, ha defendido la necesidad de una actitud exigente por parte de las organizaciones y de la sociedad en general. “Debemos exigir diversidad a la hora de incorporar y crear datos”, ha apuntado, destacando que sin esta diversidad no es posible hablar de una tecnología realmente inclusiva.

En este sentido, Oller ha querido desmontar la idea de que la IA puede llegar a ser completamente imparcial. “No podemos pedir a la IA que sea neutra, porque no lo es y ya viene predeterminada”, ha afirmado, insistiendo en que el reto no es eliminar el sesgo, sino reconocerlo, hacerlo visible y trabajar activamente para reducir sus efectos

El papel clave del componente humano

Desde la experiencia de Lavinia, Cristina Mont ha puesto el acento en la importancia del factor humano en el uso de la inteligencia artificial. Aunque la empresa utiliza de manera habitual herramientas basadas en IA, ha remarcado que “en Lavinia utilizamos muchas herramientas de IA, pero remarcamos siempre el componente humano”. Esta mirada crítica es especialmente relevante en el proceso de aplicación de la tecnología, un aspecto que, según Mont, a menudo recibe menos atención que el desarrollo de las herramientas en sí mismas.

La directora de la división de IA ha explicado que una parte importante de los esfuerzos se centran precisamente en este proceso. “Centramos mucho los esfuerzos en el proceso de aplicación de la IA”, ha indicado, poniendo de manifiesto que la manera como se utiliza la tecnología puede amplificar o mitigar los sesgos existentes. Mont ha ilustrado esta problemática con ejemplos concretos extraídos de proyectos reales, en los que los resultados generados por la IA evidencian una falta clara de diversidad. Según ha relatado, cuando se piden perfiles empresariales a los sistemas de IA, “mayoritariamente aparecen hombres y, como mucho, mujeres jóvenes y nunca mayores”, una muestra clara de que estos sistemas no incorporan una representación plural de la realidad.

Esta ausencia de diversidad no es solo una cuestión de representación simbólica, sino que tiene consecuencias directas en la toma de decisiones y en la reproducción de roles de género. Tal como ha concluido Mont, la IA “no tiene esta diversidad incorporada” si no hay una voluntad explícita de construirla, supervisarla y corregirla.

La charla ha dejado claro que el futuro de la inteligencia artificial pasa, inevitablemente, por una revisión crítica de sus fundamentos y por una apuesta decidida por la diversidad, tanto en los datos como en los equipos humanos que la diseñan y la aplican. Solo así se podrá avanzar hacia una tecnología que no perpetúe desigualdades, sino que contribuya activamente a reducirlas.