Pocas personas en España saben tanto sobre Inteligencia Artificial como Núria Oliver (Alicante, 1970), que después de licenciarse en ingeniería de Telecomunicaciones en la UPC de Madrid partió hacia Estados Unidos  partió hacia el prestigioso Instituto de Tecnología de Massachussetts (MIT) para doctorarse como experta en Inteligencia Artificial muchos años antes de que copara la atención del planeta. Volvió a España después de trabajar en Microsoft y para liderar la investigación de IA en Telefónica y en Vodafone, pero su vocación social era tan fuerte que prefiere apostarlo todo a la Fundación Ellis, centrada en la ética y la sostenibilidad de esta tecnología que llega con pompa de nueva revolución industrial.  En la pandemia, pudo aplicar el lado bueno de la IA en el uso de los datos para predecir tendencias y tomar decisiones, pero también trabaja con ahínco en mitigar los múltiples riesgos, en términos sociales, económicos y ecológicos, del algoritmo inteligente que aprende y crea a partir de los datos que absorbe. 

¿Cómo y por qué pasa de investigar para Microsoft o Telefónica a crear, junto a otros, su propia fundación, la fundación Ellis?

Después de doctorarme en IA el MIT, mi vocación siempre fue inventar tecnología que tenga impacto positivo, me llamaron de todos los laboratorios y decidí escoger Microsoft Research. En 2005 me di cuenta de que el nuevo ordenador personal era el móvil y me dieron la oportunidad de regresar a Catalunya como directora científica de I+D en Telefónica, algo que estaba en desarrollo. Impulsé un área con IA sobre datos para el bien social, que servían para entender el comportamiento humano a gran escala, modelar la pobreza, fomentar la inclusión financiera... Luego creé el área de IA y datos para el bien social de Vodafone, colaboramos con las Naciones Unidas...Pero me di cuenta de que la investigación libre de intereses económicos es importante para abordar temas críticos que a las empresas a lo mejor no les interesa investigar. El foco de Ellis Alicante es investigar en IA ética, responsable y para el bien social. En 2019 me centré en eso.  

Llegó la pandemia y su fama se disparó, pese a que su currículum entonces ya era impresionante. 
Sí, acabábamos de crear la unidad de la Fundación en Alicante. Yo había trabajado con diferentes enfermedades, como la gripe en México en 2009 o el ébola y sentí la necesidad de contactar con instituciones con la idea de crear un grupo multidisciplinar de expertos y expertas que trabajaran mano a mano con los responsables institucionales para la toma de decisiones a la hora de tomar decisiones. En marzo de 2020, la Generalitat formalizó este grupo y me nombraron comisionada, coordinadora de este grupo que duró más de dos años, en paralelo a Ellis. 

Núria Oliver. Fotografía: Fundación Ellis

¿Son tan elevados los riesgos para la convivencia (privacidad, veracidad...) y para el trabajo de la Inteligencia Artificial? 
La Inteligencia Artificial tiene unos grandes potenciales positivos y también negativos. Hay que potenciar los primeros, como hicimos durante la pandemia, y es muy importante mitigar los negativos: la discriminación y los sesgos que genera, la violación de la intimidad, la falta de veracidad o la huella de carbono, entre otros. Es por eso que la Comisión Europea propone un reglamento europeo donde están contempladas estas implicaciones éticas. 

A nivel laboral, todo apunta a que afectará más a trabajadores formados. ¿Podemos vivir un resurgir de los trabajos artesanales? 
Sin duda. A diferencia de otras revoluciones industriales, los trabajos más afectados serán en esta ocasión los de cuello blanco o white collar. El último informe del Foro Económico Mundial predice que el 23% de las profesiones se van a ver afectadas. Pero eso no significa que desaparezcan. Hoy en día, gran parte de la manufactura está automatizada pero no han desaparecido los humanos, supervisan las máquinas, y surgen nuevas profesiones. 

Habla de supervisión de las máquinas en anteriores revoluciones, pero la IA aprende. ¿Siempre necesitará un copiloto?
Sí, siempre debe haber una supervisión humana. Tenemos otro tipo de habilidades donde la IA puede no tener un impacto tan hondo. Es cierto que en Japón usan robots para los cuidados, pero en la pandemia vimos cómo es de importante el factor humano en los cuidados y nuestra población envejecerá. ¿Tendremos suficientes jóvenes para cuidar a los ancianos? Ese puede ser un sector donde nos demos cuenta de lo importante que es el contacto físico, por ejemplo. 

 

La IA siempre necesitará copilotos y hay sectores, como los cuidados, en los que el factor humano seguirá siendo clave

Pero, a día de hoy, es un sector precarizado y no muy atractivo para un abogado o un informático. 
Claro, la estructura social irá cambiando y dentro de 20 o 30 años los roles y profesiones se habrán cambiado. Veremos hacia adónde va toda esa evolución, tampoco me gusta mucho predecir. 

Y la renta básica universal, ¿cree que puede ser una alternativa para toda la gente que se quede fuera de la transición tecnológica?
Es algo de lo que se lleva hablando hace tiempo, si formaría parte de esta ecuación. Los planes piloto que se han elaborado no han ido muy bien, pero es una de las alternativas que se nos presenta. Si hay un porcentaje de la población que no va a poder adaptarse o aprender las habilidades y al mismo tiempo vamos a tener mayor productividad en menos tiempo de trabajo en esta nueva revolución industrial de la IA, la renta básica universal es una posible solución. 

Una de las grandes cuestiones con la IA generativa es el concepto de autoría. ¿Qué va a pasar con todo el contenido del que aprende esta tecnología y con la gente que se dedica a crearlos? 
Los guionistas de Hollywood están en huelga porque las productoras han dicho que van a utilizar IA. Un dictamen japonés no ha sido favorable para los creadores. Tendremos que ver qué jurisprudencia se va generando y qué mecanismos pueden proteger a los autores que no quieren que sus contenidos puedan ser utilizados y puedan tener esa opción. La regulación europea contempla esa cuestión también. Está habiendo un movimiento #donottrainwithme, de creadores que piden una etiqueta en metadatos que impida a los robots que no incluyan sus contenidos. Habrá un pulso y habrá que regular. 

¿Está Europa perdiendo el tren de la IA frente a las punteras China y Estados Unidos? 
Sí. Estados Unidos lideraba históricamente la investigación y en los últimos años China se ha posicionado porque sabe que la Inteligencia Artificial es clave para convertirse en la primera potencia en el año 2030. En ese escenario, Europa queda relegada a un tercer plano en la investigación y con muchas dificultades para atraer y retener talento, que es una de las cosas que intentamos con la Fundación Ellis. 

En cambio, ¿podemos decir que Europa es pionera en la regulación? ¿Se ha adelantado a Estados Unidos? 
Sí, publicó la estrategia europea en IA y está liderando la regulación. Estados Unidos, Reino Unido y China están elaborándolo ahora, intentando superar esa dicotomía entre innovación y regulación. Europa siempre ha tenido la mala fama de inhibir la innovación con regulaciones excesivas. En ocasiones es verdad, una mala regulación supone solamente una carga burocrática. Pero en otras ofrece un entorno de seguridad porque sabes las reglas del juego y minimizas riesgos. De la misma forma que imponemos un control a la comida o a que el microondas no nos estalle, es obvio que debemos regular la IA. 

Europa está en un tercer plano en investigación en IA, muy lejos de Estados Unidos y de China, pero lidera su regulación y ellos siguen nuestros pasos

Y España se ha avanzado siendo el primer país que crea una Agencia reguladora estatal. 
Lo hace porque está contemplado en la directiva europea y porque adopta liderazgo durante la presidencia temporal de la Unión Europea. 

¿Por qué contamina tanto la IA y cómo se puede evitar? 
Tiene ingentes necesidades energéticas en sus distintos puntos de creación y uso. Necesitan datos de todas partes y la gestión, captura y mantenimiento de esos datos requiere mucha energía. Son 175.000 millones de parámetros los que puede llegar a utilizar. Eso consume muchísima energía y requiere de servidores potentes, con unas grandes necesidades de consumo. La estrategia europea también plantea una IA sostenible y verde para que no haya tanta necesidad energética. 

Otro asunto del que a veces alerta es de la falta de diversidad. 
Sí, desde el punto de la diversidad de género, el porcentaje de mujeres expertas en IA es muy bajo, del 12 o del 15%, y eso genera una falta de diversidad en los algoritmos. Algo sucedido pasará a nivel étnico o geográfico si los algoritmos y expertos se concentran en perfiles blancos o en países económicamente más potentes. Esa falta de diversidad da lugar a filtros burbuja o cámaras de resonancia que acaban modelando nuestros gustos, nos encasillan en ciertos patrones. También puede ser falta de diversidad institucional, si las tecnológicas privadas acaparan mucho más contenido que las instituciones públicas. 

Solo el 15% de las expertas en IA son mujeres y esa falsa de diversidad, como la étnica o institucional, crean burbujas que producen desigualdad y discriminación

¿Qué le pareció la llamada de Elon Musk y otros expertos a frenar la Inteligencia Artificial durante un tiempo ante el rápido avance y sus riesgos? 
Desde la Fundación Ellis, publicamos un artículo en el que intentamos desviar el foco de ese sensacionalismo apocalíptico. Cabe fijarse en la discriminación, la falta de transparencia, la violación de la privacidad desde un punto más pragmático, con soluciones en vez de sembrando el pánico de una manera que desvía la atención de los retos reales. 

Siempre ponemos en una balanza los avances e inconvenientes de la tecnología, pero existe una sensación entre quienes han vivido sin tecnología que esto de estar todo el día mirando el móvil, que una IA escriba libros o produzca música no nos va a traer un mundo mejor, desde el punto de vista humano. ¿Lo comparte? 
Los filósofos dicen: "nada demasiado". Es importante defender un uso moderado de la tecnología, como muchas otras cosas. Está diseñada para ser adictiva y es una lucha difícil, pero se puede combatir también con la propia tecnología. Una de las tecnologías que he diseñado es una IA que detecta que la persona que está usando el móvil está aburrida y podría decirle que la apague. El móvil podría decirte "ya me has usado demasiado, ve a hacer otras cosas". Cada vez hay más pensamiento crítico hacia las consecuencias negativas de la dependencia excesiva de la tecnología y creo que evolucionaremos también hacia eso, hacia un uso menos adictivo y menos excesivo.