Cuatro jóvenes beneficiarios de becas de la Fundación La Caixa, que cursan estudios de posgrado en el extranjero, se han unido para impulsar el desarrollo de una inteligencia artificial “al servicio del bien común” y diseñada pensando en las personas. Albert Gimó, matemático y estudiante del máster en Matemáticas, Visión y Aprendizaje en la Université Paris-Saclay (Francia), afirma que le interesa especialmente la alineación de los sistemas de IA con los valores humanos. Según recoge la Fundación, su trabajo se centra en prevenir o reducir los problemas derivados de entrenar algoritmos con datos sesgados.
Para Gimó, no basta con confiar en la buena fe de los creadores de modelos de gran escala, como ChatGPT; considera esencial desarrollar una conciencia activa sobre el impacto tecnológico. “No es suficiente no actuar con mala intención; hay que reflexionar de forma deliberada sobre las consecuencias, defiende el matemático”. Avisa, además, de que es fácil perder la conexión con la realidad social cuando el trabajo se limita a publicar investigaciones y asistir a conferencias sin evaluar el efecto que estas tienen en la vida de las personas.
La equidad y las comunidades vulnerables
Belén Luengo, graduada en Derecho y Estudios Internacionales, comenzará un máster en Ética Aplicada y Políticas Públicas en la Universidad de Duke (EE. UU.), con especial atención a la creación de tecnologías que promuevan la equidad y fortalezcan a comunidades históricamente marginadas, incluidas personas con discapacidad.
Luengo colabora con TheNeuroRights Foundation, donde defiende los derechos mentales frente al avance de las neurotecnologías. Entre las aplicaciones más relevantes de la IA en este ámbito está el uso de interfaces cerebro-computadora para devolver capacidades comunicativas a personas con ELA, lo que —según señala— puede ser transformador para su vida y aliviar el llamado “síndrome del encerramiento”.
La estudiante sostiene que la tecnología refleja las prioridades humanas y no es neutral. “En el mundo existen tanto buenas como malas intenciones, y la IA puede amplificar ambas”, advierte. Añade que el rápido progreso tecnológico obliga a replantearse continuamente qué tipo de sociedad se quiere construir y hacia dónde encaminarla.
IA como apoyo y sin voluntad de sustitución
Gonzalo Plaza, ingeniero biomédico y estudiante del máster en IA Aplicada a la Biomedicina y la Asistencia Sanitaria en el University College de Londres, considera que la inteligencia artificial debe actuar como herramienta de apoyo para el personal médico y no reemplazar el juicio profesional. Resalta la importancia de que los sanitarios comprendan el funcionamiento de los modelos y la interpretación de sus resultados.
“No es responsable ni desde el punto de vista ético ni legal, y no razona como lo hacemos los humanos”, explica. Reconoce tanto los riesgos derivados de un mal uso como la pérdida de oportunidades si no se explota su potencial. En su opinión, una IA de calidad requiere datos de calidad, y estos existen, pero es necesario saber organizarlos.
Júlia Laguna, doble graduada en Física y Matemáticas y doctoranda en Astronomía en la Universidad de Cambridge (Reino Unido), advierte que los nuevos telescopios generarán volúmenes ingentes de datos, y que la IA será esencial para procesarlos. Sin embargo, es crítica con el entusiasmo desmesurado que percibe en el sector y apuesta por modelos más sencillos, interpretables y fiables.
“Es tentador seguir las modas tecnológicas, pero debemos priorizar aquellas herramientas que entendemos y cuyos resultados podemos explicar”, afirma. Para Laguna, la inteligencia artificial es beneficiosa si se utiliza con criterio. “Como cualquier revolución, tiene sus inconvenientes. El problema es que quizá no veamos sus efectos negativos hasta dentro de una década, y entonces podría ser tarde”, concluye la experta en física.