El gran desafío: regular la inteligencia artificial

- Ignacio Anguita
- Barcelona. Viernes, 20 de octubre de 2023. 05:30
- Tiempo de lectura: 2 minutos
El rápido auge de las tecnologías de inteligencia artificial (IA) y el aumento de la popularidad de aplicaciones como ChatGPT están provocando que cada vez sea mayor el número de voces que se alzan reclamando una regulación específica. No obstante, la variedad de las aplicaciones de la IA y la complejidad de los procesos que la rodean la hacen difícil, sino imposible, de regular, tal y como se ha venido haciendo hasta ahora por parte de los legisladores con otras tecnologías.
Los avances en IA y sus, aún limitadas, aplicaciones en distintos ámbitos como la sanidad, la seguridad o la justicia, han puesto de manifiesto los peligros que un mal uso de este grupo de tecnologías puede suponer para la ciudadanía. El riesgo asociado al uso de los modelos más avanzados de IA es que exista un sesgo que influya en sus predicciones. Esta desviación puede ser introducida de muchas maneras, ya sea de forma premeditada o por una mala praxis, pero acaba afectando a la calidad del modelo.
Los algoritmos sesgados pueden desde devolver información contradictoria o falsa hasta tomar decisiones discriminatorias que perpetúen prejuicios y desigualdades sociales. Debido al peligro que conllevan los modelos sesgados, cuando se desarrollan los algoritmos de inteligencia artificial, los investigadores y supervisores deben centrar su atención en los tres puntos centrales de esta disciplina: los datos usados para entrenar el modelo, el objetivo que se busca conseguir y la explicabilidad que se extrae de él.
Los datos son una pieza fundamental del problema, y por ello se les suele llamar el petróleo del siglo XXI. Unos datos contaminados por fuentes externas o desbalanceados, es decir, con clases de datos que no están representados de manera equitativa, pueden generar toda clase de problemas. Un ejemplo actual son los denominados algoritmos de selección de personal, que buscan automatizar las pesadas tareas de seleccionar currículums. Estos modelos alimentados con información común, como pueda ser el género o la universidad donde estudió un candidato, pueden convertirse en fuentes de discriminación. Si los expedientes de candidatos válidos que se le proporcionan al modelo están muy desbalanceados, podemos acabar con un algoritmo sesgado. En una plantilla donde trabajan mayoritariamente hombres que estudiaron en cierta universidad, el modelo puede acabar asumiendo que lo más probable es que los candidatos apropiados sean hombres que procedan de esa universidad, ya que en sus datos de entrenamientos solo había este tipo de perfiles profesionales. Eso genera un sesgo, en definitiva una discriminación, hacia el género y la procedencia que no tiene en cuenta la validez de la persona. Por ello es de suma importancia seleccionar con cuidado que datos son relevantes para el modelo y asegurarse de que estos no están desbalanceados.
El objetivo para el que se entrena el algoritmo también es de suma importancia. En muchas ocasiones el modelo que acierta el mayor número de veces no es la mejor opción. Un clásico ejemplo es el de una inteligencia artificial que busca predecir si padecemos una dolencia grave como el cáncer. En estos casos claramente hay que ponderar hacia dónde el riesgo es mayor, asegurándonos de que aquellos pacientes que puedan padecer tal enfermedad sean detectados y no se escape ninguno, a costa de que, a veces, se equivoque y de una falsa alarma a pacientes sanos.
El tercer elemento esencial es la explicabilidad que consiste en ser capaz de inferir como una IA toma decisiones y pondera cada factor en su resultado, de manera que el proceso sea más transparente y se puedan detectar antes los comportamientos anómalos. Un algoritmo es explicable cuando se puede interpretar y entender cómo ha obtenido sus predicciones o resultados. En modelos sencillos esta tarea es relativamente fácil, pero a medida que se utilizan algoritmos más complejos como las redes neuronales, se vuelve complicado entender qué sucede dentro del modelo. Sin embargo, es alentador observar cómo cada vez son más las técnicas que se desarrollan para desentrañar qué combinación de factores influye en estos modelos para dar ciertas respuestas.
En conclusión, pese a que la inteligencia artificial abre un abanico de amplias posibilidades y toda clase de aplicaciones, es fundamental hacer énfasis en la importancia de estos tres puntos: los datos, el objetivo y la explicabilidad. Sin ellos, no será posible disponer de una inteligencia artificial justa, ética y segura