Expertos tecnológicos, científicos, políticos y empresarios se han unido para firmar conjuntamente una carta que alerta de los peligros de desarrollo desenfrenado de la inteligencia artificial (IA). Sin embargo, la carta no es solo una queja, también es propositiva. Se propone que los experimentos actuales de IA se suspendan durante seis meses. ¿Por qué? Para tener tiempo para valorar los potenciales riesgos de esta tecnología y generar un marco legal sólido en torno a la IA.

La sociedad ha hecho una pausa en otras tecnologías con efectos potencialmente catastróficos para la sociedad. Podemos hacerlo aquí. Disfrutamos de una larga pausa veraniega de la IA y no nos apresuramos a caer sin estar preparados", se acuerda en la carta de que lleva firmas de figuras tan destacadas como el director ejecutivo de Tesla, Elon Musk, el cofundador de Apple Steve Wozniak, los investigadores norteamericanos Yoshua Bengio, Stuart Russel o los españoles Carles Sierra y Ramón López De Mantaras.

"La IA avanzada podría representar un cambio profundo en la historia de la vida a la tierra, y se tendría que planificar y gestionar con el cuidado y los recursos correspondientes", se remarca en la misiva. También se advierte que la fiebre por la IA ha desembocado en una "carrera fuera de control para desarrollar y desplegar mentes digitales cada vez más poderosas".

Esta carrera sin control en un mercado radicalmente competitivo y con nula regulación ciega un aspecto fundamental de esta nueva tecnología que se recuerda a la carta: "nadie -ni siquiera sus creadores- puede entender, predecir o controlar de manera fiable" estas mentes digitales. Es decir, se pide dar un paso atrás para analizar la situación a la cual se ha llegado en esta carrera tecnológica en que se han tenido poco en cuenta algunas posibles consecuencias.

Una petición para frenar temporalmente

"Hacemos un llamamiento a todos los laboratorios de IA para que detengan inmediatamente durante al menos seis meses el entrenamiento de los sistemas de IA más potentes que GPT-4, recoge el texto, donde se subraya repetidamente que los sistemas potentes de inteligencia artificial solo se tienen que desarrollar cuando haya la seguridad de que los efectos son positivos y los riesgos son manejables. La carta no es tecnofobia, ya que concluye expresando la esperanza de que esta nueva tecnológica salga adelante siendo precisa, segura, transparente, fiable y leal.

En una entrevista con elNacional.cat hace unas semanas, Judith Membrives y Llorens, técnica de digitalización de Lafede.cat, ya apostaba por parar temporalmente la evolución de la IA para adaptar a la sociedad, pero remarcaba que en aquel momento (y probablemente todavía) no era una opción muy popular en el sector. "Eso no quiere decir que nunca se pueda utilizar, sino que de momento no estamos ni social ni legalmente lo bastante avanzados para poder introducir ciertas tecnologías", remarcaba.