Existe el famoso dicho, atribuido a John Lennon, de que "la vida es aquello que pasa mientras tú estás mirando hacia otro lado". Eso es el que me vino en la cabeza hace unos días al tener conocimiento de la declaración, que podríamos calificar incluso de alarmante, sobre los peligros de la inteligencia artificial hecha por más de un millar de gurús y expertos tecnológicos de primer nivel internacional. Una declaración que plantea, según los expertos, efectos "potencialmente catastróficos para la sociedad" si de manera inmediata no se hace una pausa en la actual "carrera fuera de control para desarrollar y desplegar mentes digitales cada vez más poderosas", en particular de sistemas de inteligencia artificial más potentes que el GPT-4.

Algo especialmente significativo si tenemos en cuenta que venía firmado por personalidades, algunas de ellas lo bastante controvertidas, como Elon Musk (propietario de TESLA y Twitter, y al mismo tiempo importando inversor en la investigación de inteligencia artificial), pero también Steve Wozniak (cofundador de Apple), científicos como Gary Marcus y tantos otros. En ningún caso se les puede acusar paso de tecnófobos, es decir, de adversarios al desarrollo tecnológico, más bien al contrario, cosa que todavía hace la cuestión más fascinante o preocupante, según cómo se mire. Un manifiesto que subraya los peligros derivados de una investigación de consecuencias imprevisibles, y en algunos casos con un potencial de alta peligrosidad, que se está llevando a cabo sin un marco regulador a nivel global o regional. De hecho, el objetivo de este parón que se propone sería precisamente dar tiempo a definir un marco regulador sólido que aporte seguridad y permita planificar y gestionar los enormes retos de una inteligencia artificial avanzada, teniendo en cuenta "el cambio profundo en la historia de la vida a la tierra" que esta podría provocar.

Como todo aquello que últimamente tiene que ver con Musk, enseguida la ha seguido la polémica. Por una parte, algunas de las personas que aparecían en la lista de signatarios han negado haberla firmado y otros critican el origen de la declaración, el Future of Life Institute, por estar demasiado ligado a la personalidad y financiación del mencionado Musk. Varios especialistas en el ámbito la han considerado sesgada, o incluso con una cierta voluntad de manipulación, en la medida en que es una declaración que habla de los riesgos de un mayor desarrollo de la inteligencia artificial, como si se quisiera evitar o incluso tapar los serios riesgos que ahora ya plantea en el estadio de desarrollo actual.

Sea como sea, es más que evidente la urgencia de crear un marco regulador a nivel internacional que ponga orden a esta cuestión. De hecho, ante la falta de una normativa global o europea, hay países que ya han tomado decisiones drásticas, como en el caso de Italia, que acaba de prohibir —aunque sea temporalmente— el ChatGPT, a raíz de las sospechas que no respeta la normativa sobre privacidad de aquel país. Anuncio hecho solo pocos días después de un contundente informe de EUROPOL sobre el potencial uso criminal de tecnologías como la mencionada y similares.

Ante esta sensación de vacío aparece, con un cierto punto por sorpresa, el Consejo de Europa: el decano de los organismos europeos, con sede en Estrasburgo, y el referente institucional en la defensa de los derechos humanos en nuestro continente. Resulta que este es precisamente uno de los organismos internacionales que hace más tiempo que trabaja en esta cuestión, y el que tiene más avanzada una propuesta de tratado internacional bajo el título "Convención sobre inteligencia artificial, derechos humanos, Democracia y estado de derecho" cuyo borrador, que se conoce como "Zero Draft", se hizo público a principios de este año.

Una propuesta de Convención que es el resultado del trabajo intenso de varios años, con procesos de consultas multiactores, estudios legales y de viabilidad, grupos de expertos —en uno de los cuales tuvo su papel como experta una catalana, de nombre Victòria Alsina, poco antes de convertirse en consellera— la versión final de la cual está previsto se presente para la aprobación de su Consejo de Ministros en noviembre de este año.

En paralelo, la Unión Europea también está trabajando en su propuesta de reglamentación, conocida como la "EU Artificial Intelligence ACT". En este caso, sin embargo, el procedimiento está ligeramente más atrasado y se prevé que la aprobación sea más tardía, hacia finales de 2023 o más bien principios de 2024. Además, al tratarse de una normativa limitada a los 27 países miembros, y con un enfoque más técnico y menos orientado a los derechos como lo es el del Consejo de Europa, comporta que el potencial regulador de la Convención impulsada por el Consejo de Europa tome todavía más vuelo. Y es que el simple hecho de que la Convención esté dirigida a la ratificación de los 46 Estados miembros del Consejo con respecto a los 27 de los que tiene la UE ya es suficientemente diferenciador. Pero es que además también estará abierta a países con estatus de observadores dentro del Consejo y que ya están participando de manera muy activa en las negociaciones, entre ellos Estados Unidos, Japón y Canadá. De hecho, no se descarta que, una vez aprobada, la Convención del Consejo de Europa se abra a la adhesión de terceros países de todas partes.

Prueba de esta relevancia son las maniobras hechas desde Bruselas para, primero, intentar ralentizar el proceso de elaboración de la Convención y, después, para asegurarse una posición preeminente de la Comisión Europea en las negociaciones que se llevan a cabo en Estrasburgo. Cabe destacar, también, los esfuerzos que se invierten desde los Estados Unidos en este proceso, con una posición muy agresiva que incluso ha conseguido apartar a las ONG de los estadios centrales de las negociaciones, cosa que ha sido recibido evidentemente con críticas.

En cualquier caso, las negociaciones, las preocupaciones y las expectativas son máximas. Por ejemplo, varios expertos consideran que tal como está concebida actualmente el Acta de la Unión Europea (la de Bruselas, no la de Estrasburgo) esta no respondería a todos los desafíos derivados de las capacidades que está mostrando el GPT-4, con los potenciales peligros que implicarían unos eventuales instrumentos de regulación que desde su nacimiento se quedaran cortos. Seguramente conscientes de eso, en los últimos tiempos, se está notando un cambio de actitud en el Parlamento Europeo, donde va creciendo el apoyo a favor de una regulación más amplia y contundente en el contexto UE.

De hecho, tenemos precedentes, en este caso con resultados bastante satisfactorios. Recordemos la gran polémica desatada sobre la cuestión de la clonación genética, a raíz del nacimiento de la oveja Dolly (el primer mamífero clonado) a mediados de los años 90 del siglo pasado, en especial ante las dudas que generaba la potencial aplicación de esta nueva tecnología en el ser humano. Pues bien, en aquel caso la UNESCO aprobó el verano de 1997 —menos de un año después del anuncio del nacimiento de Dolly— la Declaración Universal del Genoma Humano, que estableció las bases para la regulación desarrollada a posteriori sobre este aspecto a nivel internacional.

Tres décadas después, sin embargo, los ritmos han cambiado. Y mientras la velocidad —y competencia— en la investigación en inteligencia artificial parece desbocada; las capacidades de respuesta institucional, aunque existentes, son mucho más lentas. Confiemos en que finalmente se esté a la altura y que, como sociedad, con todos los retos que ya tenemos, no tengamos que añadirles los excesos de inteligencia, en este caso, artificial.