Hace unos meses era Bill Gates quien advertía sobre el asunto: la IA es potencialmente tan disruptiva como en su día lo fue la energía nuclear. Por supuesto, no escogía a la energía del átomo porque sí. Después, aquí en España, fue Álvarez Pallete quien alertaba de la necesidad de un nuevo contrato social para hacer frente a los desafíos que plantea la generalización del uso de los sistemas de IA en administraciones y empresas. En sectores concretos, como por ejemplo el de los recursos humanos, ya existe cierta alerta sobre los sesgos que estas herramientas podrían introducir. Con todo, no es nada nuevo: en 2018, Stephen Hawking ya había advertido sobre lo que la IA podía traer consigo.

En 'Respuestas breves a las grandes preguntas'
Sus reflexiones sobre este particular aparecen en Breves respuestas a grandes preguntas, el libro que se publicó tras su fallecimiento. La IA, consideró en su día Hawking, podría llegar a generar una situación que definió como explosión de inteligencia que podría dejar a la Humanidad “muy por detrás” de las máquinas en términos de capacidad cognitiva. Este particular ha sido planteado ya en la ficción y no una, sino muchas veces. ¿Te suenan Skynet y HAL 9000? Pues de eso, precisamente hablaba Hawking hace un lustro.
Hay que tomársela en serio
Más que como una predicción apocalíptica –en 2014 indicó, literalmente, que el desarrollo de una IA completa podría acabar con la raza humana- sus palabras deben tomarse como una advertencia: en sí, es lo mismo que Bill Gates formuló al comparar la IA con la energía nuclear. En sí, no hay más que lo de siempre: no mata el puñal, mata quien lo empuña; pero hay un cambio que no es baladí y que tiene que ver con que, ahora, existe la posibilidad de que, un día, alguien pueda crear un puñal capaz de matar solo. La culpa, con todo, será de quien decida crear algo así. Por eso, además de Gates y Hawking, Álvarez Pallete tiene razón: hace falta un nuevo contrato social que fije claramente los límites que aplicaremos a estas tecnologías disruptivas. De todos depende.