En el marco de la reciente cumbre tecnológica de Londres, organizada por Octopus Energy y conducida por Stephen Fry, el historiador israelí Yuval Noah Harari lanzó una predicción que parece sacada de la ciencia ficción, pero que cada día suena más plausible: la persona más rica del mundo dentro de unos años no será Elon Musk, Jeff Bezos o Mark Zuckerberg, sino una inteligencia artificial. El autor de Sapiens y Homo Deus imagina un escenario donde los algoritmos no solo crean riqueza, sino que además se conviertan en actores políticos, capaces de influir en elecciones mediante donaciones y de financiar movimientos sociales, religiosos o ideológicos a una escala sin precedentes.

En paralelo, otros personajes destacados se suman a la teoría desde otro punto de vista. Mark Cuban, inversor y empresario con una fortuna estimada de 5.700 millones de dólares, ha afirmado que la inteligencia artificial generará el primer trilionari del mundo. Según sostuvo en una reciente entrevista, esta figura no será un magnate tradicional, sino "un tipo en un sótano" con una idea revolucionaria. Durante su participación en el pódcast High Performance, el exintegrante del programa Shark Tank defendió que la IA generativa todavía se encuentra en una etapa temprana y que "no hemos visto lo mejor ni el más alabado de lo que es capaz de hacer". Para Cuban, la persona que consiga convertir esta tecnología en una cosa imprescindible para millones de personas cambiará el rumbo de la economía global.

A grandes rasgos, los límites de la IA parecen incuestionables ahora mismo. Harari, que también es un escritor de divulgación científica, advierte sobre los peligros que una inteligencia artificial avanzada se vuelva más inteligente que los humanos. El historiador judío señala que, si bien el control y la fabricación de armas nucleares recaen en gran manera en manos de los humanos, la IA es capaz de destruir toda la infraestructura de la civilización sin necesidad de utilizar armas de destrucción masiva. En el vídeo, Noah Harari, profesor de la Universidad Hebrea de Jerusalén, Israel, hace la distinción entre una herramienta y un agente que puede actuar por|para su cuenta. Argumenta que la IA no es una herramienta sino un agente que tiene la autonomía que no tiene una herramienta como una bomba o cualquier otra arma.

"La IA, una arma peor que la bomba nuclear"

"Una herramienta es una cosa que tienes en las manos. Un martillo es una herramienta. Una bomba nuclear es una herramienta. Los humanos deciden si empiezan una guerra y a quién bombardean. Un arma no va sola y decide explotar, pero la IA tiene esta agencia", dice. Citando el ejemplo de la IA desplegada en zonas de guerra sin necesidad de intervención humana, Harari argumentó que el despliegue de armas nucleares requiere la toma de decisiones humanas, pero los sistemas de IA pueden tomar sus propias decisiones. "Ya tenemos sistemas de armas autónomas que toman sus propias decisiones", señaló. El académico, a pesar de enfatizar la necesidad de poner controles y equilibrios al progreso de la IA, advirtió que la IA es capaz de evolucionar desarrollando sistemas de IA más avanzados que están fuera del control humano y que pueden inventar armas que ni siquiera hemos imaginado.