El desarrollo y la expansión de la inteligencia artificial generativa, aquella capaz de crear texto, imágenes o respuestas conversacionales de una manera aparentemente humana, se ha plantado en el panorama tecnológico como una revolución sin precedentes. Sin embargo, este progreso lleva asociada una sombra alargada y a menudo invisibilizada: un coste ambiental de dimensiones alarmantes.

Estudios recientes revelan un dato que ilumina este dilema: los modelos conversacionales más complejos y potentes pueden llegar a generar hasta cincuenta veces más emisiones de dióxido de carbono que sistemas mucho más sencillos, todo procesando preguntas básicas con una eficacia similar. Esta cifra no es solo una anécdota técnica, sino el síntoma de uno de los grandes retos que afronta el despliegue masivo de esta tecnología de cara a los próximos años: su enorme y creciente huella energética y climática.

En contraste con otros sectores industrializados, como podrían ser la aviación o el transporte por carretera, el consumo energético del universo digital ha sido objeto de un análisis mucho más superficial y limitado. El profesor Rubén Cuevas, especialista en Ingeniería Telemática de la Universidad Carlos III de Madrid, cree que el consumo digital constituye una de las dimensiones del cambio climático que resulta menos tangible y visible para el ciudadano.

Nuestra actividad cotidiana, aparentemente limpia y etérea, alimenta un ecosistema tecnológico inmenso: cada videollamada, cada correo electrónico enviado, cada anuncio publicitario que aparece en una página web y, ahora de forma muy destacada, cada interacción con una inteligencia artificial generativa, suman su pequeña contribución a una demanda energética global cuyo impacto raramente ha sido medido o cuantificado con rigor.

El potencial de estos sistemas conversacionales, basados en redes neuronales y aprendizaje automático profundo, es, sin duda, colosal y promete transformar industrias y nuestra relación con la información. Pero paralelamente, su huella sobre el clima también adquiere proporciones gigantescas. Los expertos alertan que una acción tan sencilla como realizar una decena de consultas a uno de estos modelos puede suponer la emisión de unos cien gramos de dióxido de carbono a la atmósfera.

Esta cifra, multiplicada por los millones de interacciones que se producen diariamente a escala mundial, dibuja un panorama preocupante. La razón de este consumo desmesurado radica en la naturaleza misma de la tecnología: se trata de modelos que exigen una capacidad de cálculo extraordinaria, sustentada por enormes infraestructuras de computación en grandes centros de datos. Esta maquinaria, que funciona sin descanso, se traduce en una demanda eléctrica desbordante y en un impacto climático que crece de forma exponencial.

El crecimiento exponencial de los grandes modelos de inteligencia artificial está generando una presión sin precedentes sobre la red eléctrica global. Conocer el consumo exacto de un centro de datos es una tarea compleja debido a la escasa transparencia que caracteriza a esta industria, pero los expertos estiman que, en momentos de máxima demanda, estas instalaciones pueden llegar a requerir potencias de hasta doscientos megavatios. Para ponerlo en perspectiva, un centro de datos de dimensiones reducidas puede consumir entre uno y dos gigavatios-hora al año, mientras que un centro de gran envergadura puede fácilmente alcanzar los doscientos o trescientos gigavatios-hora anuales.

El profesor Cuevas ofrece una comparación elocuente: si tomamos el valor más alto y lo contrastamos con el consumo medio de un hogar en España, que se mueve alrededor de los tres mil quinientos kilovatios-hora anuales, llegamos a la conclusión de que un solo centro de datos grande puede equivaler al consumo eléctrico anual de entre 85.000 y 90.000 viviendas.

Ante esta realidad, su afirmación es contundente: no hay energía suficiente a escala global para alimentar la inteligencia artificial, tal como se está planteando hoy en día. Frente a este escenario de restricciones energéticas, las grandes corporaciones tecnológicas ya exploran diversas vías para asegurar el suministro. Una de las opciones que se contempla es la construcción de microrreactores nucleares adosados a los mismos centros de datos, una solución técnicamente compleja que comporta largos plazos de desarrollo y los conocidos retos de la gestión de residuos radiactivos.

Otra vía pasa por la firma de acuerdos directos con compañías gasistas para garantizar un flujo constante de energía, una alternativa que, según advierte el experto, se aleja ostensiblemente de los compromisos climáticos europeos de reducción de emisiones de gases de efecto invernadero. Desde el ámbito institucional, la Secretaría de Estado de Digitalización e Inteligencia Artificial del gobierno español ha iniciado el Plan Nacional de Algoritmos Verdes y trabaja ya en el establecimiento de estándares para medir el consumo energético de los modelos de IA. 

La conclusión del profesor Cuevas apunta a la necesidad de un cambio de paradigma. El objetivo final no debería ser renunciar a los beneficios de la inteligencia artificial, sino diseñar y utilizar una tecnología que permita a cualquier empresa o usuario individual aprovechar sus avances sin disparar el consumo energético de manera incontrolada. Se trata, en definitiva, de encontrar el camino para progresar sin comprometer de forma irreversible la sostenibilidad del planeta, integrando la conciencia ambiental en el mismo corazón de la revolución digital.