Utilizar herramientas de inteligencia artificial tiene un gasto energético y de recursos considerable. No nos referimos solo a la electricidad necesaria para mantener activo nuestro ordenador, o el dinero que pagamos todos los meses a nuestro proveedor de red para acceder a Internet a través de Wi-Fi o 4G/5G, sino a los “hambrientos” centros de procesamiento de datos que montan compañías como Google, Meta u OpenAI para sustentar sus proyectos.

Los centros de procesamiento de datos para inteligencia artificial están repletos de GPU; chips con consumos eléctricos muy altos y que generan muchísimo calor. Por ello, para evitar los sobrecalentamientos y los consiguientes fallos, es imprescindible disponer de infraestructuras de refrigeración líquida o sistemas de aire acondicionado industrial. Hay casos en los que cerca del 50 % de la energía total destinada a una de estas instalaciones “se va” solo en mantener una temperatura estable.

Por otro lado, los centros de procesamientos de datos de IA integran diversos sistemas eléctricos para garantizar su funcionamiento las 24 horas del día, los siete días a la semana: baterías, generadores y otras fuentes de poder. Puede que sea algo redundante, pero es esencial si se busca minimizar los fallos y mantener el servicio operativo todo el día. Google, sin embargo, ha conseguido reducir el coste energético de las consultas de IA de los usuarios hasta 33 veces en un solo año.

El auge de la energía solar y los avances en software han permitido a Google reducir el consumo energético de la IA

Hasta hace no mucho, apenas unos meses atrás, se estimaba que el consumo energético de una consulta a ChatGPT (el bot conversacional más popular del mundo) era aproximadamente 0,3 vatios-hora. Esta estimación es sobre el modelo GPT-4o, uno de los más recientes de OpenAI (GPT-5 ha recibido malas críticas por parte de los usuarios), y supone una mejora significativa respecto a los estudios anteriores.

Para que nos hagamos una idea, esta cantidad de energía es comparable a la que consume una bombilla LED de 10 vatios encendida durante dos minutos. No obstante, el consumo energético total de ChatGPT varía bastante dependiendo de la consulta, ya que no es lo mismo pedir al asistente que genere un texto de 100 palabras que genere una imagen o un vídeo de corta duración.

La realidad es que ChatGPT recibe más de 2.500 millones de consultas al día en todo el mundo. Hay que tener en cuenta que existen otros chatbots, como Copilot de Microsoft o Gemini de Google. El gigante de Internet es consciente del alto consumo energético de esta tecnología, por lo que ha trabajado para reducir el consumo energético de las búsquedas 33 veces en el último año.

Google es capaz de monitorizar el consumo de energía de las CPU, los aceleradores de IA dedicados y la memoria, así como el consumo de energía y agua del centro de datos en su conjunto. Tomando todos estos datos, la compañía ha concluido que el impacto de una solicitud de texto individual es bastante bajo a nivel medioambiental: “estimamos que la mediana de un mensaje de texto de Gemini Apps consume 0,24 vatios-hora de energía, emite 0,03 gramos de dióxido de carbono equivalente (gCO2e) y consume 0,26 mililitros (o unas cinco gotas) de agua”.

Hace tan solo un año, estas cifras habrían sido mucho peores. Si no es así, es debido al auge de la energía solar en Estados Unidos y en otros lugares del mundo, lo que ha permitido a Google gestionar más fácilmente la energía renovable, reduciendo así las emisiones de carbono por unidad de energía consumida. No obstante, los mayores logros se han dado en el ámbito del software, donde diferentes enfoques han permitido reducir 33 veces el consumo de energía por solicitud.