El mundo acaba de descubrir que no hay suficiente electricidad para sostener la inteligencia artificial (IA). El caso más visible es el de Ámsterdam: el gobierno neerlandés frenó la construcción de nuevos centros de datos porque la red eléctrica ya no alcanza. Esto es una señal global, en casi todos los países desarrollados la demanda de energía crece a una velocidad que la infraestructura no puede igualar.
Los data centers, donde funcionan los modelos de IA que procesan nuestras búsquedas, traducen textos, crean imágenes o analizan mercados, se convirtieron en devoradores de electricidad. Cada vez que alguien entrena un modelo nuevo o hace millones de consultas a un asistente virtual, el consumo crece en una proporción que pocos entienden y casi nadie puede controlar.
Frente a este panorama, aparecen soluciones apresuradas. La más difundida es la que plantea la RAND Corporation, una institución con prestigio histórico en planificación tecnológica, que propone “exprimir” la red actual: usar mejor las líneas existentes, retrasar el cierre de plantas térmicas y acelerar los proyectos aprobados.
En teoría suena razonable, pero en la práctica es un paliativo. Es como intentar que un motor viejo corra una carrera agregándole más aceite. Puede servir un tiempo aunque no cambia nada. RAND parte de un diagnóstico correcto por la falta de capacidad inmediata, pero lo enfrenta con herramientas del siglo pasado. La red no necesita más remiendos, necesita una reorganización.
Otras voces reclaman construir nuevas centrales, más parques solares y eólicos, y más baterías. El problema es que la infraestructura eléctrica no se levanta de un día para otro, cada línea de alta tensión requiere permisos, oposición vecinal, acuerdos políticos y años de trabajo.
En algunos países europeos los proyectos tardan más de una década en conectarse. Además, la generación renovable es intermitente y no siempre coincide con los picos de consumo. Por eso se habla de combinarla con baterías, pero el costo de esas soluciones todavía es alto y su implementación masiva demanda tiempo, precisamente lo que no hay.
Los Países Bajos son hoy la muestra más visible de ese límite. La red nacional tiene miles de empresas esperando un punto de conexión, los municipios impusieron moratorias a los centros de datos y los operadores eléctricos admiten que, aun con todos los proyectos en marcha, no habrá energía suficiente antes de 2035.
Algo similar ocurre en Irlanda, donde los data centers consumen más del 20% de toda la capacidad del país. Estados Unidos enfrenta la misma tensión, con estados como Virginia o Texas, saturados por el crecimiento de las granjas de servidores. Lo que parecía un problema de ingeniería se convierte en una restricción económica y política.
Lo más sorprendente es que las soluciones discutidas en los foros oficiales no cuestionan la raíz del problema. Todos parten de la idea de que la demanda energética de la IA es un hecho natural e inmodificable.
Sin embargo, no lo es, ya que la IA no es una tormenta: es un conjunto de procesos diseñados por humanos, con márgenes de optimización. No se trata solo de producir más energía, sino de usarla de otra manera. Si las redes eléctricas no pueden expandirse al ritmo de la computación, entonces es la computación, es la que debe adaptarse al ritmo de la energía disponible.
Esa es la gran omisión del debate actual. Nadie advierte que la IA exige electricidad y también es la que ayuda a resolver el problema. Una IA administra los flujos de energía mejor que cualquier operador humano. Anticipa cuándo una región tendrá exceso de generación o cuándo conviene desplazar el consumo hacia horas valle.
Decide en tiempo real dónde conviene ejecutar una tarea pesada y dónde posponerla. Si cada centro de datos tuviera un sistema reorganizando su carga según la disponibilidad de energía, buena parte del problema se aliviaría sin construir una sola planta nueva.
Imaginemos que las grandes plataformas tecnológicas comparten información sobre el estado de sus redes, las tarifas, la oferta renovable y los pronósticos climáticos. Una IA central coordinará ese entramado como un cerebro que administra su propio cuerpo.
Cuando hay viento en Dinamarca y sol en España, el sistema mueve el procesamiento hacia esos lugares. Cuando cae la producción, traslada el trabajo a regiones con excedente. La IA se convierte en un agente que redistribuye el esfuerzo, no en una boca que solo pide más alimento.
También intervendrá dentro de los modelos, hoy los algoritmos se entrenan sin considerar el costo energético de cada cálculo. Sin embargo, existen métodos para reducir el consumo sin perder precisión: usar menos parámetros activos, ajustar dinámicamente la frecuencia de cómputo o suspender procesos cuando el aporte marginal es mínimo.
Todo esto, puede hacerse mediante algoritmos y ya hay empresas experimentando con lo que llaman “modelos conscientes de energía”. No es ciencia ficción; es una línea de desarrollo que recortará el gasto eléctrico de la IA en más del 40% si se aplica de forma global.
Mientras tanto, los gobiernos discuten si construir o no más centrales de gas, si aprobar líneas nuevas, si autorizar subestaciones. El debate gira alrededor del suministro, no de la gestión. Es el mismo reflejo de siempre: cuando falta algo, producir más.
Pero el cuello de botella energético del siglo XXI no se resuelve solo con producción. La verdadera innovación está en el uso inteligente de lo que ya existe. El planeta tiene suficiente energía, pero la distribuye mal, la usa peor y la desperdicia en ineficiencias que una IA detecta al instante.
La paradoja es evidente: la IA, lleva al límite la red eléctrica mundial, y es también la única herramienta capaz de reequilibrarla. Lo que falta no es electricidad, sino inteligencia aplicada a la electricidad. Mientras las instituciones repitan las recetas de siempre, cada avance en poder de cómputo significará más tensión, más plantas fósiles, más emisiones y más costos. En cambio, si se integra a la IA dentro del sistema energético, no como un consumidor sino como un gestor, el círculo se cierra.
La solución no está fuera del problema, está adentro. Los modelos que hoy consumen megavatios contribuirán a administrarlos con un rediseño mínimo. La pregunta no es cómo alimentar a la IA, sino cómo usar la IA para alimentar al mundo. Porque la electricidad no es infinita y el tiempo tampoco. Y la carrera por sostener la era digital ya no depende de más cables ni más turbinas, sino de una decisión mucho más simple: permitir que la IA, por una vez, piense en su propia energía.
Las cosas como son