Cuando se debate sobre impacto ambiental, siempre vienen a la mente coches, camiones, barcos, fábricas o centrales nucleares o térmicas; pero en rara ocasión se piensa en la inteligencia artificial. ¿Genera impacto? Pues, en realidad, sí. Y no precisamente poco.

Pantalla de ChatGPT
 

Uso de datos

Los sistemas de IA generativa serían imposibles sin los grandes centros de almacenamiento de datos, que son una de las infraestructuras más intensivas en consumo energético que se conocen. Las necesidades de refrigeración constante de estos equipamientos explican su gasto energético, pero hay más: Hugging Face y la Carnegie Mellon University de Pittsburgh acaban de realizar estudios de impacto ambiental concretos referidos a herramientas como DALL-E, ChatGPT o Midjourney. ChatGPT, que maneja 1,76 billones de parámetros genera en cada consulta que atiende el mismo impacto que un coche con motor de combustión circulando durante 6 km. En total, se han testado hasta 88 herramientas y las de OpenAI son las que más energía consumen.

¿Y el agua?

Aquí el estudio es responsabilidad de la Universidad de Cornell. Para desarrollar ChatGPT-3, señalan, se consumieron 700.000 litros de agua dulce limpia, que es lo mismo que se precisa para producir 320 Tesla Model 3. El análisis, sin embargo, va más allá: si nos fijamos en una conversación tipo con la herramienta (que incluye entre 20 y 50 intervenciones), se consume medio litro de agua. Cada día, ChatGPT atiende a 13 millones de visitantes, así que estamos hablando de un consumo diario de 7,5 millones de litros. Parece que ser usuario habitual de ChatGPT es más dañino para el medio ambiente que disfrutar de tanto en cuanto de baños en bañera llena.