Por qué los centros de datos de IA consumen tanta energía
Los centros de datos de IA consumen hasta diez veces más electricidad que las instalaciones tradicionales, impulsados por las GPU hambrientas de energía, los sistemas de refrigeración masivos y el funcionamiento ininterrumpido. A medida que se proyecta que la demanda mundial de electricidad de los centros de datos se duplique para 2030, la huella energética de la inteligencia artificial está remodelando las redes eléctricas en todo el mundo.
La magnitud del problema
Cada vez que alguien le hace una pregunta a un chatbot de IA, genera una imagen o utiliza un asistente inteligente, se desencadena una reacción en cadena de cálculos dentro de un centro de datos en algún lugar del mundo. Esa única consulta de IA consume aproximadamente diez veces más electricidad que una búsqueda tradicional en Google: alrededor de 0,3 vatios-hora en comparación con 0,0003 kilovatios-hora. Multiplique eso por miles de millones de solicitudes diarias y las cifras se vuelven asombrosas.
El consumo mundial de electricidad de los centros de datos alcanzó aproximadamente 415 teravatios-hora (TWh) en 2024, lo que representa alrededor del 1,5% del uso total de electricidad en el mundo, según la Agencia Internacional de Energía (AIE). Solo en Estados Unidos, los centros de datos consumieron 183 TWh, más del 4% del consumo nacional de electricidad. La AIE proyecta que esta cifra se duplicará para 2030, creciendo a un ritmo de aproximadamente el 15% anual, cuatro veces más rápido que la demanda de electricidad de todos los demás sectores combinados.
Por qué las GPU consumen tanta energía
El principal impulsor es el propio hardware. Los servidores tradicionales que ejecutan sitios web y bases de datos consumen entre 300 y 500 vatios. Un servidor optimizado para IA y equipado con unidades de procesamiento gráfico (GPU) consume de 3.000 a 5.000 vatios o más, hasta diez veces la potencia, según investigadores del MIT.
Entrenar un modelo de IA grande requiere miles de GPU funcionando casi a plena utilización durante semanas o meses. Durante el entrenamiento, las GPU suelen funcionar a alrededor del 93% de su capacidad, manteniendo un consumo de energía enorme y continuo que las cargas de trabajo informáticas tradicionales nunca alcanzaron. Incluso después del entrenamiento, cada respuesta de IA que recibe un usuario requiere inferencia, el proceso de ejecutar datos a través del modelo terminado, que en conjunto consume aún más energía que el propio entrenamiento a medida que se escala el uso.
Refrigeración: el impuesto energético oculto
Las GPU y las CPU representan aproximadamente el 60% de la factura de electricidad de un centro de datos. Gran parte del resto se destina a la refrigeración. Los servidores generan un calor intenso y, a medida que la IA aumenta la densidad de potencia, las demandas de refrigeración aumentan al mismo ritmo.
La mayoría de las instalaciones dependen de la refrigeración por evaporación, que intercambia agua por eficiencia energética. Un solo centro de datos grande puede consumir cinco millones de galones de agua por día, lo que equivale a las necesidades de una ciudad de 50.000 personas, según la Brookings Institution. En el norte de Virginia, el corredor de centros de datos más grande del mundo, las instalaciones consumieron casi dos mil millones de galones de agua en 2023, un aumento del 63% con respecto a 2019.
Cómo está respondiendo la gran tecnología
La industria está implementando varias estrategias para gestionar su creciente huella:
- Energía nuclear: Meta ha firmado acuerdos por más de seis gigavatios de energía nuclear, suficiente para abastecer a aproximadamente cinco millones de hogares. Microsoft y Amazon han hecho compromisos similares.
- Refrigeración avanzada: Las tecnologías de refrigeración directa al chip y por inmersión pueden reducir el consumo de agua entre un 20 y un 90% y reducir las necesidades de energía de las instalaciones hasta en un 18%, según el clima y el diseño.
- Eficiencia del software: Técnicas como la cuantificación y la destilación de modelos reducen los modelos de IA para que requieran menos cálculos por consulta, lo que reduce la energía por respuesta.
- Adquisición de energías renovables: Los principales proveedores de la nube se han comprometido a igualar el 100% de su uso de electricidad con compras de energía renovable, aunque los críticos señalan que esto a menudo se basa en compensaciones contables en lugar de energía limpia directa.
Qué viene después
La trayectoria es clara. La AIE proyecta que Estados Unidos y China representarán casi el 80% del crecimiento mundial de la electricidad de los centros de datos hasta 2030, y el consumo solo en Estados Unidos aumentará aproximadamente un 130%. El campus Hyperion planeado por Meta en Luisiana requerirá al menos cinco gigavatios, tres veces el consumo de electricidad de Nueva Orleans, lo que impulsó a la empresa de servicios públicos local a acelerar la construcción de nuevas plantas de energía a gas.
A medida que la IA se integra en todo, desde el diagnóstico de la atención médica hasta los vehículos autónomos, la pregunta ya no es si los centros de datos remodelarán las redes eléctricas, sino con qué rapidez las sociedades pueden construir la infraestructura energética para mantenerse al día.