Centros de datos de IA enfrentan crecientes desafíos de energía y agua

Puntos clave
- Los centros de datos de IA dependen en gran medida de las GPUs que consumen mucha energía, lo que impulsa un aumento significativo en el uso de electricidad.
- El calor de las GPUs obliga a un enfriamiento intensivo, lo que aumenta dramáticamente el consumo de agua.
- Los métodos de enfriamiento tradicionales consumen miles de millones de litros de agua anualmente.
- La refrigeración líquida de circuito cerrado y el enfriamiento de chips microfluídicos ofrecen ganancias significativas en la reducción de calor.
- Las soluciones de enfriamiento libre y geotérmico se están probando para reducir el uso de agua y energía.
- Se insta a la transparencia sobre las emisiones y el uso de recursos por parte de los expertos de la industria.
- Los modelos de IA más pequeños y ajustados y un mejor diseño de hardware pueden reducir la demanda general.
El auge de las cargas de trabajo de IA está impulsando la expansión rápida de centros de datos que dependen en gran medida de GPUs, que consumen mucha más energía y generan mucho más calor que las CPUs tradicionales. Este crecimiento está poniendo a prueba los suministros de electricidad y aumentando dramáticamente el uso de agua para enfriamiento. Los líderes de la industria están explorando la refrigeración líquida, los chips microfluídicos, el enfriamiento libre y las opciones geotérmicas, mientras que los expertos piden una mayor transparencia, un diseño de hardware más inteligente y un uso más eficiente de los modelos para reducir el impacto ambiental.
Creciente demanda de recursos
La adopción rápida de la IA ha impulsado la construcción de nuevos centros de datos llenos de unidades de procesamiento gráfico (GPUs). A diferencia de las CPUs, las GPUs "activan todas las unidades de procesamiento al mismo tiempo", lo que lleva a un mayor consumo de energía y producción de calor. El uso de electricidad informado aumentó de aproximadamente 60 TWh en los primeros años a 176 TWh en 2023, lo que hizo que el uso de energía de los centros de datos pasara de alrededor del 1,9 por ciento a casi el 4,4 por ciento del consumo total de EE. UU.
El calor generado por las GPUs debe ser controlado para mantener el rendimiento y la longevidad. Las pautas estándar recomiendan mantener las salas de servidores entre 18 °C y 27 °C (64,4 °F y 80,6 °F). Cumplir con estos límites requiere un enfriamiento intensivo, lo que a su vez impulsa el consumo de agua.
Enfriamiento y uso de agua
Los métodos de enfriamiento tradicionales, como el confinamiento de pasillos calientes y fríos, el enfriamiento evaporativo directo e indirecto, dependen de grandes volúmenes de agua. Los centros de datos de EE. UU. consumieron 21.200 millones de litros de agua en 2014, y esta cantidad aumentó a 66.000 millones de litros en 2018. Las instalaciones centradas en la IA solas utilizaron alrededor de 55.400 millones de litros en 2023, y se proyecta que esta cantidad podría aumentar a 124.000 millones de litros para 2028.
Gran parte de esta agua, sin embargo, se pierde por evaporación o se trata con productos químicos, lo que limita su reutilización. El uso indirecto de agua, principalmente de las centrales eléctricas que suministran electricidad, representa aproximadamente tres cuartos de la huella hídrica total de un centro de datos.
Soluciones sostenibles emergentes
Las empresas están probando una serie de innovaciones de enfriamiento. La refrigeración líquida de circuito cerrado, ya común en los PCs de alta gama, se está adoptando en los centros de datos de IA para reciclar el refrigerante sin pérdidas. El sistema de enfriamiento microfluídico de Microsoft demostró una eliminación de calor hasta tres veces mejor que las placas frías tradicionales, reduciendo la subida de temperatura del silicio de la GPU en un 65 por ciento en las pruebas de laboratorio.
El enfriamiento libre aprovecha el aire ambiental o el agua de mar, a veces combinado con la recolección de agua de lluvia. El Start Campus en Portugal planea circular el agua de mar a través de su bucle de enfriamiento, prometiendo no tener pérdidas de agua significativas. El enfriamiento por inmersión, que sumerge el hardware en líquidos no conductores, sigue siendo una nicho, pero muestra promesa para aplicaciones específicas.
Las opciones geotérmicas están ganando tracción. Iron Mountain Data Centers utiliza un reservorio subterráneo de 35 acres para enfriamiento durante todo el año, mientras que Meta ha colaborado con Sage Geosystems para obtener hasta 150 MW de energía geotérmica para futuras instalaciones.
La industria pide transparencia y eficiencia
Los expertos enfatizan que una mayor transparencia sobre las emisiones y el uso de recursos es esencial. Vijay Gadepally, del Laboratorio Lincoln del MIT, insta a las empresas de IA a revelar sus huellas y a priorizar diseños de chips más inteligentes y un mejor uso de la capacidad existente. Observa que muchos modelos de IA están "sobre dimensionados", sugiriendo que los modelos más pequeños y ajustados pueden lograr un rendimiento comparable mientras reducen el desperdicio computacional.
Al centrarse en el hardware eficiente, la asignación de cargas de trabajo más inteligente y el enfriamiento sostenible, la industria puede mitigar la presión sobre las redes eléctricas y los suministros de agua, evitando "apagones, menos agua potable y aumento de los costos de servicios públicos" para las comunidades circundantes.