Refrigeración líquida: de opción experimental a imperativo en los centros de datos

Hace apenas una década, la refrigeración líquida en centros de datos era vista como una curiosidad tecnológica, reservada a supercomputadoras, laboratorios de investigación o proyectos de nicho. Hoy, sin embargo, se ha convertido en el tema central de la industria. Lo que parecía un futuro lejano se ha materializado con una rapidez vertiginosa: los hiperescalares, las empresas de inteligencia artificial y hasta los operadores tradicionales ya no se preguntan si la adoptarán, sino cómo y cuándo.

¿Cómo hemos llegado tan rápido a este punto? La respuesta está en la combinación de tres fuerzas imparables: el crecimiento exponencial de la demanda de computación, la densidad energética de las nuevas generaciones de chips y la presión por la sostenibilidad.


La tormenta perfecta: más potencia, más calor

Durante años, la refrigeración por aire fue suficiente. Ventiladores, bandejas de aire frío y pasillos calientes servían para disipar el calor de CPUs y servidores. Pero la llegada de la inteligencia artificial generativa lo ha cambiado todo.

  • Los nuevos aceleradores de GPU como los NVIDIA Blackwell GB200 o los AMD MI300X alcanzan consumos por chip de 1.000 vatios o más.
  • Las configuraciones de racks en centros de datos de IA ya exigen densidades de 50, 75 e incluso 100 kW por rack, cuando hace solo cinco años 10-15 kW se consideraba alto.
  • Las proyecciones de la Agencia Internacional de la Energía apuntan a que los centros de datos podrían consumir hasta el 12% de la electricidad total de EE. UU. en 2028, en gran parte debido a la IA.

El aire, simplemente, ya no da la talla. La física es implacable: la conductividad térmica del agua es 3.500 veces superior a la del aire. En un mundo donde la computación de alto rendimiento (HPC) y la IA exigen disipar cientos de kilovatios en espacios compactos, la transición a refrigeración líquida no es opcional: es inevitable.


De la HPC al mainstream: el salto acelerado

La refrigeración líquida no es nueva. Supercomputadores como el IBM Blue Gene/Q o el MareNostrum en Barcelona ya utilizaban soluciones líquidas parciales hace más de una década. Pero eran excepciones.

El cambio radical ha venido en los últimos tres años:

  1. Hiperdensidad impulsada por la IA
    Con clusters de 24.000 GPUs o más, como los que ya operan Meta, Microsoft o Google, el calor generado no puede manejarse solo con aire.
  2. Estandarización industrial
    La Open Compute Project (OCP), junto con fabricantes como NVIDIA, Intel, AMD y Meta, ha impulsado estándares de racks y conectores que facilitan el despliegue masivo de refrigeración líquida.
  3. Infraestructuras existentes adaptadas
    Operadores como Equinix, Digital Realty o NTT están invirtiendo en retrofitting de sus centros de datos para introducir liquid-to-chip o rear-door heat exchangers, sin tener que reconstruir desde cero.
  4. Sostenibilidad y presión regulatoria
    La Unión Europea y EE. UU. han empezado a exigir eficiencia energética e hídrica, y los sistemas líquidos, especialmente en circuitos cerrados, consumen mucha menos agua que los sistemas evaporativos tradicionales.

Tipologías de refrigeración líquida

La industria no se mueve en una sola dirección. Hay varias tecnologías en despliegue, cada una con sus ventajas y retos:

  • Liquid-to-chip (L2C): el sistema más extendido, con placas frías que llevan líquido directamente a CPUs y GPUs.
  • Rear Door Heat Exchanger (RDHx): intercambiadores en la parte trasera del rack, ideales para retrofits rápidos.
  • Inmersión total (Immersion Cooling): servidores sumergidos en fluidos dieléctricos, con la mejor eficiencia pero mayor complejidad de adopción.
  • Spray Cooling y soluciones híbridas: tecnologías emergentes que buscan equilibrio entre coste y densidad.

Los grandes actores se alinean

  • Meta ya ha anunciado que sus pods Catalina con NVIDIA GB200 adoptarán enfriamiento líquido asistido por aire (AALC) en todos sus data centers.
  • Microsoft prueba desde 2021 refrigeración por inmersión en sus instalaciones de Quincy, Washington.
  • Equinix y Vantage Data Centers están desplegando campuses preparados para racks de 250 kW con liquid cooling de serie.
  • Huawei y Tencent en China ya reportan más de 30% de sus cargas de IA con enfriamiento líquido.

La conclusión es clara: la refrigeración líquida ya no es experimental, es estándar para IA y HPC.


Más allá del calor: eficiencia y sostenibilidad

Un argumento clave a favor del liquid cooling es que no solo enfría mejor, sino que es más sostenible.

  • Los sistemas de inmersión y L2C reducen el consumo de agua hasta en un 90% frente a los sistemas de torres evaporativas.
  • El calor residual puede ser reutilizado para calefacción urbana o procesos industriales, algo ya explorado en países como Suecia o Dinamarca.
  • Al reducir la carga de climatización, los PUE (Power Usage Effectiveness) pueden acercarse al ideal de 1,1 o incluso menos.

Desafíos de la transición

Sin embargo, el cambio no está exento de retos:

  1. Coste de despliegue: adaptar centros de datos existentes requiere inversiones millonarias.
  2. Mantenimiento especializado: fugas, corrosión y manipulación de fluidos exigen nuevas habilidades en el personal.
  3. Compatibilidad de hardware: no todos los servidores están preparados para liquid cooling; el ecosistema aún está en maduración.
  4. Percepción de riesgo: aunque la tecnología es segura, muchos operadores todavía temen al “agua cerca de la electrónica”.

¿Y el futuro?

Todo apunta a que la refrigeración líquida no solo será mayoritaria en la IA y la HPC, sino que se extenderá progresivamente al cloud y a la empresa tradicional.

Los analistas prevén que, para 2030, más del 50% de la capacidad de los nuevos centros de datos hyperscale estará diseñada con liquid cooling de serie.

La tendencia podría incluso acelerarse con la llegada de chips de 2.000 vatios por die en la próxima generación de aceleradores y con el avance de sistemas de fusión modular y celdas de combustible, que permitirán densidades energéticas sin precedentes.


Conclusión

Lo que empezó como una curiosidad tecnológica es ya un imperativo industrial. La refrigeración líquida ha pasado de ser “el futuro” a ser el presente necesario para sostener el auge de la inteligencia artificial y la computación de alto rendimiento.

La pregunta ya no es si veremos más adopción, sino qué modelos se impondrán y quién liderará esta transición: ¿serán los hiperescalares de siempre, o veremos a nuevos actores especializados en eficiencia térmica convertirse en protagonistas de la nueva era?


Preguntas frecuentes (FAQ)

¿Por qué la refrigeración líquida es más eficiente que el aire?
Porque el agua conduce el calor 3.500 veces mejor que el aire. Esto permite disipar cargas mucho mayores en espacios reducidos.

¿Qué densidades de rack requieren refrigeración líquida?
A partir de 50 kW por rack, el aire empieza a ser insuficiente. En entornos de IA se manejan ya racks de 100-250 kW.

¿Qué modelo de refrigeración líquida es más común hoy?
El liquid-to-chip (L2C), con placas frías directamente sobre procesadores y GPUs, es el más extendido en hyperscalers.

¿Es más cara la refrigeración líquida?
La inversión inicial es mayor, pero a medio plazo reduce costes operativos (energía, agua) y aumenta la eficiencia (PUE bajo).

encuentra artículos

newsletter

Recibe toda la actualidad del sector tech y cloud en tu email de la mano de RevistaCloud.com.

Suscripción boletín

LO ÚLTIMO

×