ASUS refuerza la refrigeración líquida para racks de IA y se prepara para la era “Vera Rubin”

La carrera por la Inteligencia Artificial ya no se mide solo en teraflops. En 2026, el freno más habitual en los centros de datos de alto rendimiento se llama calor. A medida que los racks se llenan de CPU y GPU cada vez más densas, la refrigeración por aire empieza a quedarse corta y la discusión se desplaza hacia la eficiencia térmica, el consumo eléctrico y el coste total de operación. En ese contexto, ASUS ha presentado sus Optimized Liquid-Cooling Solutions junto a un “marco estratégico” de socios con el que busca estandarizar el despliegue de refrigeración líquida para infraestructuras de IA y HPC de próxima generación.

La propuesta llega con una idea de fondo: los centros de datos que se están diseñando para plataformas de IA a escala de rack —ASUS cita explícitamente entornos basados en futuros sistemas NVIDIA Vera Rubin NVL72— exigirán soluciones térmicas más agresivas, pero también más industrializables. No basta con enfriar; hay que hacerlo de forma repetible, escalable y con soporte global, porque el problema ya no es un laboratorio: es el despliegue masivo.

Un catálogo “de punta a punta”: direct-to-chip, CDU en fila e híbridos

ASUS articula su oferta como un portfolio completo con tres enfoques principales:

  • Direct-to-chip (D2C): refrigeración líquida directa sobre los componentes, pensada para extraer calor allí donde se genera, reduciendo la dependencia de grandes caudales de aire.
  • CDU in-row: unidades de distribución de refrigerante ubicadas “en fila” (junto a los racks) para gestionar el intercambio térmico y facilitar despliegues densos sin convertir cada instalación en un proyecto artesanal.
  • Diseños híbridos: combinaciones de aire y líquido para casos donde la transición total a líquido no es inmediata o donde la arquitectura lo aconseja.

En su comunicación, ASUS insiste en que esta aproximación busca atacar a la vez tres presiones que se han vuelto críticas: densidad, potencia y eficiencia energética. El mensaje es pragmático: cuanto más se sube el listón de cómputo por rack, más se estrecha el margen térmico y más caro resulta “equivocarse” en el diseño.

Un “ecosistema validado” para desplegar a escala

Una de las partes más interesantes del anuncio es la insistencia en el marco de socios. ASUS no quiere vender únicamente piezas de refrigeración, sino presentarse como integrador capaz de orquestar un despliegue end-to-end con proveedores de infraestructura y componentes.

En ese esquema aparecen nombres como Schneider Electric y Vertiv como socios de infraestructura, y fabricantes de componentes de precisión como Auras Technology y Cooler Master, además de “otros líderes del sector”. La lectura es clara: la refrigeración líquida, cuando se lleva al extremo de racks ultra densos, requiere coordinación fina entre mecánica, hidráulica, sensórica, materiales y operación, y esa coordinación es más sencilla cuando existe una lista de integración “conocida” y probada.

ASUS acompaña el anuncio con cifras que buscan reforzar credibilidad técnica: afirma contar con 2.156 récords “n.º 1” en SPEC CPU® y 248 resultados “n.º 1” en MLPerf™. La compañía lo utiliza como argumento de “validación en el mundo real” y como señal de que su experiencia no se limita al chasis, sino que toca rendimiento y densidad computacional.

Caso de despliegue: un superordenador de IA refrigerado por líquido en Taiwán

Para dar peso a la narrativa, ASUS pone sobre la mesa un ejemplo concreto: su despliegue para el National Center for High-performance Computing (NCHC), dependiente de los National Institutes of Applied Research (NIAR) en Taiwán. En ese proyecto, ASUS describe una arquitectura de doble cómputo con un clúster Nano4 NVIDIA HGX H200 y un sistema NVIDIA GB200 NVL72, presentado como el primer despliegue en Taiwán de un superordenador de IA completamente refrigerado por líquido con esa arquitectura.

El dato que la empresa subraya para este despliegue es el PUE de 1,18, una cifra que en el sector se interpreta como señal de eficiencia energética notable para instalaciones de alta densidad. ASUS lo atribuye a su implementación de refrigeración líquida directa (DLC), diseñada “desde cero” para equilibrar rendimiento y sostenibilidad operativa.

En documentación adicional ligada al mismo caso, ASUS señala que el sistema Nano4 alcanzó 81,55 PFLOPS y logró el puesto n.º 29 en el TOP500, una forma de contextualizar que no se trata solo de “enfriar”, sino de hacerlo en entornos que compiten por rendimiento global.

GTC 2026: ASUS quiere enseñar músculo en el escaparate de Nvidia

El anuncio se alinea con un calendario muy concreto: NVIDIA GTC 2026, del 16 al 19 de marzo en San José (EE. UU.). ASUS acudirá como Diamond Sponsor y sitúa su presencia en el stand #421, bajo el lema “Trusted AI, Total Flexibility”. El objetivo declarado es mostrar una “nueva generación” de ecosistema de refrigeración líquida junto a Nvidia y socios de infraestructura.

La decisión no es casual. GTC se ha convertido en el punto donde el ecosistema valida, compara y negocia el futuro inmediato de la infraestructura de IA. Y, con el mercado obsesionado con límites térmicos y eléctricos, la refrigeración líquida ya no es un accesorio: es parte del producto.

Lo que se juega el sector: menos aire, más líquido y menos improvisación

Detrás del anuncio de ASUS hay una tendencia que se consolida: el salto hacia plataformas de IA a escala de rack y aceleradores cada vez más densos está empujando al mercado a un modelo donde la refrigeración líquida deja de ser “premium” y pasa a ser condición de viabilidad. En esa transición, el valor no está solo en el diseño térmico, sino en la capacidad de desplegarlo con partners, piezas y procedimientos repetibles.

Si la próxima ola de centros de datos para IA va a vivir bajo restricciones de potencia, espacio y sostenibilidad, la batalla por el rendimiento se librará en el mismo lugar de siempre: en el equilibrio entre calor, energía y coste. ASUS quiere posicionarse justo ahí.


Preguntas frecuentes (FAQ)

¿Qué es la refrigeración líquida direct-to-chip (D2C) en racks de IA y cuándo compensa?
Es un enfoque que lleva el líquido refrigerante directamente a CPU y GPU para extraer calor en el origen. Suele compensar en racks de alta densidad donde el aire no puede evacuar suficiente calor sin aumentar de forma desproporcionada el consumo y el ruido.

¿Para qué sirve un CDU in-row en centros de datos con GPU a escala de rack?
Un CDU (Coolant Distribution Unit) en fila ayuda a gestionar caudal, temperatura y distribución del refrigerante cerca de los racks, facilitando despliegues escalables y reduciendo complejidad hidráulica por rack.

¿Qué significa PUE 1,18 en un despliegue de supercomputación con refrigeración líquida?
El PUE compara la energía total del centro de datos con la energía consumida por el equipamiento IT. Un 1,18 sugiere que la sobrecarga energética de la instalación (refrigeración, pérdidas, auxiliares) es relativamente baja para un entorno de alta densidad.

¿Por qué la refrigeración líquida es clave para sistemas tipo NVL72 y futuras plataformas de IA?
Porque concentran grandes niveles de potencia por rack. A medida que sube la densidad de aceleradores, el límite práctico lo marca la capacidad de disipar calor de forma estable y eficiente, especialmente cuando la potencia eléctrica y el espacio son restricciones duras.

encuentra artículos

newsletter

Recibe toda la actualidad del sector tech y cloud en tu email de la mano de RevistaCloud.com.

Suscripción boletín

LO ÚLTIMO

Las últimas novedades de tecnología y cloud

Suscríbete gratis al boletín de Revista Cloud. Cada semana la actualidad en tu buzón.

Suscripción boletín
×