Supermicro acelera la era Rubin: más fabricación “rack-scale” y refrigeración líquida para los nuevos sistemas de IA de NVIDIA

Supermicro ha anunciado que refuerza su capacidad de fabricación y su catálogo de soluciones “rack-scale” para llegar antes que nadie a la siguiente ola de infraestructura de inteligencia artificial basada en la plataforma NVIDIA Vera Rubin / Rubin. La compañía, conocida por su enfoque modular Data Center Building Block Solutions (DCBBS) y por su experiencia en refrigeración líquida directa, presenta su hoja de ruta para desplegar con rapidez los próximos NVIDIA Vera Rubin NVL72 y NVIDIA HGX Rubin NVL8, dos configuraciones pensadas para entrenamiento e inferencia a gran escala, en un momento en el que el cuello de botella ya no es solo el chip: es el tiempo de despliegue y la densidad sostenible en el centro de datos.

El mensaje de Supermicro es explícito: ampliar capacidad de producción y “liquid-cooling” no es un extra, sino una condición para industrializar la IA. Su CEO, Charles Liang, enmarca el anuncio en la carrera por entregar antes sistemas de nueva generación y hacerlo con eficiencia y fiabilidad, una prioridad para hiperescalares y grandes empresas que están transformando sus CPD en “fábricas de tokens”.

El cambio de fondo: de “servidores potentes” a infraestructura industrial de IA

Durante años, muchas organizaciones han tratado la IA como un proyecto tecnológico. En 2026, la tendencia es otra: se está convirtiendo en infraestructura industrial, con requisitos de potencia, red, memoria y refrigeración que tensan los límites del diseño clásico de CPD. En ese contexto, Supermicro apuesta por dos palancas:

  • Capacidad de fabricación ampliada para sistemas completos a escala de rack.
  • Refrigeración líquida avanzada (Direct Liquid Cooling, DLC) como vía para sostener densidades elevadas sin disparar consumo y complejidad operativa.

Dos productos “bandera” para Rubin: NVL72 (rack-scale) y HGX NVL8 (2U)

Supermicro sitúa el foco en dos formatos que resumen bien hacia dónde va el mercado: un sistema rack-scale pensado para máximas prestaciones agregadas y un sistema 2U optimizado para despliegue flexible en rack, ambos con refrigeración líquida como protagonista.

Tabla 1 — Configuraciones destacadas anunciadas por Supermicro (Rubin)

SistemaEnfoqueComponentes claveMétricas destacadas (según anuncio)
NVIDIA Vera Rubin NVL72 SuperCluster“Rack-scale” para IA a gran escala72 GPU NVIDIA Rubin + 36 CPU NVIDIA Vera, ConnectX-9, BlueField-4, NVLink 63,6 exaflops NVFP4, 1,4 PB/s de ancho de banda HBM4, 75 TB de memoria rápida
NVIDIA HGX Rubin NVL8 (2U, refrigerado por líquido)8 GPU en formato compacto para IA/HPC8 GPU, NVLink, ConnectX-9 (hasta 1.600 Gb/s), CPUs x86 (próxima gen. Intel Xeon o AMD EPYC)400 petaflops NVFP4, 176 TB/s HBM4, 28,8 TB/s NVLink, 28,8 TB/s NVLink BW

Datos y descripciones proceden del comunicado de Supermicro.

Más allá de la cifra, lo importante es lo que implican: la plataforma se concibe como un sistema coherente (GPU + CPU + red + DPU + memoria) y no como piezas sueltas. Además, Supermicro subraya mejoras de serviciabilidad y operación mediante la arquitectura NVIDIA MGX (3.ª generación en rack), y una implementación de refrigeración líquida “end-to-end” que incluye CDUs in-row para operación con agua templada y objetivos de eficiencia.

La red deja de ser “conectividad” y pasa a ser arquitectura

En IA a gran escala, el rendimiento real depende de cómo se mueven parámetros, activaciones y gradientes. Por eso, el anuncio integra explícitamente dos vías de escalado:

  • NVIDIA Quantum-X800 InfiniBand para escalar el “cluster” con baja latencia y alto rendimiento (muy orientado a entrenamiento a gran escala).
  • NVIDIA Spectrum-X Ethernet y, en particular, el salto a Ethernet Photonics con óptica co-empaquetada (CPO), buscando mejoras de eficiencia y fiabilidad en redes Ethernet a gran velocidad.

Supermicro menciona, además, el papel de Spectrum-6 (hasta 102,4 Tb/s de switching) y modelos como SN6800/SN6810/SN6600 para 800G, alineando su oferta con la estrategia de NVIDIA para “AI factories” donde la red no puede penalizar uptime ni consumo.

Tabla 2 — Componentes de plataforma que marcan el “listón” Rubin

ComponentePor qué importa en IAQué destaca en Rubin (según anuncio)
NVLink 6Reduce cuellos de botella GPU↔GPU / CPU↔GPUInterconexión de alta velocidad para modelos masivos (p. ej., MoE)
ConnectX-9 SuperNIC / BlueField-4 DPUAcelera red y descarga funciones (seguridad, data path)Integración explícita en NVL72 y opciones de red de alta capacidad
Confidential Computing (3.ª gen.)Protege modelos/datos/prompts en entornos compartidosTEE unificado a nivel GPU para aislamiento de cargas
RAS Engine (2.ª gen.)Operación continua sin degradaciónHealth checks en tiempo real y foco en disponibilidad
Spectrum-X Ethernet PhotonicsEficiencia y fiabilidad a escala 800GEnfoque en fotónica/CPO para “AI factories”

Por qué Supermicro insiste tanto en la refrigeración líquida

El salto a HBM4, densidades extremas de GPU y redes 800G presiona tres variables a la vez: energía, calor y espacio. De ahí que Supermicro ponga en primer plano su stack de Direct Liquid Cooling y su capacidad de producción para “racks completos” validados y listos para desplegar. En términos prácticos, esta aproximación busca:

  • Reducir el tiempo desde pedido a “time-to-online”.
  • Minimizar el riesgo de integraciones a medida en campo (la parte que más retrasa proyectos).
  • Controlar el coste operativo cuando la densidad deja de ser un experimento y se convierte en estándar.

En 2026, el mercado premia menos el “paper performance” y más la ejecución: quién entrega antes, quién valida antes y quién sostiene operación con menos sorpresas.


Preguntas frecuentes

¿Qué es un sistema NVL72 y por qué se considera “rack-scale” para IA?

Un NVL72 es una configuración a escala de rack que integra decenas de GPU y CPU en una plataforma coherente (interconexión, red y aceleración). Se orienta a entrenamiento e inferencia masiva donde la eficiencia del conjunto (no solo del chip) determina el rendimiento final.

¿Qué ventajas aporta la refrigeración líquida en infraestructura de IA con GPU de última generación?

Principalmente, permite sostener densidades más altas con mejor control térmico, reduciendo riesgos de “throttling” y facilitando operaciones estables. Además, se alinea con objetivos de eficiencia energética cuando se despliegan racks de gran potencia de forma continuada.

¿InfiniBand o Ethernet para IA? ¿Por qué aparecen las dos en la misma plataforma?

Porque suelen cubrir necesidades distintas: InfiniBand se asocia a escalado de entrenamiento con latencia muy baja, mientras que Ethernet (cada vez más optimizado para IA) se consolida para arquitecturas flexibles y operación a gran escala; NVIDIA está empujando Spectrum-X y fotónica para mejorar eficiencia y fiabilidad en redes Ethernet de altas prestaciones.

¿Qué debería vigilar una empresa antes de adoptar Rubin en su CPD?

Compatibilidad de red (800G), estrategia de refrigeración (aire vs líquido), diseño eléctrico, y el modelo operativo: validación previa, piezas críticas (CDU, distribución de refrigerante) y soporte. En estas plataformas, el “éxito” depende tanto del entorno como del hardware.

vía: supermicro

encuentra artículos

newsletter

Recibe toda la actualidad del sector tech y cloud en tu email de la mano de RevistaCloud.com.

Suscripción boletín

LO ÚLTIMO

Las últimas novedades de tecnología y cloud

Suscríbete gratis al boletín de Revista Cloud. Cada semana la actualidad en tu buzón.

Suscripción boletín
×