HPE acelera la carrera de la IA con el primer rack “Helios” de AMD basado en Ethernet estándar

Hewlett Packard Enterprise (HPE) ha aprovechado su evento HPE Discover Barcelona 2025 para lanzar uno de los productos más ambiciosos de la nueva ola de infraestructuras para inteligencia artificial: el primer rack “Helios” de AMD listo para entrenamiento e inferencia de modelos de hasta billones de parámetros, con una arquitectura de red scale-up sobre Ethernet estándar y enfocado a centros de datos y proveedores de nube que quieren competir en la liga de la IA a gran escala.

La compañía será una de las primeras en ofrecer este diseño de referencia de AMD como solución llave en mano: un único rack capaz, según las cifras oficiales, de alcanzar hasta 2,9 exaflops de rendimiento en FP4, con 72 GPU AMD Instinct MI455X por rack y una red interna capaz de mover 260 terabytes por segundo de ancho de banda agregado.

Un rack pensado para modelos de billones de parámetros

El objetivo de “Helios” es claro: proporcionar una plataforma abierta, integrada y extremadamente densa para entrenar y servir modelos de IA de nueva generación, incluidos los LLM de billones de parámetros y cargas de trabajo de inferencia masiva.

Algunos datos clave del diseño presentado por HPE y AMD:

  • 72 GPU AMD Instinct MI455X por rack
  • Hasta 2,9 exaflops de FP4 para entrenamiento e inferencia de modelos gigantes
  • 260 TB/s de ancho de banda scale-up entre aceleradores
  • 31 TB de memoria HBM4 y 1,4 PB/s de ancho de banda de memoria para alimentar los GPUs
  • Soporte para tráfico de entrenamiento de modelos de “trillion-parameter” y escenarios de inferencia de alto volumen

Todo ello se integra en una arquitectura de rack basada en las especificaciones Open Rack Wide (ORW) del Open Compute Project, optimizada para entrega de potencia, alta densidad y refrigeración líquida directa, un requisito casi inevitable para este tipo de densidades y consumos en la era de la IA.

Ethernet estándar en vez de redes propietarias

Uno de los elementos más llamativos del anuncio es el papel central de la red: HPE introduce un nuevo scale-up switch de HPE Juniper Networking, desarrollado junto a Broadcom sobre su chip Tomahawk 6 y el estándar Ultra Accelerator Link over Ethernet (UALoE).

En la práctica, esto significa que la interconexión de los GPUs dentro del rack se realiza sobre Ethernet estándar, pero con una pila de hardware y software específica para IA que promete:

  • Ultra-baja latencia
  • Pérdida cero (lossless) en la red interna
  • Capacidad para soportar patrones de tráfico extremadamente intensivos y correlacionados, típicos del entrenamiento distribuido de grandes modelos

Este enfoque contrasta con otras propuestas del mercado basadas en redes propietarias o interconexiones cerradas, y refuerza la apuesta de HPE, AMD y Broadcom por un ecosistema de IA que pueda crecer sobre estándares abiertos y reduzca el riesgo de vendor lock-in a nivel de red.

Un stack abierto: EPYC, Instinct, Pensando y ROCm

“Helios” no es solo una caja llena de GPUs. El diseño combina todo el stack de AMD en un mismo sistema:

  • CPU AMD EPYC de nueva generación para orquestar las cargas de trabajo
  • GPU AMD Instinct MI455X como motor principal de entrenamiento e inferencia
  • AMD Pensando para funciones de red avanzada y offload
  • ROCm, el stack de software abierto de AMD para cómputo acelerado, como capa de software base

HPE, por su parte, aporta su experiencia en sistemas exascala (como los superordenadores basados en Cray) y su equipo de servicios para diseñar, instalar y operar este tipo de infraestructuras con refrigeración líquida directa y requisitos eléctricos muy exigentes.

La propuesta se posiciona claramente como alternativa a los sistemas cerrados basados en GPUs de otros fabricantes, con un mensaje repetido en el sector: “cualquier modelo, en cualquier hardware”, pero apoyado esta vez en estándares abiertos tanto de hardware (OCP, Ethernet, UALoE) como de software (ROCm).

Pensado para CSP, neoclouds y centros de datos de IA

Aunque el anuncio se ha hecho en un entorno de gran proveedor, el público objetivo va más allá de los hiperescaladores clásicos: HPE habla explícitamente de cloud service providers (CSP), neoclouds y operadores de centros de datos que quieran ofrecer infraestructura de IA como servicio, ya sea para:

  • Entrenamiento de modelos propios de gran tamaño
  • Plataformas de fine-tuning y RAG para clientes empresariales
  • Clústeres dedicados a empresas que quieren soberanía sobre sus modelos y datos

La idea de un rack turnkey tiene una ventaja clara: acorta el tiempo desde la compra hasta que el clúster de IA está en producción. HPE promete despliegues más rápidos, menos riesgos de integración y un camino más directo para escalar de un rack a docenas o centenares, manteniendo el mismo diseño de referencia.

La IA ya no va solo de modelos: va de racks y megavatios

El anuncio de “Helios” llega en un momento en el que la conversación sobre IA se está desplazando del modelo al hardware subyacente:

  • El coste energético por inferencia
  • La disponibilidad de GPU o aceleradores
  • La complejidad de la refrigeración
  • El tiempo de despliegue de nuevos clústeres

Las grandes tecnológicas y los proveedores de infraestructura compiten por ofrecer más rendimiento por rack y por vatio, y por hacerlo de forma estandarizada para poder escalar globalmente.

En este contexto, el énfasis de HPE en una arquitectura abierta basada en Ethernet estándar y referencias OCP apunta a una estrategia de largo recorrido: que el mismo diseño de rack pueda desplegarse en múltiples centros de datos, países y operadores, sin depender de componentes propietarios difíciles de conseguir o de integrar.

Disponibilidad y próximos pasos

HPE ha confirmado que el rack “Helios” de AMD estará disponible a nivel mundial en 2026, dirigido principalmente a proveedores de nube, grandes centros de datos de IA y organizaciones que quieren construir infraestructuras de entrenamiento e inferencia de gran escala.

A partir de ahí, la evolución natural será ver cómo esta arquitectura se extiende a:

  • Clústeres multi-rack unidos por redes scale-out también basadas en Ethernet
  • Integración con plataformas de orquestación de IA y MLOps
  • Ofertas “como servicio” donde el cliente consume capacidad de entrenamiento o inferencia sin preocuparse del detalle físico del rack

Lo que sí parece claro es que el foco del mercado de IA se desplaza cada vez más hacia la infraestructura de base: quién es capaz de entregar más rendimiento, más rápido y con más eficiencia energética, sobre plataformas abiertas que permitan a empresas y gobiernos mantener el control de sus datos y modelos. Y en esa batalla, el tándem HPE–AMD quiere dejar claro que no piensa quedarse atrás.

vía: hpe

encuentra artículos

newsletter

Recibe toda la actualidad del sector tech y cloud en tu email de la mano de RevistaCloud.com.

Suscripción boletín

LO ÚLTIMO

×