AMD quiere que Helios deje de ser una promesa de hoja de ruta y empiece a tomar forma como plataforma real para centros de datos de Inteligencia Artificial. La compañía anunció el 16 de marzo una colaboración estratégica con Celestica para llevar al mercado esta arquitectura de rack de nueva generación, una propuesta pensada para grandes despliegues de IA y basada en estándares abiertos. El acuerdo coloca a Celestica como responsable de I+D, diseño y fabricación de los conmutadores de interconexión interna del sistema, una pieza decisiva en cualquier infraestructura de IA a gran escala.
A simple vista, puede parecer otro anuncio más dentro de la avalancha de alianzas alrededor de la Inteligencia Artificial. Pero Helios apunta a algo más profundo. AMD no está hablando solo de vender GPU o CPU, sino de empaquetar una arquitectura completa de rack para entrenamiento e inferencia con vocación industrial, lista para desplegarse en nube, empresa e investigación. La disponibilidad para clientes se sitúa a finales de 2026, lo que confirma que la compañía quiere llegar a la siguiente gran oleada de infraestructuras de IA con una propuesta más integrada y, sobre todo, más abierta que la de muchos rivales.
Helios ya no es solo un nombre en la hoja de ruta de AMD
Helios no apareció de la nada este mes. AMD lleva más de medio año construyendo el relato de esta plataforma. En junio de 2025 la presentó como su próxima gran solución de rack para IA, basada en GPU Instinct de nueva generación, CPU EPYC “Venice” y NIC Pensando “Vulcano”. En octubre la vinculó además al nuevo formato Open Rack Wide impulsado por Meta dentro del Open Compute Project, y en enero de 2026 la definió ya como el “blueprint” de una infraestructura a escala yotta, con hasta 3 exaflops de IA por rack según sus propias estimaciones. Es decir, la colaboración con Celestica no lanza Helios desde cero: representa el paso desde la visión técnica hacia la industrialización del sistema.
Ese matiz importa mucho porque el mercado de la IA ya no se mueve chip a chip, sino rack a rack. Las grandes cargas de entrenamiento y las inferencias distribuidas exigen plataformas completas en las que la GPU, la CPU, la memoria, la red y el software deben funcionar como un conjunto bien afinado. AMD lo ha entendido y lleva tiempo intentando vender no solo aceleradores, sino una infraestructura más cerrada en integración, aunque abierta en estándares. Ahí es donde encaja Helios: como un sistema completo que combine silicio, red, software ROCm y diseño físico de rack bajo una misma narrativa.
El papel de Celestica va mucho más allá del ensamblaje
Dentro de ese plan, Celestica juega un papel menos vistoso que AMD, pero probablemente igual de relevante. Según el anuncio conjunto, la empresa canadiense se encargará de la investigación, diseño y fabricación de los switches de scale-up en la arquitectura Helios, basados en el formato OCP Open-Rack-Wide. Estos switches utilizarán silicio de red avanzado para interconectar a gran velocidad las GPU AMD Instinct MI450 Series y lo harán, además, sobre la arquitectura Ultra Accelerator Link over Ethernet, o UALoE.
Eso no es un detalle técnico menor. En la nueva generación de sistemas de IA, la interconexión interna del rack se ha convertido en uno de los grandes cuellos de botella. Ya no basta con tener aceleradores potentes; hace falta que se comuniquen con una latencia mínima, gran ancho de banda y una topología que no convierta el sistema en un laberinto de ineficiencias. UALink y sus variantes sobre Ethernet nacen precisamente con esa ambición: abrir un espacio de interconexión de aceleradores que durante años estuvo más cerrado y ligado a tecnologías propietarias. El consorcio UALink defiende este enfoque como una forma de llevar ancho de banda alto y baja latencia a una especificación gobernada por la industria y no por un único proveedor.
Celestica, por tanto, no entra aquí como simple ensamblador. Entra como socio para materializar una pieza fundamental del rack: la red interna que une las GPU y permite escalar el sistema. Y eso conecta con uno de los grandes mensajes de AMD en 2025 y 2026: reducir tiempos de despliegue, mejorar resiliencia de la cadena de suministro y ofrecer una alternativa construida sobre estándares abiertos y socios de fabricación externos.
La batalla real está en el modelo de infraestructura
El anuncio también deja ver por dónde quiere competir AMD. La compañía no esconde que su estrategia para IA ya no pasa solo por comparar aceleradores, sino por defender una arquitectura de rack completa. En acuerdos anteriores, como los cerrados con Oracle y HPE, AMD ya había ligado Helios a despliegues concretos. Oracle anunció en octubre de 2025 que sus futuros superclusters de IA se basarían en Helios con una primera implantación pública de 50.000 GPU prevista para el tercer trimestre de 2026. HPE, por su parte, habló en diciembre de una versión del sistema con MI455X capaz de alcanzar hasta 2,9 exaflops FP4 por rack, siempre según cifras de AMD y de la propia alianza.
Ese contexto ayuda a interpretar por qué Helios importa ahora. Lo que AMD está intentando construir no es solo una familia de productos, sino un ecosistema rack-scale repetible: un diseño de referencia que pueda desplegarse en nube pública, en centros privados, en entornos científicos o en plataformas soberanas de IA sin depender por completo de una arquitectura cerrada. El formato Open Rack Wide, presentado por Meta en OCP 2025 como un estándar abierto de rack doble ancho para cargas extremas de potencia, refrigeración y mantenimiento, encaja bien con esa idea de infraestructura interoperable y escalable.
También hay un mensaje industrial de fondo. AMD sabe que para competir de verdad en la IA de gran escala no basta con tener una buena GPU. Hace falta una historia creíble de plataforma, socios con músculo de producción, software maduro y una red capaz de sostener clusters cada vez más grandes. Celestica aporta precisamente una parte de ese músculo: experiencia en diseño, fabricación, cadena de suministro y soluciones de infraestructura de centro de datos. La alianza busca resolver un problema práctico que muchos clientes empiezan a sufrir: cómo desplegar sistemas de IA complejos sin que cada proyecto se convierta en una integración artesanal, lenta y arriesgada.
Aun así, conviene mantener cierta cautela. Helios sigue siendo, en buena medida, una plataforma de futuro. Sus piezas clave —MI450, UALoE a gran escala, switches de scale-up y disponibilidad amplia a finales de 2026— forman parte de una hoja de ruta ambiciosa, no de un producto masivo ya instalado en cientos de centros de datos. Pero precisamente por eso el anuncio con Celestica resulta relevante: muestra que AMD ha dejado atrás la fase puramente conceptual y ha empezado a cerrar acuerdos de industrialización con socios capaces de convertir su diseño en hardware desplegable.
Preguntas frecuentes
¿Qué es exactamente la plataforma AMD Helios para IA?
Es una arquitectura de rack-scale para Inteligencia Artificial desarrollada por AMD que integra aceleradores Instinct de nueva generación, CPU EPYC “Venice”, red Pensando y una interconexión interna pensada para grandes despliegues de entrenamiento e inferencia. AMD la presenta como una plataforma abierta basada en estándares del Open Compute Project.
¿Qué hará Celestica dentro del proyecto Helios?
Celestica se encargará de la I+D, el diseño y la fabricación de los switches de interconexión interna del rack, una pieza esencial para unir a gran velocidad las GPU de la plataforma Helios.
¿Cuándo estará disponible Helios para clientes?
AMD y Celestica han indicado que Helios estará disponible para clientes a finales de 2026. Otros anuncios previos de AMD también sitúan sus grandes despliegues Helios en la segunda mitad de 2026.
¿Por qué se habla tanto de estándares abiertos en esta plataforma de AMD?
Porque Helios se apoya en elementos como OCP Open Rack Wide y UALoE, con la idea de ofrecer una infraestructura más interoperable, escalable y menos dependiente de tecnologías propietarias en el corazón del rack de IA.