Amazon Web Services y NVIDIA han dado un paso estratégico en la carrera por la infraestructura de inteligencia artificial. Durante AWS re:Invent 2025, ambas compañías anunciaron la integración de los futuros chips Trainium4 con NVIDIA NVLink Fusion, una plataforma de interconexión a escala de rack diseñada para unir decenas de aceleradores en un único “cerebro” de alto rendimiento.
La colaboración supone que Trainium4, la próxima generación de aceleradores de IA de AWS, se diseñará desde el inicio para trabajar con NVLink 6 y la arquitectura de racks NVIDIA MGX, en lo que se plantea como una alianza multigeneracional entre el hiperescala norteamericano y el gigante de los chips.
Qué es NVLink Fusion y por qué importa para Trainium4
NVLink Fusion se presenta como una plataforma de infraestructura de IA a escala de rack que permite a los hiperescalares y a los diseñadores de ASICs personalizados integrar sus propios chips con el ecosistema de NVIDIA: desde la interconexión NVLink hasta la arquitectura MGX, las bandejas de switches Vera-Rubin y un amplio catálogo de componentes de red, refrigeración y potencia.
En el corazón de la propuesta está el chiplet NVLink Fusion, un bloque que los diseñadores pueden “incrustar” en sus ASICs para conectarlos directamente al dominio NVLink. Combinado con la bandeja de switches Vera-Rubin, basada en la sexta generación de NVLink Switch y SerDes de 400G, el sistema permite conectar hasta 72 aceleradores en malla completa, con un ancho de banda de 3,6 TB/s por ASIC, hasta un total de 260 TB/s de red de escala vertical en un único dominio.
En la práctica, esto significa que los futuros racks de Trainium4 podrán comportarse como un gran superordenador cohesionado, con memoria accesible entre aceleradores mediante lecturas y escrituras directas, operaciones atómicas y capacidades avanzadas como NVIDIA SHARP para reducciones en red y multicast acelerado.
La presión de los modelos gigantes y la respuesta de AWS
El movimiento llega en un momento en el que la infraestructura de IA se enfrenta a una presión sin precedentes. Los nuevos modelos de planificación, razonamiento y IA agéntica, con cientos de miles de millones o billones de parámetros y arquitecturas mixture-of-experts (MoE), exigen clusters con decenas o centenares de aceleradores trabajando en paralelo, interconectados por redes de baja latencia y altísimo ancho de banda.
Para los hiperescalares, desplegar este tipo de soluciones no es trivial: no basta con diseñar un chip de IA competitivo. Hay que definir:
- Arquitectura de rack a medida (bandejas, densidad, distribución de potencia).
- Red de escala vertical (NVLink u otros) y de escala horizontal (Ethernet, InfiniBand u opciones propias).
- Sistemas de refrigeración líquida o aire de alta eficiencia.
- Gestión de miles de componentes y docenas de proveedores sin que un retraso en una sola pieza comprometa el proyecto.
NVLink Fusion intenta atacar este problema de raíz: ofrece una “fábrica de IA modular” en la que Trainium4 y otros ASICs personalizados pueden encajar sobre una base ya probada, reduciendo los ciclos de desarrollo, los riesgos de integración y el tiempo de salida al mercado.
Menos riesgo, más velocidad: el valor del ecosistema NVIDIA
Más allá de la tecnología de interconexión, la alianza permite a AWS apoyarse en un ecosistema completo:
- Arquitectura de rack NVIDIA MGX, pensada para configuraciones de alta densidad.
- GPUs de última generación y futuros CPUs NVIDIA Vera, que pueden convivir con Trainium4.
- Switches con óptica coempaquetada, ConnectX SuperNIC y DPUs BlueField.
- Herramientas de gestión y orquestación como NVIDIA Mission Control.
La idea de fondo es que AWS pueda construir ofertas heterogéneas de silicio —Trainium, GPU NVIDIA, CPU propios Graviton— dentro de la misma huella, con los mismos sistemas de refrigeración, distribución de potencia y diseño de rack. Donde antes había proyectos paralelos, ahora puede haber una única plataforma flexible, optimizada para distintas cargas de trabajo de entrenamiento e inferencia.
Según NVIDIA, conectar 72 aceleradores en un único dominio NVLink puede ofrecer hasta 3 veces más rendimiento y facturación en inferencia frente a arquitecturas anteriores, como las configuraciones NVL8 con NVLink de quinta generación, siempre dentro del ecosistema de software de IA de la compañía.
Un paso más en la “coopetición” entre hyperscalers y NVIDIA
La integración de Trainium4 con NVLink Fusion también tiene lectura estratégica. En los últimos años, los grandes proveedores de nube han invertido miles de millones en diseñar sus propios chips de IA (TPU en Google, Trainium e Inferentia en AWS, aceleradores propios en Microsoft y otros) para reducir dependencia de terceros y optimizar costes.
Sin embargo, el anuncio revela una tendencia clara: competencia y colaboración al mismo tiempo. AWS mantiene su apuesta por Trainium como alternativa propia, pero reconoce el valor de anclarlo a una infraestructura de interconexión, software y ecosistema que NVIDIA ya ha desplegado masivamente en el mercado.
Para NVIDIA, la jugada garantiza que, incluso cuando los clientes despliegan ASICs personalizados, la compañía sigue en el centro de la arquitectura: en la red, en el rack, en el stack de software y, en muchos casos, también con sus GPUs conviviendo con esos chips.
Lo que viene: IA a escala de fábrica, con ciclos más rápidos
La combinación de Trainium4 y NVLink Fusion apunta a un modelo de “factoría de IA” en el que el hardware se vuelve más intercambiable y los ciclos de innovación se acortan. En lugar de reinventar cada rack desde cero para cada generación de chip, los hiperescalares podrían iterar sobre una base estable, cambiando aceleradores y afinando el diseño sin replantear toda la infraestructura.
Para una industria donde cada año aparecen modelos más grandes, agentes más complejos y nuevos patrones de uso (desde copilotos corporativos hasta simulaciones masivas y gemelos digitales), la promesa de desplegar más rápido, con menos riesgo y con un rendimiento superior resulta difícil de ignorar.
En ese contexto, la alianza entre AWS y NVIDIA no es solo un acuerdo técnico: es una declaración de intenciones sobre cómo se construirá la próxima generación de centros de datos de IA.
Preguntas frecuentes sobre AWS, Trainium4 y NVIDIA NVLink Fusion
¿Qué es exactamente NVIDIA NVLink Fusion?
NVLink Fusion es una plataforma de infraestructura de IA a escala de rack que combina el interconectado NVLink de sexta generación, bandejas de switches Vera-Rubin y la arquitectura de racks MGX. Permite unir hasta 72 aceleradores en un único dominio de alta velocidad, ofreciendo decenas de terabytes por segundo de ancho de banda agregado entre chips.
¿Cómo se beneficiará Trainium4 de NVLink Fusion?
Trainium4 se está diseñando para integrarse de fábrica con NVLink 6 y la arquitectura MGX. Esto permitirá a AWS construir racks en los que los chips Trainium4 puedan comunicarse entre sí y, potencialmente, con GPUs NVIDIA, mediante un tejido de baja latencia y alto ancho de banda, ideal para entrenar y ejecutar modelos de IA de gran tamaño.
¿Qué ventajas tiene NVLink Fusion frente a otras redes de alta velocidad?
Frente a otras soluciones de interconexión, NVLink Fusion parte de una tecnología ampliamente probada en superordenadores y clusters de IA. Permite acceso directo a memoria entre aceleradores, operaciones atómicas y reducciones en red, todo ello integrado con el stack de software de NVIDIA, lo que simplifica la programación y la optimización de modelos a gran escala.
¿Supone esta alianza el fin de la independencia de AWS en chips de IA?
No necesariamente. AWS sigue desarrollando su propia familia de chips Trainium e Inferentia y mantiene sus CPUs Graviton. Lo que cambia es que, en lugar de diseñar desde cero toda la infraestructura a su alrededor, se apoya en la plataforma NVLink Fusion para reducir tiempos, riesgos y costes. Es un ejemplo de “coopetición”: AWS compite en silicio, pero coopera en interconexión y arquitectura de rack con NVIDIA.
vía: developer.nvidia