La carrera por la supremacía en computación de IA entra en una fase más agresiva. Según información difundida por Wccftech a partir de comentarios de SemiAnalysis y declaraciones públicas de Forrest Norrod (AMD), tanto AMD como NVIDIA han ido ajustando sobre la marcha los diseños de sus próximas arquitecturas —Instinct MI450/MI450X (familia MI400) y Vera Rubin VR200— con incrementos de TGP y ancho de banda de memoria para no ceder ventaja.
Norrod llegó a calificar a MI450 como el “momento Milan” de AMD (en referencia al salto que supusieron los EPYC 7003 “Milan”), y aseguró que la oferta será más competitiva frente a la serie Rubin que lo visto en ciclos previos.
Lo que se rumorea que ha cambiado
- Potencia (TGP):
- AMD MI450X: habría subido +200 W frente a estimaciones iniciales.
- NVIDIA Rubin (VR200): habría escalado +500 W hasta 2.300 W por GPU.
- Ancho de banda de memoria por GPU:
- AMD MI450: ~19,6 TB/s.
- NVIDIA Rubin: ~20,0 TB/s (desde ~13 TB/s estimados previamente).
- Tecnologías comunes esperadas:
- HBM4 en ambos casos.
- Nodos de TSMC N3P y enfoques chiplet.
- En el ecosistema NVIDIA, la hoja de ruta pública ha mencionado hitos como NVLink 5 Switch (1.800 GB/s) y nuevas generaciones HBM en la horquilla 2025–2028.
Importante: se trata de filtraciones y cifras no definitivas. Ni AMD ni NVIDIA han publicado especificaciones completas o finales.
Ventanas de lanzamiento (orientativas)
- AMD Instinct MI400 (MI450/MI450X): 2026 (familia MI400).
- NVIDIA Vera Rubin VR200 / plataforma NVL144: 2.º semestre de 2026.
Rumores de especificaciones comparadas
Parámetro (rumoreado) | AMD Instinct MI450 | NVIDIA Vera Rubin VR200 |
---|---|---|
Memoria HBM (tipo/capacidad) | HBM4, hasta 432 GB/GPU | HBM4, ~288 GB/GPU |
Ancho de banda por GPU | ~19,6 TB/s | ~20,0 TB/s |
Densidad (FP4) | ~40 PFLOPS | ~50 PFLOPS |
TGP (tendencia) | +200 W vs. plan inicial | hasta 2.300 W (+500 W) |
(Cifras orientativas; pueden variar en silicio final, configuraciones de plataforma y versiones SX/HGX, etc.)
Qué significa para centros de datos de IA
- Potencia y refrigeración
Subidas de TGP de esta magnitud apuntan a racks más densos en vatios, límites térmicos más exigentes y, probablemente, nuevos requisitos de líquido directo (direct-to-chip) o inmersión. Para integradores y operadores, el TCO ya no solo depende del precio por GPU: suministro eléctrico, capacidad de refrigeración y infraestructura de distribución se convierten en variables críticas. - Memoria como cuello de botella
Con HBM4 a capacidades de 288–432 GB/GPU y anchos de banda en el entorno de 20 TB/s, la memoria sigue siendo el arma decisiva para modelos multimillonarios de parámetros, contextos largos y pipelines con mezcla de expertos (MoE). La diferencia de capacidad bruta (432 GB vs. ~288 GB) podría inclinar la balanza en workloads de inferencia con contexto extendido o modelos que escalan con más cacheo en HBM. - Paridad tecnológica
La brecha histórica podría estrecharse: si ambos proveedores llegan con HBM4, N3P y diseños chiplet, la diferenciación se desplazará a sistemas, interconexión (NVLink, XGMI/IF), madurez del software stack (compiladores, kernels, librerías para LLM), y ecosistema (proveedores de servidores, disponibilidad de módulos HBM, tiempos de entrega). - Ciclos más agresivos
La información sugiere ajustes reactivos en ambos roadmaps (subida de TGP y BW) para no ceder terreno. Para clientes finales, esto implica ventanas de compra más estrechas, validaciones aceleradas y potenciales revisiones de plataforma entre tape-outs.
Lectura competitiva
- AMD busca un punto de inflexión con MI450/MI450X tras varios ciclos en los que quedó por detrás en time-to-market. Si se confirman HBM4 a 432 GB, ~19,6 TB/s y ~40 PFLOPS FP4, con stack software (ROCm, kernels específicos para LLM) suficientemente maduro, habrá adopciones relevantes en 2026.
- NVIDIA mantiene momentum con Rubin y ecosistema (frameworks, bibliotecas, proveedores de sistema, design wins). Las filtraciones hablan de ~20 TB/s, ~50 PFLOPS FP4 y TGP que sube hasta 2.300 W, con referencias a adopción temprana en grandes actores. La interconexión y la pila de software siguen siendo ventajas clave.
Qué vigilar en los próximos 6–12 meses
- HBM4 a escala: quién asegura volúmenes y rendimientos de 12-Hi/stack con yields industriales y calendarios realistas.
- Plataformas de sistema: chasis, refrigeración y PSUs homologadas para >100 kW/rack con margen de crecimiento.
- Software: kernels optimizados para FP4/FP8, attention kernels, MoE y pipeline parallel; comparativas reproducibles con modelos abiertos.
- Disponibilidad: tiempos de entrega, capacidad de fábrica y asignación por región/cliente.
- Consumo real: medidas in-rack en cargas representativas (entrenamiento e inferencia), no solo nameplate.
Precaución razonable
Los datos citados proceden de reportes no oficiales, posts de analistas y declaraciones públicas de directivos. Hasta que AMD y NVIDIA confirmen especificaciones finales, conviene tratarlos como indicativos. Aun así, las tendencias —HBM4, 20 TB/s, >2 kW/GPU, FP4 alto— encajan con el guion de la próxima ola de súper-nodos de IA en 2026.
Conclusión: 2026 apunta a un cara a cara mucho más apretado. Si AMD acorta tiempos y entrega capacidad de HBM superior, y NVIDIA preserva su ventaja en ecosistema e interconexión, la elección para hyperscalers y grandes empresas se decidirá por plataforma total (potencia, cooling, supply chain y software), no solo por la ficha técnica de la GPU.
vía: wccftech