Nvidia presiona por una HBM4 a 10 Gbps para mantener la delantera frente a AMD

La carrera por la memoria de alto ancho de banda (HBM, por sus siglas en inglés) se intensifica. Nvidia, el gigante de los procesadores gráficos y la inteligencia artificial, está presionando a sus proveedores para ir más allá del estándar oficial de la próxima generación HBM4. Según un informe de TrendForce recogido por Tom’s Hardware, la compañía exige pilas de memoria capaces de alcanzar 10 Gbps por pin, una velocidad superior a los 8 Gbps fijados por el organismo de estandarización JEDEC. El objetivo es claro: reforzar la potencia de su plataforma Vera Rubin, prevista para 2026, y contener el empuje de la próxima arquitectura MI450 Helios de AMD.


Un estándar que se queda corto para Nvidia

HBM4, la cuarta generación de este tipo de memoria, llega con una interfaz de 2.048 bits y una velocidad oficial de 8 Gbps por pin. Esta cifra equivale a un ancho de banda de casi 2 TB/s por pila. Sin embargo, Nvidia considera que esta velocidad puede no ser suficiente para sus ambiciones de cálculo masivo. Si la cifra se eleva a 10 Gbps, el ancho de banda por pila aumentaría hasta 2,56 TB/s. Con seis pilas, cada GPU podría superar los 15 TB/s de ancho de banda bruto.

La estrategia no es menor. El Rubin CPX, la configuración optimizada para cargas de inferencia más exigentes, se publicita con un rendimiento de 1,7 petabytes por segundo en un rack completo NVL144. Cuanto mayor sea la velocidad de las memorias, menos compromisos serán necesarios en otras partes del sistema para alcanzar esas cifras de vértigo.


Retos técnicos: potencia, calor y fiabilidad

El salto de 8 Gbps a 10 Gbps no está exento de riesgos. Aumentar la velocidad de entrada/salida implica mayor consumo de energía, ajustes más estrictos en la sincronización y mayor presión sobre el chip base de la memoria. Todo ello puede disparar los costes de producción y complicar la validación en masa.

De hecho, fuentes cercanas al proceso señalan que Nvidia podría optar por segmentar sus productos Rubin en función del tipo de memoria HBM instalada. Los modelos CPX recibirían las versiones más rápidas de 10 Gbps, mientras que las configuraciones estándar se conformarían con los 8 Gbps oficiales. Una estrategia que permitiría contener costes y mantener la producción viable.


Samsung, SK hynix y Micron: los rivales en la cadena de suministro

En esta carrera, los proveedores de memoria juegan un papel decisivo. Samsung se muestra especialmente agresiva en la transición de nodos de fabricación. Su chip base HBM4 migra a tecnología de 4 nm FinFET, una clase lógica que facilita mayores frecuencias y menor consumo dinámico. Este movimiento podría darle ventaja en los segmentos más altos del mercado, aunque SK hynix sigue dominando en volumen de envíos.

Por su parte, Micron ya ha confirmado que dispone de muestras de HBM4 con interfaz de 2.048 bits y un ancho de banda superior a 2 TB/s, aunque no ha aclarado si aspira a los 10 Gbps que persigue Nvidia.

El proceso de homologación será clave. Nvidia contempla ventanas de validación más largas y calificaciones escalonadas de proveedores para asegurar que la producción cumpla con los plazos, incluso si los rendimientos iniciales son bajos.


La respuesta de AMD: capacidad y arquitectura

Mientras tanto, AMD prepara su contraofensiva con la serie MI450 Helios. Aunque aún no se encuentra en el mercado, ya se conocen algunos detalles técnicos. Cada GPU soportará hasta 432 GB de memoria HBM4, lo que le otorga una ventaja en capacidad frente a las propuestas de Nvidia.

Además, la nueva arquitectura CDNA 4 promete mejoras sustanciales en cálculo de inteligencia artificial y eficiencia, aspectos clave para competir con Rubin en el terreno de la inferencia y el entrenamiento de modelos de gran escala. En otras palabras, mientras Nvidia busca más velocidad, AMD apuesta también por más memoria y por un rediseño profundo de su arquitectura.


Rubin frente a Helios: la pugna de la década

El choque entre la plataforma Rubin de Nvidia y Helios de AMD puede marcar la pauta en la próxima gran ola de hardware para inteligencia artificial. No se trata únicamente de competir por números de ancho de banda o capacidad, sino de ofrecer soluciones equilibradas que respondan a las exigencias de modelos cada vez más grandes y complejos.

Nvidia, que hoy lidera ampliamente el mercado de aceleradores para IA, sabe que no puede permitirse perder terreno. Su insistencia en llevar la HBM4 más allá de los límites fijados por JEDEC refleja una estrategia clara: maximizar la velocidad para mantener la ventaja en cargas de inferencia y en la escalabilidad de sus superordenadores.

AMD, en cambio, podría convertir la capacidad y la eficiencia arquitectónica en sus armas más poderosas. Con Helios, no solo busca acercarse a Nvidia, sino también atraer a clientes que valoran la memoria adicional para manejar datasets más amplios o modelos con billones de parámetros.


Una batalla con implicaciones geopolíticas y tecnológicas

Más allá de la rivalidad entre Nvidia y AMD, la evolución de la memoria HBM4 y la adopción de procesos de fabricación más avanzados por parte de Samsung, SK hynix y Micron tienen un trasfondo geopolítico. La memoria de alto ancho de banda se ha convertido en un componente crítico para la inteligencia artificial, el big data y las aplicaciones militares.

Estados Unidos, Corea del Sur y Taiwán concentran la mayor parte de esta cadena de valor, lo que añade presión en un contexto de tensiones con China y de esfuerzos por asegurar el suministro estratégico de semiconductores. Cada avance tecnológico en este campo puede inclinar la balanza no solo en los centros de datos, sino en la economía global y en la competencia entre bloques.


Conclusión: velocidad frente a capacidad

El escenario que se dibuja para 2026 es el de una confrontación directa. Nvidia apuesta por la velocidad extrema de la HBM4 a 10 Gbps como su carta para sostener el liderazgo. AMD, con su MI450 Helios, confía en ofrecer más memoria y mejoras arquitectónicas que equilibren la balanza.

El desenlace dependerá de factores técnicos, económicos y de suministro. La batalla de la HBM4 no será solo una cuestión de chips, sino también de estrategia, fiabilidad y visión de futuro.

Lo que está claro es que, tanto si se alcanzan los 10 Gbps como si no, la próxima generación de memorias y GPUs marcará un salto sin precedentes en el rendimiento de la inteligencia artificial, acercando a la industria a un umbral donde los superordenadores actuales podrían quedar rápidamente obsoletos.


Preguntas frecuentes

¿Qué es la memoria HBM4 y en qué se diferencia de generaciones anteriores?
La HBM4 es la cuarta generación de memoria de alto ancho de banda. Se caracteriza por una interfaz de 2.048 bits y un ancho de banda que puede superar los 2 TB/s por pila, mejorando notablemente las cifras de HBM3 y HBM3E.

¿Por qué Nvidia quiere memorias HBM4 a 10 Gbps en lugar de los 8 Gbps oficiales?
Con 10 Gbps por pin, el ancho de banda por GPU superaría los 15 TB/s, lo que garantiza mayor rendimiento en cargas de trabajo de inteligencia artificial, especialmente en inferencia y entrenamiento de modelos grandes.

¿Cómo planea AMD competir con Nvidia en este terreno?
AMD prepara la serie MI450 Helios con hasta 432 GB de memoria HBM4 por GPU y mejoras arquitectónicas en CDNA 4, con lo que busca compensar la ventaja de Nvidia en velocidad con mayor capacidad y eficiencia.

¿Qué papel juegan Samsung, SK hynix y Micron en esta competencia?
Estas tres empresas son los principales proveedores de HBM4. Samsung destaca por su agresiva migración a nodos de 4 nm, SK hynix lidera en volumen de producción y Micron ya ha mostrado muestras con más de 2 TB/s de ancho de banda.

vía: tomshardware

encuentra artículos

newsletter

Recibe toda la actualidad del sector tech y cloud en tu email de la mano de RevistaCloud.com.

Suscripción boletín

LO ÚLTIMO

×