La memoria HBM se ha convertido en el cuello de botella más caro —y más estratégico— de la Inteligencia Artificial. Y, en ese tablero, cualquier ajuste de velocidad tiene consecuencias que van mucho más allá de un titular. Según varias informaciones publicadas en los últimos días por medios especializados, las GPU NVIDIA Vera Rubin no alcanzarían el objetivo inicial de 22 TB/s de ancho de banda de memoria con HBM4, y se quedarían en torno a los 20 TB/s debido a limitaciones prácticas en la producción de HBM4 a las velocidades por pin que NVIDIA pretendía.
El cambio, que a simple vista parece “solo” una corrección técnica, es en realidad un síntoma de algo mayor: la industria está empujando HBM4 al límite antes incluso de que el nodo esté plenamente maduro a escala. Y cuando el límite lo marcan SK hynix y Samsung —los proveedores clave—, el resto del ecosistema se ajusta.
Del objetivo de 11 Gb/s por pin a un techo más realista
La explicación que se repite en estas publicaciones es bastante concreta: NVIDIA habría presionado para que la HBM4 se moviese alrededor de 11 Gb/s por pin, pero los fabricantes habrían preferido una cifra más realista cercana a 10 Gb/s por pin para mantener rendimientos de fabricación (yield), consumo y estabilidad dentro de parámetros asumibles en producción masiva. Ese paso atrás por pin es el que, al agregarse en un bus gigantesco, recorta el ancho de banda total del paquete.
En HBM, ese “detalle” importa muchísimo, porque el salto de HBM3/3E a HBM4 no es incremental, sino estructural: el estándar da el salto a una interfaz de 2.048 bits por stack (el doble que en generaciones anteriores), y esa anchura multiplica cualquier ajuste por pin. Dicho de otra manera: cuando todo el sistema está diseñado para sumar, también suma cuando se recorta.
Por qué HBM4 es tan difícil de escalar
La industria de memoria lleva meses avisando de que HBM4 es una bestia distinta. Un aumento de velocidad por pin no es “gratis”: suele implicar más exigencia de integridad de señal, márgenes térmicos más estrechos y más complejidad para validar el comportamiento a gran escala. A esto se añade el factor más desagradable para cualquier CFO: si el rendimiento por oblea cae, el coste se dispara.
No es casual que parte de la cobertura técnica haya puesto el foco en la distancia entre lo que el estándar permite y lo que el mercado quiere. Por un lado, el marco JEDEC define las bases; por otro, los grandes compradores presionan para subir por encima del “mínimo viable” porque la IA lo devora todo. Y en medio están los fabricantes, que tienen que entregar volumen repetible, no solo demos.
El propio sector ya había mostrado señales de este pulso. En 2025, por ejemplo, SK hynix comunicó avances en HBM4 por encima de las referencias iniciales que se manejaban para el estándar, lo que deja claro que el margen existe… pero convertirlo en producto masivo para la GPU más importante del año es otra historia.
La lectura competitiva: la ventaja frente a AMD se estrecha
El ruido alrededor de “20 TB/s en vez de 22” no viene solo por el marketing, sino por el contexto competitivo. AMD lleva tiempo poniendo cifras muy agresivas sobre la mesa para su próxima generación de aceleradores con HBM4.
En documentación pública, AMD ha afirmado que su Instinct MI450 Series apunta a 19,6 TB/s de ancho de banda con 432 GB de HBM4. Si Rubin se queda alrededor de 20 TB/s, la diferencia se vuelve pequeña: la batalla ya no se decide por memoria, sino por arquitectura, interconexión, escalabilidad de sistema y —sobre todo— disponibilidad y coste total del rack.
Es importante subrayar que memoria no lo es todo. En IA, el rendimiento final depende también de la eficiencia del software, la conectividad interna (y entre nodos), y de cómo se comportan los sistemas a escala con cargas reales. Pero el ancho de banda de memoria sí es un indicador clave porque afecta al “feed” de los motores de cómputo: sin datos, las unidades de cálculo se quedan esperando.
De Hopper a Blackwell… y el salto de Rubin sigue siendo enorme
Que Rubin no llegue a 22 TB/s no significa que el salto no sea espectacular. Solo hay que mirar la progresión reciente.
NVIDIA detalla en especificaciones oficiales que H100 (Hopper) ofrece 3,35 TB/s de ancho de banda de memoria. En la generación Blackwell, la compañía describe sistemas con HBM3E que, en configuración por GPU, se sitúan alrededor de 8 TB/s. Incluso si Rubin aterriza cerca de 20 TB/s, el salto frente a H100 sigue siendo descomunal y marca por qué la industria se ha obsesionado con HBM.
En otras palabras: el recorte es relevante en la narrativa competitiva, pero no cambia el hecho de que HBM4 está diseñada para empujar el techo de los sistemas de IA de la segunda mitad de la década.
Un aviso para toda la industria: reservar capacidad es una cosa, lograr especificaciones es otra
Este tipo de “ajustes” también encaja con otra tendencia que se está consolidando: los nodos punteros y los componentes críticos se están negociando con años de antelación, pero eso no garantiza que las especificaciones más ambiciosas puedan industrializarse a la velocidad que el mercado quiere.
En 2026, la IA ha convertido la cadena de suministro en un arma competitiva. La memoria HBM, por su dificultad de fabricación y su valor, está en el centro. Si los fabricantes de memoria priorizan yield y estabilidad sobre la última décima de rendimiento, el resto se adapta. Y si la diferencia final entre rivales se mide en décimas, la ventaja real se traslada a otras capas: software, red, packaging, energía, logística y capacidad instalada.
Tabla resumen: cómo queda la comparativa de ancho de banda (según cifras publicadas)
| Plataforma | Memoria | Ancho de banda de memoria |
|---|---|---|
| NVIDIA H100 (Hopper) | HBM3 | 3,35 TB/s |
| NVIDIA Blackwell (B200 / HBM3E) | HBM3E | ~8 TB/s |
| NVIDIA Vera Rubin (objetivo inicial, reportado) | HBM4 | ~22 TB/s |
| NVIDIA Vera Rubin (ajuste reportado) | HBM4 | ~20 TB/s |
| AMD Instinct MI450 (dato público de AMD) | HBM4 | 19,6 TB/s |
La conclusión práctica es sencilla: si el ajuste se confirma tal y como lo describen estas fuentes, Rubin seguirá siendo un salto enorme, pero la “carrera del titular” contra AMD por memoria será menos diferencial de lo que se había insinuado. Y eso obligará a NVIDIA a ganar la partida donde suele hacerlo: rendimiento real a escala, ecosistema y velocidad de despliegue.
Preguntas frecuentes
¿Por qué es importante pasar de 22 TB/s a 20 TB/s en HBM4?
Porque en IA el ancho de banda de memoria es un factor crítico para alimentar el cómputo. Un recorte del objetivo también indica límites de fabricación y puede estrechar diferencias frente a competidores.
¿Qué significa “Gb/s por pin” y por qué afecta tanto?
Es la velocidad de transferencia por cada línea de datos de la memoria. En HBM4, al combinarse con buses muy anchos, pequeñas variaciones por pin se traducen en cambios enormes de ancho de banda total.
¿AMD realmente tiene 19,6 TB/s de ancho de banda en HBM4?
AMD ha publicado cifras de 19,6 TB/s para su MI450 Series junto con 432 GB de HBM4 en documentación corporativa. Eso no implica rendimiento final idéntico, pero sí marca el nivel de referencia.
¿Esto significa que NVIDIA “pierde” la generación Rubin?
No necesariamente. Aunque el ancho de banda sea menor que el objetivo inicial reportado, Rubin seguiría multiplicando a generaciones anteriores. La diferencia real dependerá de arquitectura, interconexión, software y rendimiento a escala.
vía: MyDrivers