Memorias HBM: el corazón oculto de la inteligencia artificial y la supercomputación

Las memorias HBM (High Bandwidth Memory) se han convertido en uno de los componentes estratégicos más codiciados de la industria tecnológica. En plena era de la inteligencia artificial y la supercomputación, estas memorias de ancho de banda ultraalto están redefiniendo los límites del rendimiento en procesadores gráficos (GPUs), centros de datos y sistemas de alto rendimiento (HPC).

¿Qué es la memoria HBM?

La memoria HBM es un tipo de DRAM apilada en 3D, conectada directamente al procesador mediante un interposer de silicio. A diferencia de la memoria GDDR (utilizada en tarjetas gráficas convencionales), que se dispone alrededor de la GPU en módulos separados, la HBM se sitúa físicamente junto al chip principal, reduciendo la latencia y multiplicando el ancho de banda disponible.

  • Ancho de banda masivo: supera ampliamente a GDDR6 y GDDR7 en velocidad de transferencia.
  • Eficiencia energética: ofrece mayor rendimiento por vatio, crucial en servidores y sistemas de IA.
  • Diseño compacto: al estar apilada, reduce el espacio en placa, lo que permite integrar más potencia en menos superficie.

Evolución de las generaciones HBM

Desde su primera introducción en 2015 con las tarjetas gráficas AMD Radeon Fury, la tecnología HBM ha experimentado una rápida evolución:

GeneraciónAño introducciónAncho de banda por pilaCapacidad máxima por pilaUso destacado
HBM12015~128 GB/s1 GBAMD Radeon R9 Fury X
HBM22016-2017~256 GB/s8 GBNVIDIA Tesla V100, AMD Vega
HBM2E2019-2020~410 GB/s16 GBNVIDIA A100, Huawei Ascend
HBM32022~819 GB/s24 GBNVIDIA H100, AMD Instinct MI300
HBM3E2024~1,2 TB/s36 GBNVIDIA H200, Intel Gaudi 3
HBM4Previsto 2026>1,5 TB/s (estimado)>48 GBPróximos sistemas de IA exaescala

Cada salto generacional ha supuesto un incremento radical en ancho de banda y capacidad, respondiendo a las crecientes demandas de la IA generativa y la supercomputación científica.

¿Quién lidera la producción mundial de HBM?

La industria de HBM está fuertemente concentrada en tres fabricantes surcoreanos y uno japonés, lo que convierte a esta tecnología en un recurso estratégico global:

  • SK hynix: actual líder del mercado. Es el principal proveedor de Nvidia, con más del 50 % del suministro mundial de HBM3E. Sus memorias están en los chips H100 y H200, motores de la actual ola de IA.
  • Samsung Electronics: históricamente dominante en DRAM, perdió recientemente el liderazgo en HBM al no conseguir contratos con Nvidia, aunque sigue suministrando a AMD y Broadcom. Está acelerando el desarrollo de HBM4.
  • Micron Technology (EE. UU.): tercer jugador en capacidad, se centra en memorias especializadas para centros de datos y en DDR5. Su adopción de HBM ha sido más tardía.
  • Kioxia (Japón): aunque más enfocada en NAND Flash, ha iniciado desarrollos de HBM en colaboración con socios estratégicos.

En la práctica, la hegemonía está en manos de SK hynix y Samsung, cuya rivalidad marca la dirección del mercado.

Comparativa HBM vs GDDR

CaracterísticaGDDR6X / GDDR7HBM2E / HBM3 / HBM3E
Ancho de bandaHasta ~1 TB/s (con múltiples chips)Hasta ~1,2 TB/s por pila
Consumo energéticoAlto, por cada chip independienteBajo, gracias a proximidad al procesador
LatenciaMayorMenor
CosteMás baratoMás caro (producción compleja)
AplicacionesGaming, gráficas de consumoIA, HPC, data centers, supercomputación

En resumen: la GDDR sigue reinando en PCs de consumo y consolas, pero la HBM es la opción inevitable en el ámbito de la IA, donde el rendimiento por vatio y la densidad marcan la diferencia.

El papel de Nvidia y la IA generativa

La explosión de la IA generativa ha convertido a Nvidia en el cliente decisivo del mercado HBM. Sus GPUs H100 y H200, usadas en los grandes centros de datos de OpenAI, Microsoft y Google, dependen de las memorias de SK hynix.

La elección de proveedor por parte de Nvidia es hoy uno de los factores que más impacta en las acciones bursátiles de Samsung y SK hynix en la bolsa de Seúl (KOSPI). Un solo contrato puede redefinir el liderazgo mundial de memorias, como se ha visto en 2025.

Futuro: HBM4 y el salto exaescala

La próxima generación, HBM4, ya está en desarrollo y se espera para 2026. Prometerá superar los 1,5 TB/s de ancho de banda por pila y elevar la capacidad a más de 48 GB. Será clave en los superordenadores de exaescala y en la próxima generación de modelos de IA multimodales, que requerirán miles de GPUs interconectadas.

El futuro de la HBM no solo marcará la dirección de la inteligencia artificial, sino también la soberanía tecnológica de países y corporaciones que dependen de estos chips para avanzar en biomedicina, investigación climática o defensa.


Preguntas frecuentes (FAQ)

¿Qué diferencia a la memoria HBM de la GDDR tradicional?
La HBM está apilada en 3D y ubicada junto al procesador, ofreciendo mucho más ancho de banda y menor consumo energético.

¿Qué fabricantes dominan el mercado de HBM?
SK hynix lidera, seguido de Samsung y, a distancia, Micron. Nvidia es el cliente clave que decide la balanza.

¿Por qué es tan cara la memoria HBM?
Su proceso de fabricación es complejo: requiere interposers de silicio y apilado en 3D, lo que encarece los costes frente a GDDR.

¿Qué papel tendrá HBM4?
Será fundamental en la próxima ola de supercomputadores y en la IA de exaescala, con mayor ancho de banda y capacidades de memoria sin precedentes.

encuentra artículos

newsletter

Recibe toda la actualidad del sector tech y cloud en tu email de la mano de RevistaCloud.com.

Suscripción boletín

LO ÚLTIMO

×