La próxima generación de memoria de alto ancho de banda se prepara para irrumpir en el mercado con mayor rendimiento… y precios considerablemente más elevados
La memoria HBM4, llamada a convertirse en el nuevo estándar para cargas de trabajo exigentes en inteligencia artificial y computación de alto rendimiento (HPC), no solo promete un salto significativo en velocidad, sino también en coste. Según un informe de la firma de análisis TrendForce, HBM4 costará al menos un 30 % más que la actual HBM3E, que ya supuso un encarecimiento del 20 % respecto a su predecesora.
Esta escalada de precios tiene como trasfondo la complejidad técnica de la nueva arquitectura. HBM4 duplicará el número de pines de entrada/salida respecto a HBM3E, pasando de 1.024 a 2.048, lo que implica diseños de chip más grandes, costosos y complejos. A cambio, ofrecerá un ancho de banda máximo de hasta 2.048 GB/s por pila a 8 Gbit/s por pin, según las especificaciones recientemente ratificadas por el consorcio JEDEC.
Ventajas técnicas y nuevos diseños de base die
Samsung y SK Hynix, en colaboración con fundiciones externas, están desarrollando un nuevo diseño denominado logic-based base die, que permitirá integrar mejor la memoria con el procesador. Este avance busca reducir la latencia, aumentar la eficiencia en las rutas de datos y asegurar una transmisión más estable a altas velocidades. En comparación, los base dies de HBM3E eran básicamente canales de señal sin funciones lógicas.
El rediseño apunta a satisfacer la creciente demanda de soluciones de memoria para chips de aceleración de IA y supercomputación, ámbitos donde cada nanosegundo y vatio cuenta. La mejora en la integración lógica promete una memoria más rápida, eficiente y confiable para los próximos procesadores de gama alta.
Mercado al alza: se espera superar los 3,75 exabytes en 2026
La demanda de memoria HBM no muestra signos de desaceleración. TrendForce estima que el volumen total de ventas de HBM —incluyendo todas las generaciones— superará los 30.000 millones de gigabit en 2026, lo que equivale a 3,75 millones de terabytes (3,75 exabytes). Según sus previsiones, HBM4 comenzará a desplazar a HBM3E como solución principal en la segunda mitad del próximo año.
El fabricante surcoreano SK Hynix se mantendría como líder del mercado con más del 50 % de cuota, mientras que Micron y Samsung deberán acelerar sus planes de producción para no quedar rezagados en la carrera por HBM4.
Preparándose para la próxima generación de aceleradores
Los principales actores del mercado de chips ya están preparando sus productos para adoptar esta nueva tecnología. Nvidia ha anunciado que sus futuras GPUs de la generación Rubin, previstas para 2026, incorporarán memoria HBM4. AMD también seguirá esta línea con su próxima serie de aceleradores Instinct MI400.
En paralelo, SK Hynix ya ha comenzado a enviar muestras de sus primeros chips HBM4, fabricados en configuraciones de 12 capas. Aunque todavía no se han revelado las cifras exactas de ancho de banda ni capacidad, se espera que superen los límites actuales de HBM3E, que ya alcanza hasta 1.280 GB/s por stack en las versiones de SK Hynix.
Comparativa de generaciones HBM (ancho de banda por stack)
Generación | Ancho por pin | Ancho por stack |
---|---|---|
HBM1 | 1,0 Gb/s | 128 GB/s |
HBM2 | 2,0 Gb/s | 256 GB/s |
HBM2E | 3,6 Gb/s | 461 GB/s |
HBM3 | 6,4 Gb/s | 819 GB/s |
HBM3E (Micron) | 9,2 Gb/s | 1.178 GB/s |
HBM3E (Samsung) | 9,8 Gb/s | 1.254 GB/s |
HBM3E (SK Hynix) | 10,0 Gb/s | 1.280 GB/s |
HBM4 | 8,0 Gb/s | 2.048 GB/s |
HBM4E (estim.) | ~10,0 Gb/s | ~2.560 GB/s |
Con el estándar HBM4 ya aprobado por JEDEC y las primeras muestras en circulación, la industria se prepara para un nuevo salto en capacidad, velocidad… y coste. Un precio que muchos estarán dispuestos a pagar si se traduce en liderazgo en el exigente mercado de la inteligencia artificial.
vía: computerbase