Recibe toda la actualidad del sector tech y cloud en tu email de la mano de RevistaCloud.com.

Suscripción boletín

Samsung acelera la carrera por la memoria HBM3E: busca la aprobación de NVIDIA para mayo

Samsung Electronics pisa el acelerador en el competitivo mercado de las memorias de alto rendimiento (HBM). Según medios surcoreanos como EBN, la compañía está rediseñando su producto HBM3E 12H de 36 GB, con el objetivo de obtener la validación de NVIDIA antes de lo previsto: en mayo de este mismo año.

HBM3E 12H: más rendimiento, más capacidad

La HBM3E 12H se presenta como la memoria HBM de mayor capacidad del mercado, con una pila de 12 capas que alcanza los 36 GB y un ancho de banda de hasta 1.280 GB/s, lo que supone un salto de más del 50 % frente a la actual HBM3 8H de ocho capas. Estas cifras suponen un antes y un después en términos de rendimiento para aplicaciones de IA de última generación, que demandan mayor velocidad, capacidad y eficiencia energética.

Uno de los puntos clave de este avance es la incorporación de la tecnología TC NCF (película no conductora de compresión térmica). Esta innovación permite mantener la misma altura física que las versiones anteriores, a pesar de contar con más capas, y reduce la deformación de las pastillas, mejora la disipación térmica y optimiza el rendimiento.

El reto: conseguir la validación de NVIDIA

Samsung ya había entregado muestras a NVIDIA, pero estas no alcanzaron los niveles de rendimiento requeridos por la compañía estadounidense. Por ello, se ha puesto en marcha un rediseño acelerado para cumplir los exigentes estándares del fabricante líder en aceleradores de IA. Si la validación llega en mayo, como se espera, se abriría la puerta a una producción en masa en el primer semestre de 2025, justo a tiempo para competir con soluciones de SK hynix y Micron.

Cabe recordar que NVIDIA utiliza memorias HBM en su línea de GPU para centros de datos, donde cada mejora en capacidad y ancho de banda se traduce en un rendimiento superior en entrenamiento de modelos de lenguaje (LLMs), procesamiento de IA y entornos HPC.

Hacia la era de la inteligencia artificial a gran escala

El uso de memorias HBM como la HBM3E 12H permite escalar notablemente la eficiencia de los centros de datos. Según estimaciones internas de Samsung, la velocidad de entrenamiento en IA puede aumentar un 34 %, y el número de usuarios concurrentes de servicios de inferencia se podría multiplicar por 11,5 frente a sistemas con HBM3 8H.

Todo esto tiene implicaciones directas para empresas que operan a escala de nube e IA. Un menor número de chips de mayor capacidad reduce el coste total de propiedad (TCO), mejora el consumo energético y permite arquitecturas más compactas y escalables.

En paralelo: Samsung desarrolla ya HBM4

Además de buscar la aprobación de NVIDIA, Samsung ya trabaja en la próxima generación: HBM4, utilizando su nuevo proceso de fabricación 1c. Inicialmente previsto para finales de 2024, el desarrollo se ha retrasado y se espera que esté listo en junio de 2025.

El segundo trimestre de este año se perfila, por tanto, como crucial para Samsung, que aspira a recuperar el liderazgo en un mercado dominado por la alta demanda de soluciones para IA generativa y cloud computing.

encuentra artículos

newsletter

Recibe toda la actualidad del sector tech y cloud en tu email de la mano de RevistaCloud.com.

Suscripción boletín

LO ÚLTIMO