Samsung Electronics ha superado por fin las pruebas de calificación de NVIDIA para su HBM3E de 12 capas (12-Hi), un hito que llega tras 18 meses de trabajo y varios intentos fallidos para cumplir los exigentes criterios de rendimiento y fiabilidad del líder mundial en aceleradores de IA. El visto bueno, confirmado por fuentes del sector, supone recuperar credibilidad tecnológica en el frente más estratégico de la memoria de alto ancho de banda, en plena carrera por alimentar la siguiente generación de hardware para inteligencia artificial.
El logro es más simbólico que financiero en esta fase: Samsung se convierte en tercer proveedor de HBM3E 12-Hi para NVIDIA —tras SK hynix y Micron— por lo que se esperan volúmenes iniciales relativamente pequeños. Aun así, el reingreso en la cadena de suministro del cliente más codiciado del planeta en IA es un movimiento clave de cara a lo que la propia industria califica como el “verdadero campo de batalla”: HBM4.
Lo que cambia con la validación de HBM3E 12-Hi
- Recuperación técnica: Fuentes del mercado atribuyen el giro a una decisión del responsable de semiconductores de Samsung, Jun Young-hyun, de rediseñar el core DRAM de HBM3E a comienzos de año para resolver problemas térmicos que lastraban versiones previas. En apilados 12-Hi el control térmico y la integridad de señal son críticos: más capas implican mayor densidad, más potencia por milímetro cuadrado y más riesgo de throttling o errores si el diseño no es robusto.
- Cliente dominante: Aunque AMD ya estaba recibiendo HBM3E 12-stack de Samsung para sus MI350, faltaba el “OK” de NVIDIA, el comprador más dominante de memoria avanzada para cargas de IA. La luz verde no garantiza grandes pedidos inmediatos, pero reabre la puerta a futuras combinaciones de producto.
- Tarjeta de visita para HBM4: En un mercado donde SK hynix ha liderado HBM para NVIDIA en los dos últimos ciclos, cualquier avance que demuestre capacidad de ingeniería en el límite (12-Hi, frecuencias y fiabilidad) mejora la posición negociadora de Samsung para la siguiente generación.
El foco real: HBM4 y la arquitectura “Vera Rubin” de NVIDIA
La industria ya está desplazando su atención a HBM4, la sexta iteración de la memoria de alto ancho de banda que debutará con “Vera Rubin”, sucesora de los chips Blackwell de NVIDIA, a partir del próximo año.
Samsung busca recortar distancia frente a SK hynix con un mix de proceso y arquitectura:
- DRAM 1c (10 nm-class) para los dados de memoria frente a 1B de algunos rivales.
- Die lógico a 4 nm fabricado en su foundry, frente a 12 nm empleados por competidores. Este die base (o “lógico”) gestiona enrutamiento, ECC, RAS y el acceso a través de TSV (vías a través del silicio). Un nodo lógico más avanzado mejora eficiencia y señal, clave para empujar más Gbps/pin.
NVIDIA habría pedido a sus proveedores superar los 10 Gbps por pin con HBM4. Según fuentes del sector, Samsung ha demostrado 11 Gbps, por delante del 10 Gbps de SK hynix, mientras Micron sigue esforzándose por cumplir los requisitos. La compañía surcoreana pretende enviar grandes volúmenes de muestras de HBM4 este mismo mes a NVIDIA para asegurar calificación temprana, con vistas a suministro a gran escala en la primera mitad de 2026.
Dónde queda cada actor ahora mismo
- SK hynix: proveedor principal de HBM para NVIDIA en los últimos ciclos, con ventaja de tiempo en HBM3/3E y hoja de ruta sólida hacia HBM4.
- Micron: también calificado por NVIDIA en HBM3E 12-Hi; trabaja para cumplir los objetivos de HBM4 en velocidad.
- Samsung: calificado para HBM3E 12-Hi (NVIDIA) tras servir 12-stack a AMD; en HBM4 apuesta por procesos más avanzados (1c DRAM + 4 nm lógico) y alianzas —incluida la colaboración con TSMC para co-desarrollar HBM4— a fin de acelerar su puesta a punto.
Por qué importa el salto de 8 a 12 capas (HBM3E) y el empuje a 10–11 Gbps (HBM4)
La memoria HBM se apila verticalmente con TSV y se conecta al ASIC (GPU/AI accelerator) mediante ancho de banda extremo a distancias muy cortas. Dos ejes marcan la diferencia:
- Altura del apilado (stacks)
- Pasar de 8-Hi a 12-Hi aumenta la capacidad por stack sin multiplicar el número de stacks por GPU. Menos stacks para la misma capacidad implica rutas más cortas, mejor señal y, potencialmente, mayor rendimiento por vatio.
- El reto: calor y uniformidad a través del apilado. De ahí los rediseños de core, materiales térmicos, distribución de power rails y verificación a límites de temperatura.
- Velocidad por pin (Gbps)
- Elevar de 8 Gbps (estándar actual) a 10–11 Gbps con HBM4 multiplica el ancho de banda total por stack. Para aceleradores como B300 de NVIDIA o MI350 de AMD, más ancho de banda significa menor cuello de botella en inferencia/entrenamiento, especialmente con lotes grandes y secuencias largas.
- El límite lo marcan integridad de señal, jitter, crosstalk y pérdidas en interposer/substrato, además del margen térmico. Alcanzar 11 Gbps estable no es solo cuestión del dado DRAM: el die lógico, el paquete y la plataforma cuentan.
Cronología y hoja de ruta (resumen)
Hito | Situación actual | Próximos pasos |
---|---|---|
HBM3E 12-Hi (Samsung) | Calificada por NVIDIA; ya suministrada a AMD | Volúmenes limitados a corto plazo (tercer proveedor), orientación a credencial técnica |
HBM4 (Samsung) | Muestras en envío a NVIDIA; demostrados 11 Gbps en pruebas | Buscar calificación temprana; objetivo de suministro masivo 1H-2026 |
Ecosistema | SK hynix líder en HBM para NVIDIA; Micron calificado en 3E | Competencia por Vera Rubin (post-Blackwell) y contratos multianuales |
Contexto: por qué HBM es la “arena principal” de la IA
Los aceleradores para IA dependen tanto del cómputo (TFLOPS/BFLOPS) como del ancho de banda y capacidad de memoria adyacente. Modelos de última generación (entrenamiento e inferencia) saturan la memoria antes que el cómputo en múltiples cargas. De ahí que:
- Quien domina HBM condiciona coste, rendimiento sostenido y escalabilidad de clústeres de entrenamiento.
- Cualquier incidencia (rendimiento térmico, yield, logística) en HBM se traslada a entregas de GPU, afectando hojas de ruta de hiperescaladores y fabricantes.
Para Samsung, volver a la cadena de NVIDIA con HBM3E y asomar ventaja en velocidad de HBM4 es tanto orgullo ingenieril como palanca estratégica para recuperar cuota frente a SK hynix.
¿Qué implica para NVIDIA, AMD y los compradores de IA?
- NVIDIA: contar con tres proveedores calificados en HBM3E 12-Hi mitiga riesgos de suministro y precio. En HBM4, presionar por >10 Gbps crea competencia técnica beneficiosa (mejor rendimiento por vatio y por dólar).
- AMD: ya integrando HBM3E 12-stack de Samsung en MI350, gana opciones de segunda fuente y margen para diseños futuros.
- Compradores (cloud/enterprise): más diversidad de supply y potencial para mejores SLAs conforme avanza HBM4; la clave estará en coste total de sistema, eficiencia energética y densidad.
Fortalezas y riesgos para Samsung
Fortalezas
- Proceso avanzado (DRAM 1c y lógico 4 nm) que, bien ejecutado, mejora señal, potencia y térmica.
- Alianza con TSMC para HBM4 que puede ayudar en interposer/packaging y tiempos de calificación.
- Validación en HBM3E 12-Hi que restituye confianza ante el cliente más exigente.
Riesgos
- Ser el tercero en 3E limita volúmenes iniciales; la recuperación de cuota depende de HBM4.
- Yield y térmica en 11 Gbps sostenidos exigen proceso y packaging de alto nivel; cualquier tropiezo reabre la brecha con SK hynix.
- Calendario: la ventana de decisión para Vera Rubin y posteriores será estrecha; time-to-qualify es tan crítico como el rendimiento bruto.
Qué mirar en los próximos 6-12 meses
- Elo de velocidad estable: confirmación de 11 Gbps en lotes reproducibles (no solo demos).
- Calificación HBM4: si Samsung consigue qualification “early” para NVIDIA, habrá reparto de pedidos más equilibrado.
- Paquetes y térmica: señales de mejoras en packaging (interposer, COWOS/SoIC-like, TIMs) que mantengan márgenes térmicos a cargas sostenidas.
- Clientes adicionales: avance en Broadcom y Google, con HBM4 custom según anunció Samsung en abril.
- Capacidad fab + foundry: la sinergia DRAM 1c + lógico 4 nm dependerá de capacidad instalada y rendimientos en ambos frentes.
Tabla rápida: del “presente 12-Hi” al “futuro HBM4”
Parámetro | HBM3E 12-Hi (actual) | HBM4 (en calificación) |
---|---|---|
Capas por stack | 12 | (no oficial) 12-Hi y superiores, según diseño |
Velocidad objetivo | ~8–9 Gbps (estándar), superiores en diseños selectos | >10 Gbps solicitados por NVIDIA; Samsung 11 Gbps demostrados |
Proceso DRAM | n/a (generación 3E) | 1c (10 nm-class) Samsung; 1B competidores |
Die lógico | n/a | 4 nm Samsung vs 12 nm competidores |
Clientes objetivo | NVIDIA (calificado), AMD (ya suministrado) | NVIDIA, Broadcom, Google (acuerdos en negociación) |
Calendario | Entregas limitadas a NVIDIA (tercer proveedor) | Muestras ahora, volumen 1H-2026 (objetivo) |
Conclusión
La validación de HBM3E 12-Hi por parte de NVIDIA devuelve a Samsung a la primera línea del suministro de memoria más crítica para la IA, y prepara el terreno para la verdadera disputa: HBM4. Si la compañía convierte su ventaja de proceso (1c + 4 nm) y la demostración de 11 Gbps en calificaciones tempranas y yields sólidos, podrá recuperar cuota frente a SK hynix y establecerse como proveedor clave en la era Vera Rubin y más allá.
Para la cadena de valor de IA —desde NVIDIA y AMD hasta los grandes compradores cloud—, más competencia y más rendimiento en HBM se traducen en plataformas más rápidas, densas y eficientes. Y ese es el verdadero premio.
Preguntas frecuentes (FAQ)
¿Qué ha conseguido exactamente Samsung con HBM3E?
Ha superado la calificación de NVIDIA para su HBM3E de 12 capas, tras servir 12-stack a AMD. Será tercer proveedor, con volúmenes iniciales moderados.
¿Por qué es tan importante HBM4?
Porque debutará con la arquitectura Vera Rubin, sucesora de Blackwell, y elevará velocidades por pin (>10 Gbps) y densidades. Ahí se decidirán los contratos grandes de 2026-2027.
¿Qué ventaja técnica alega Samsung para HBM4?
Uso de DRAM 1c (10 nm-class) y die lógico a 4 nm, frente a 1B/12 nm en rivales. Ya ha demostrado 11 Gbps, por encima de los 10 Gbps mostrados por SK hynix.
¿Cuándo podría suministrar HBM4 en volumen?
Si la calificación avanza según lo previsto, en la primera mitad de 2026.
¿Sigue liderando SK hynix?
Sí. Es el proveedor principal de HBM para NVIDIA hoy. Pero la validación de Samsung y su empuje en HBM4 reequilibran el tablero.
¿Qué papel juegan Micron y TSMC?
Micron está calificado en HBM3E 12-Hi y trabaja en HBM4. TSMC colabora con Samsung en co-desarrollo de HBM4 (packaging/proceso) para acelerar el time-to-qualify.
vía: ked global