Seúl / Silicon Valley. Tras meses de rumores, pruebas fallidas y segundas oportunidades, Samsung ha logrado lo que parecía esquivo: entrar oficialmente en la cadena de suministro de HBM de NVIDIA. Diversas informaciones coinciden en que la compañía de Jensen Huang ha encargado pilas HBM3E de 12 alturas (12-Hi) al gigante coreano para sus soluciones Blackwell Ultra a escala de rack (GB300). La decisión, que llega en la recta final de la generación HBM3E antes del salto a HBM4, supone un triunfo industrial y reputacional para Samsung y reconfigura el mapa de proveedores de memoria de alto ancho de banda que hasta ahora dominaban SK hynix y Micron.
El movimiento tiene dos lecturas de calado. La primera, técnica: Samsung ha superado por fin los obstáculos de calificación (qual tests) que la mantuvieron fuera de los pedidos “core” de NVIDIA a lo largo de 2024 y buena parte de 2025. La segunda, estratégica: abre una tercera vía de suministro que diversifica riesgos para NVIDIA en un contexto en el que la memoria HBM es, junto a la HBM3E/4 y la HBM-co-packaged, el cuello de botella más crítico para escalar cómputo de IA.
Qué se ha cerrado (y por qué importa)
- Producto: HBM3E 12-Hi de Samsung.
- Destino: NVIDIA Blackwell Ultra GB300, soluciones “rack-scale” de nueva hornada pensadas para entrenamiento e inferencia de gran escala.
- Estado: acuerdo “prácticamente confirmado” según prensa coreana; volúmenes, precios y calendario en ajuste final.
- Implicación: Samsung entra por fin en el “core program” de HBM de NVIDIA, rompiendo un ciclo de retrasos en certificación que había erosionado su posición en la ola de IA.
Para Samsung, es aire fresco tras una fase en la que SK hynix se posicionó como el actor dominante en HBM3/3E para IA y Micron aceleró con su HBM3E 24 GB 8-Hi/12-Hi. Para NVIDIA, supone más elasticidad en capacidad y precio, justo cuando la compañía prepara la transición hacia HBM4 en la segunda mitad del ciclo Blackwell.
Del “Jensen Approved” al sí técnico: un año y medio de montaña rusa
Quedará como anécdota de esta generación: en GTC 2024, Huang dejó su famosa firma “Jensen Approved” sobre un módulo HBM3E 12-Hi de Samsung. La foto circuló, el mercado se ilusionó… y después llegó la realidad: fallos en pruebas de calor, consumo y fiabilidad aplazaron los pedidos y el propio CEO de NVIDIA llegó a deslizar que Samsung debía re-diseñar. Ese mensaje, repetido en enero de 2025, tocó orgullo. La respuesta llegó en forma de “rediseño agresivo” y una nueva ronda de samples en el primer semestre. Ahora, el acuerdo para GB300 certifica que la barrera técnica se ha superado.
Un “acuerdo circular” en el aire: 50.000 GPUs a la inversa
En paralelo, han trascendido señales de un paquete recíproco: Samsung habría manifestado la intención de adquirir alrededor de 50.000 GPUs de NVIDIA para impulsar su transformación interna de IA (AX), reforzar servicios y centros de datos y —según conjeturas del mercado— equipar instalaciones ligadas a colaboraciones estratégicas (por ejemplo, el futuro datacenter de IA en Pohang). No hay detalles oficiales, pero la lectura es clara: “yo te vendo HBM, tú me vendes GPU”. Este estilo de financiación y suministro cruzado se está normalizando en la economía de la IA: da visibilidad a ambas partes, alinea incentivos y, si se estructura bien, acelera despliegues sin cargar tanto el balance del cliente final.
¿Por qué HBM3E si el foco ya mira a HBM4?
Buena pregunta. HBM3E es el caballo de batalla actual: madura, con rendimientos conocidos, y suficiente para la primera ola de Blackwell a escala de rack. Mientras tanto, HBM4 —con interfaces más anchas, pilas más altas y unión avanzada (2.5D/3D con interposer orgánico o híbrido)— avanza en qual hacia 2026. Aquí Samsung confía tener ventaja relativa: cuenta con líneas lógicas y de semiconductores integradas bajo su paraguas, mientras que rivales como SK hynix y Micron apoyarán parte de su ruta de integración avanzada en TSMC. ¿Traducción al corto plazo? Samsung monetiza hoy HBM3E y posiciona su HBM4 con un relato de coste competitivo y integración vertical atractiva para NVIDIA y AMD.
Ojo: que esta primera remesa de HBM3E 12-Hi para GB300 no se espere gigantesca no resta importancia. Romper la barrera técnica y contractual abre la puerta a HBM4 con menos fricción y pone a Samsung dentro del ciclo en el momento en que Blackwell y sus sucesoras más lo van a exigir.
Impacto sistémico: menos concentración, más resiliencia
Para el ecosistema, la diversidad en HBM es salud. El triple sourcing (SK hynix, Micron y Samsung) reduce riesgos de suministro, da margen para negociar precios y, sobre todo, acelera el ramp de capacidad cuando la demanda de IA —entrenamiento multimodal, agentes, simulación— no afloja. En paralelo, el posible “acuerdo circular” de compra de GPUs por parte de Samsung añade volumen asegurado para NVIDIA y empuja la agenda de IA corporativa del conglomerado coreano.
Qué mirar a partir de ahora
- Calendario y volumen del suministro HBM3E 12-Hi a GB300: plazos de primeras entregas, mix por nodo y rendimientos en producción.
- Hoja de ruta HBM4: quién qualifica primero con NVIDIA y AMD, y con qué condiciones (ancho de canal, velocidad, altura, consumo).
- Detalles del paquete recíproco: si se formaliza la compra de 50.000 GPUs por Samsung, qué modelos, para qué cargas y dónde se instalarán.
- Señales de coste: cómo se traslada la tercera fuente a precios efectivos y márgenes de los aceleradores Blackwell Ultra en 2026.
Lectura de fondo: un tablero más abierto camino de 2026
Blackwell Ultra GB300 será recordado como el paso en que los rack-scale systems cristalizaron la idea de cómputo como bloque (GPU + interconexión + memoria + software), y la memoria HBM se consolidó como el segundo silicio crítico tras la GPU. Con Samsung dentro, NVIDIA gana amplitud; Samsung recupera tracción en DRAM de máxima gama; y el mercado de IA encara el salto a HBM4 con tres sillas ocupadas. El resto —costes, rendimientos, calendarios— decidirá quién marca el ritmo en la próxima vuelta.
Fuentes: