Lo que hasta hace poco sonaba a ciencia ficción industrial empieza a tomar forma con cifras que marean: OpenAI habría alcanzado un acuerdo con Samsung y SK Hynix para reservar en torno al 40 % de la capacidad mundial de DRAM durante los próximos años, con el objetivo de abastecer su ambicioso proyecto Stargate AI. Según las informaciones publicadas, la compañía planea consumir unas 900.000 obleas de DRAM al mes hasta 2029; una cifra que, comparada con la capacidad global prevista a finales de 2025 —alrededor de 2,25 millones de obleas mensuales— revela el tamaño del terremoto: casi la mitad de la producción global quedaría comprometida para un solo cliente y un único programa de centros de datos.
El movimiento, de confirmarse en sus términos agregados, reordena prioridades a lo largo y ancho de la cadena de valor de semiconductores: desde los fabricantes de memoria a los proveedores de equipos (litografía, deposición, grabado), pasando por los diseñadores de GPU, los hiperescaladores competidores de OpenAI y, en último término, el mercado de consumo (PC, consolas, móviles), que podría ver cómo la DRAM —hasta ahora abundante y cíclica— se convierte en cuello de botella.
Las cifras que asustan: de las obleas a los chips, y de ahí a los 120.000 millones de dólares
Trasladado a chips, el número de 900.000 obleas/mes puede equivaler, con supuestos típicos de densidad y rendimiento, a entre 1.500 y 1.700 millones de circuitos LPDDR5 o DDR5. JPMorgan ha estimado que este nivel de demanda supondría del orden de 130.000 millones de gigabits de memoria y hasta 120.000 millones de dólares de ingresos, dependiendo de la mezcla entre DRAM estándar y HBM (memoria apilada de alto ancho de banda, clave para IA).
El impacto en capex también es sideral: 160.000 millones de dólares en nuevas fábricas y equipos para sostener la expansión, con ASML, Applied Materials, Lam Research o Tokyo Electron entre los beneficiados evidentes por la venta de escáneres EUV/DUV y herramientas de proceso. La pregunta no es si los proveedores de capital atacarán ese mercado; es si pueden escalar a la velocidad que el cliente exige.
Samsung y SK Hynix dentro; Micron, fuera (de momento)
Los dos fabricantes surcoreanos han sido citados como firmantes del acuerdo marco. En contraste, Micron, tercer actor global en DRAM y única estadounidense del trío, queda fuera de la foto según las informaciones disponibles. La exclusión no es menor: en un entorno de tensión política y relocalización de cadenas críticas, el hecho de que el principal consumidor de IA del planeta comprometa semejante volumen con proveedores extranjeros forzará conversaciones al más alto nivel político y empresarial en Washington.
La alianza con Samsung iría, además, más allá de los chips: se menciona la participación de Samsung SDS en diseño de centros de datos, de Samsung C&T y Samsung Heavy Industries en infraestructuras (incluso flotantes) y distribución de ChatGPT Enterprise en Corea. Pero el núcleo sigue siendo el mismo: asegurar que a OpenAI no le falte memoria crítica para entrenar y servir modelos cada vez más grandes.
¿Por qué la DRAM se convierte en el centro del tablero?
Hasta ahora, el imaginario del hardware para IA giraba en torno a la GPU: más FLOPS, más NVLink, más coherencia. El cuello de botella siguiente —y ya visible— es la memoria: el ancho de banda y la capacidad que permiten alimentar a esas GPUs y secuenciar inferencias con contextos de cientos de miles de tokens o lotes masivos en entrenamiento.
La HBM (memoria apilada en 3D sobre interposers) se ha convertido en el estándar de facto para GPU de IA; pero la DRAM tradicional —DDR5/LPDDR5— sigue siendo la sangre de servidores, CPUs y aceleradores que no usan HBM, además de la base para sistemas de almacenamiento en memoria, buffers y cachés a escala. Comprometer casi la mitad de la producción mundial de DRAM empuja al resto de la industria a recalcular y blindar sus suministros.
Efectos dominó: precios, disponibilidad y planificación
Si la capacidad industrial de DRAM no crece al ritmo exigido por Stargate, el mercado afronta un escenario clásico de escasez: precios al alza, plazos de entrega más largos y priorización de clientes de mayor poder de compra —léase, hiperescala e IA— frente al consumo. El kit de DDR5 para PC o la LPDDR móvil pasarían de ser un comodity a una variable con peso en el bill of materials (BoM). Y hablar de DDR6 para la próxima hornada de plataformas deja de ser un asunto de estándar para convertirse en tema de capacidad fabril y rangos de precio asumibles.
Las empresas que dependen de servicios cloud también se verán afectadas de forma indirecta: los hiperescalares trasladarán costes y limitaciones a sus catálogos, y las entregas de hardware para expansión de centros de datos podrían ralentizarse si los módulos de memoria sufren tensiones.
¿Puede la industria responder a tiempo?
La expansión de capacidad en DRAM no se improvisa: levantar o ampliar una fábrica requiere años, permisos, financiación, garantías de demanda a largo plazo y un ecosistema de proveedores —desde químicos a retículas— que también debe escalar. ASML (litografía EUV/DUV), Applied Materials/Lam Research/Tokyo Electron (equipos de deposición/grabado/metrología) y un largo etcétera tendrían que operar a plena máquina. Es factible con incentivos y contratos a largo, pero el riesgo de plazos es real.
Además, la mezcla DRAM vs HBM condiciona la respuesta: la HBM implica apilado, interposers y empaquetado avanzado (CoWoS, FO-PLP), que hoy mismo es una restricción global en manos de pocos proveedores. Si OpenAI y sus socios empujan HBM en grandes volúmenes, ese cuello de botella puede tensarse aún más.
¿Qué gana OpenAI (y qué arriesga)?
Asegurar memoria en volumen le otorga a OpenAI un arma estratégica: prioridad en la escala y previsibilidad de costes en un recurso crítico. Pero también concentra riesgos: compromisos multianuales de miles de millones, dependencia de roadmaps y rampas de terceros y la posibilidad de reacción regulatoria si la escasez impacta a sectores clave. Además, reservar no equivale a recibir: la industria deberá cumplir cronogramas exigentes durante años excepcionales.
Un acuerdo de “tres pisos”: memoria, infraestructuras y ecosistema
El acuerdo con Samsung incluiría también diseño y construcción de centros de datos, incluso infraestructuras flotantes (una línea que desde Corea se estudia para alojar potencia de cómputo con enfriamiento distinto y energía cercana), y distribución de ChatGPT Enterprise en el país. El núcleo económico, con todo, no cambia: asegurar DRAM y —según la mezcla final— HBM a volúmenes históricos.
El resto del tablero se mueve: GPU, servidores, cloud y consumo
- Fabricantes de GPU: NVIDIA —y rivales— tendrán que garantizar que la escala de memoria acompaña a la escala de cómputo en los próximos saltos de arquitectura.
- Servidores y almacenamiento: los diseños de placa, zócalos y backplanes podrían modularse más para amortiguar variaciones de precio/disponibilidad de DRAM.
- Cloud públicos: hiperescalares sin acceso preferente a la DRAM reservada blindarán contratos con otros fabricantes y ajustarán catálogos.
- Consumo: PC y móviles sentirán el efecto con retraso pero con intensidad si los planes de expansión patinan. Resulta verosímil un ciclo de precios al alza para DDR5/LPDDR5 y un lanzamiento de DDR6 bajo tensión de oferta.
El factor político: cadenas críticas y “America First”
La ausencia de Micron en el acuerdo —según lo reportado— colocará el asunto en la agenda de Washington: DRAM es cadena crítica, igual que chips lógicos y litografía. Si Samsung y SK Hynix concentraran más del 40 % de la producción global para un programa con sello estadounidense, cabe esperar presión para diversificar y repatriar parte del suministro a través de incentivos o compromisos paralelos.
Una paradoja de la IA: sin memoria, no hay futuro
La IA necesita memoria en cantidades y formatos que hace dos años parecían excesos. El “acuerdo del siglo” en DRAM dibuja un escenario de abundancia condicionada: si la capacidad crece a tiempo, la curva de IA seguirá su curso; si no, veremos selección de prioridades, precios tensos y aplazamientos.
La industria tiene ante sí una oportunidad colosal —100.000+ millones de ingresos adicionales, capex récord, nuevas fábricas— y una exigencia monumental: entregar a escala, sin fallar, durante años.
Preguntas frecuentes
¿Qué es exactamente Stargate AI y por qué necesita tanta DRAM?
Stargate AI es el nombre que se ha atribuido al macroproyecto de centros de datos de OpenAI para entrenar y servir modelos de inteligencia artificial de siguiente generación. Ese salto demanda memoria en volúmenes extraordinarios —tanto DRAM estándar (DDR5/LPDDR5) como, previsiblemente, HBM— para alimentar GPU y aceleradores con grandes contextos y lotes.
¿De dónde sale el dato de “900.000 obleas al mes” y qué supone frente a la oferta global?
Las informaciones publicadas hablan de ~900.000 obleas/mes hasta 2029. Contrastado con una capacidad mundial prevista de ~2,25 millones de obleas/mes a finales de 2025, supone algo más del 40 % de la producción global de DRAM comprometida para un único cliente.
¿Cómo afectará esto al precio y disponibilidad de DDR5/DDR6 para PC y móviles?
Si la capacidad no crece al ritmo que exige el acuerdo, es probable un ciclo de precios al alza y plazos más largos para DDR5/LPDDR5; el despliegue de DDR6 llegaría bajo tensión de oferta. El impacto exacto dependerá de la mezcla DRAM/HBM, del éxito de la rampa fabril y de contratos de suministro alternativos.
¿Por qué Micron queda fuera y puede cambiar esa situación?
Según lo publicado, Micron no figura en el acuerdo con OpenAI, frente a Samsung y SK Hynix. Política y seguridad económica en EE. UU. podrían impulsar ajustes a medio plazo para diversificar suministro. En todo caso, la capacidad adicional tardará en llegar: levantar fabs y asegurar equipos y materiales requiere años, no meses.
vía: news.samsung