La tormenta perfecta que se intuía en la memoria DRAM podría replicarse —y durante más tiempo— en flash NAND. Pua Khein-Seng, consejero delegado de Phison, ha advertido de que la oferta de NAND no será capaz de seguir el ritmo de la demanda y que el mercado afronta un “superciclo” que podría tensionarse en 2026 y prolongarse “hasta diez años”. El aviso, recogido por la revista taiwanesa CommonWealth y citado por Tom’s Hardware, llega al día siguiente de trascender el macroacuerdo de OpenAI con Samsung y SK Hynix para reservar casi la mitad de la producción mundial de DRAM con destino a su proyecto Stargate AI.
La combinación de ambos movimientos —acaparamiento de DRAM y escasez estructural de NAND— dibuja un escenario en el que la memoria pasa de “comodity cíclica” a recurso estratégico para la IA, con efectos que irían desde los centros de datos hasta el PC del consumidor.
De entrenar a monetizar: por qué la inferencia dispara la demanda de NAND
La tesis de Pua es directa: las grandes nubes ya han realizado la inversión masiva en GPU y HBM para entrenar modelos durante 2022–2023. La siguiente fase —monetizar— pasa por inferencia a escala, y la inferencia no estresa solo cómputo; arrastra almacenamiento.
En concreto, el ejecutivo pone el foco en el “nearline storage”: esa categoría intermedia que no es tan rápida (ni cara) como el hot storage ni tan barata (ni lenta) como el cold/archival (cinta). En nearline viven versiones previas de modelos, datasets de consulta no diaria, trazas y perfiles de usuario, resultados de consultas y artefactos que conviene tener a mano con latencias razonables. Ese estrato consume NAND en volúmenes significativos.
“Tras gastar tanto capital en IA, ¿cómo recuperarán la inversión las empresas de la nube? Con la inferencia”, resume Pua. Y la inferencia “necesita almacenamiento —y mucho—”.
Un desequilibrio de largo recorrido (y de incentivos)
Pua recuerda que la rentabilidad de la NAND lleva años en el filo: cuando los fabricantes invertían agresivamente, la oferta superaba a la demanda y los precios caían, haciendo difícil amortizar capex. Ese círculo vicioso llevó a frenar gasto en 2019–2020. Después, en 2023, Micron y SK Hynix redirigieron parte importante de su capex hacia HBM —atraídos por márgenes más altos—, debilitando aún más la inversión en flash.
El péndulo ahora oscila al otro lado: tras una fase de precios deprimidos y exceso de inventario, SanDisk, Micron y Western Digital han anunciado congelaciones y subidas ante una demanda que repunta. Si la IA sigue absorbiendo recursos a escala masiva, la subinversión de años previos se traducirá en oferta insuficiente para cubrir el nuevo pico.
El diagnóstico de Pua: 2026 será “severo” en NAND y, a partir de ahí, la oferta seguirá limitada “hasta 2036” si el capex no acelera en toda la cadena (fabs, equipos, materiales).
DRAM hoy, NAND mañana: dos caras de la misma presión
La señal de alarma en DRAM ha sido estridente: el acuerdo de OpenAI para consumir ~900.000 obleas/mes hasta 2029 —en un mercado que rondaría 2,25 millones al mes a finales de 2025— equivale a bloquear ~el 40 % de la capacidad mundial. Para sostenerlo, el sector necesitaría ~160.000 millones $ en capex nuevo, desde ASML (litografía) hasta Applied, Lam o Tokyo Electron (proceso).
La NAND no vive aislada de estos flujos: capex y ingeniería compiten por recursos (herramientas, salas blancas, técnicos), y las empresas ajustan inversión hacia donde ven márgenes más altos (HBM, GPU de empaquetado avanzado). Si la prioridad industrial se decanta por HBM y chips lógicos, la NAND queda postergada, ralentizando su rampa justo cuando la inferencia la necesita.
¿Qué significa un “superciclo” de memoria?
El término describe periodos en los que la demanda estructural crece más rápido que la oferta, elevando precios y manteniéndolos altos durante años —no meses—, hasta que el capex reorganiza el equilibrio. En NAND, los ingredientes están sobre la mesa:
- Demanda: IA consumidora de almacenamiento (nearline), crecimiento de datos (vídeo, sensores, logs), expansión de nube y edge.
- Oferta: subinversión previa, desviación de capex hacia HBM/lógica, complejidad creciente (más capas 3D, procesos avanzados), concentración de proveedores.
- Elasticidad: pocas alternativas directas para nearline si se necesita latencia “decente” y capacidad masiva —la cinta crece, sí, pero sirve otra necesidad (archivo/retención legal).
Si el capex en NAND no despega en paralelo a DRAM/HBM, el superciclo de Pua no suena “catastrofista”: suena probable.
Quién gana y quién sufre si Pua acierta
Ganadores potenciales
- Fabricantes de NAND con capacidad e integración vertical (chips, controladores, módulos).
- Proveedores de equipos (litografía DUV, deposición, grabado, metrología) si el capex responde.
- Diseñadores de controladores y firmware (como la propia Phison) si los clientes priorizan eficiencia, endurance y optimización de TCO.
Perdedores potenciales
- Hipercaladores y SaaS con flotas nearline infra dimensionadas o sin contratos de suministro a largo plazo.
- OEM de PC y móvil si la NAND compite en precio/volumen con el centro de datos.
- Startups que dependan de acceso barato a almacenamiento flash para escalar servicios.
¿Está la industria preparada para una década “apretada”?
La respuesta no depende solo de dinero. Requiere:
- Capex sostenido en fábricas y equipos (dos a tres años por fab).
- Ingeniería para subir capas 3D sin comprometer rendimiento/endurance (yields).
- Ecosistema: químicos, máscaras, reticles, supply de gases y materiales.
- Mano de obra cualificada y permisos (geopolítica, incentivos públicos).
Además, la mezcla HBM vs NAND condiciona prioridades. La HBM exige empaquetado avanzado (CoWoS, FO-PLP) y interposers —hoy un cuello visible—. Si los proveedores concentran músculo allí, la NAND podría ir detrás incluso con demanda fuerte.
¿Qué pueden hacer ahora los distintos actores?
Hiperescaladores y grandes SaaS
- Asegurar contratos plurianuales con proveedores de NAND (capacidad, precios, SLAs).
- Rediseñar tiers: mover de “hot a nearline” más rápido, comprimir y deduplicar sin sacrificar rendimiento.
- Evaluar alternativas (QLC de alta densidad, sistemas híbridos con cinta para parte del nearline).
OEM / PC / Móvil
- Planificar BoM con escenarios de precio al alza y posibles cuellos en módulos.
- Diversificar suministro por región/fabricante para mitigar shocks.
Proveedores de equipos
- Alinear hojas de ruta con NAND además de HBM/lógica; preparar capacidad y servicio posventa para rampas aceleradas.
Reguladores y gobiernos
- Incentivar capex en NAND (no solo HBM/lógica), agilizar permisos y fortalecer cadenas críticas.
Preguntas abiertas (y realistas)
- ¿Se materializará el “severo 2026” de Pua? Todo apunta a un estrés claro si capex no reacciona ya.
- ¿Durará diez años? Dependerá de cuánto y cómo se invierta, de la eficiencia de cada nodo/capa y de si la inferencia a gran escala mantiene su curva de adopción.
- ¿Desplazará al consumo? El mercado de PC/móvil sufrirá segundo orden, pero si nearline compite precio/volumen, veremos tensión en SSD cliente.
- ¿Cambiará la arquitectura? Es probable más tiering, más compresión/deduplicación, y más inteligencia en controladores para exprimir cada TB.
Conclusión: la memoria deja de ser un “trasfondo” — pasa a marcar el ritmo de la IA
El aviso de Phison encaja con la foto más amplia: la IA ha convertido a la memoria —DRAM y NAND— en palanca estratégica. Ayer fue el “bloqueo” de DRAM para Stargate; hoy, la NAND como cuello para la inferencia durante años. Entre medias, una industria que debe financiar, construir y operar fábricas a un ritmo que no admite tropiezos, con la geopolítica y el retorno mirando de reojo.
Si Pua acierta, 2026 será el primer golpe de realidad: la memoria flash ya no será la pieza barata y abundante que se daba por hecha. Y el éxito de la IA dependerá tanto de FLOPS como de gigabits bien provisionados.
Preguntas frecuentes
¿Por qué el CEO de Phison habla de una escasez de NAND de “hasta diez años”?
Según Pua Khein-Seng, el mercado arrastra subinversión en NAND (capex contenido en 2019–2020 y desvío hacia HBM en 2023), mientras la demanda crece por la inferencia de IA (nearline) y la generación exponencial de datos. Ese choque oferta/demanda podría extenderse más allá de los ciclos habituales de 12–18 meses.
¿Qué diferencia hay entre el problema de DRAM y el de NAND en esta coyuntura?
La DRAM está bajo presión inmediata (acuerdos como el de OpenAI para Stargate), vinculada a entrenamiento/serving con HBM/DDR5. La NAND entra en juego en la inferencia (nearline) y almacenamiento masivo de baja latencia. Ambos compiten por capex y recursos industriales; si se prioriza HBM, la NAND puede quedarse atrás.
¿Cómo afectará esto a los precios de SSD (cliente y datacenter) en 2026–2027?
Si el capex NAND no se acelera, es verosímil un ciclo de precios al alza y plazos más largos, con mayor impacto en SSD para centros de datos (nearline/QoS) y, por contagio, en SSD cliente. El grado dependerá de la mezcla de demanda, nuevas fábricas y eficiencias en 3D NAND (capas).
¿Qué pueden hacer las empresas que dependen de almacenamiento flash para contener el riesgo?
Asegurar suministro plurianual, diversificar proveedores, optimizar tiers (hot/nearline/cold), aplicar compresión/deduplicación, y explorar híbridos con cinta donde la latencia lo permita. En diseño, adoptar QLC de alta densidad y firmwares centrados en endurance/QoS puede mejorar el TCO bajo tensión de oferta.