El mercado mundial de memoria vive una situación que en el sector se describe ya sin tapujos como “modo locura”. El auge de la inteligencia artificial ha disparado la demanda de DRAM, NAND Flash y especialmente de memorias de alto ancho de banda (HBM) hasta el punto de que la capacidad de producción prevista para 2026 está, en la práctica, vendida por adelantado.
Según información adelantada por DigiTimes, los grandes proveedores de servicios cloud (CSP) de Estados Unidos y China han iniciado una carrera para firmar contratos a largo plazo (LTA) de 1 a 2 años con los principales fabricantes de memoria, con el objetivo de asegurarse suministro hasta 2027–2028 y, de paso, colocarse en primera fila de una cadena de valor cada vez más tensa.
2026, un año casi perdido para quien llegue tarde
El diagnóstico que se maneja en la industria es claro:
- La capacidad de DRAM y NAND de 2026 está prácticamente comprometida mediante contratos y reservas con grandes clientes.
- El desabastecimiento no es un riesgo teórico, sino un escenario que muchos actores dan por hecho: no hay margen para “arreglarlo” con más producción a corto plazo.
Los CSP no solo compran para cubrir el consumo previsto de sus centros de datos. Están elevando de forma agresiva sus niveles de inventario, comprando bastante más de lo que consumen hoy para no quedar rezagados en la carrera de la IA. Esto desplaza hacia atrás a todos los demás compradores: fabricantes de servidores, OEM, integradores y empresas que operan infraestructuras on-premise o en housing.
El resultado es un cambio abrupto de equilibrio:
- El poder de negociación pasa a los fabricantes de memoria, que pueden seleccionar a quién venden, en qué condiciones y con qué prioridad.
- En el sector se da por hecho que los precios de contrato seguirán subiendo a lo largo de todo 2026, sin la clásica corrección a la baja en la segunda mitad del año.
- Se habla de subidas acumuladas de hasta un 50 % en los próximos 6–9 meses en algunos segmentos, respecto a los niveles actuales de contratos a largo plazo.
Para asegurar posición, los grandes clientes cloud están dispuestos a aceptar condiciones que hace unos años habrían sido impensables:
- Primas de precio (“overpricing”) a cambio de prioridad de suministro.
- Pagos adelantados para garantizar capacidad.
- Co-financiación de equipos o incluso de nuevas fábricas, atando parte de la producción futura durante varios años.
Solo uno o dos CSP “top” podrían lograr contratos realmente largos y ventajosos. El resto se conformará, en el mejor de los casos, con acuerdos de un año. Y para muchos compradores más pequeños la realidad será otra: negociaciones trimestre a trimestre o incluso mes a mes, sin garantías firmes de suministro.
La presión no se limita a la DRAM. La NAND Flash también está al límite, con fabricantes que advierten de un escenario en el que, incluso aceptando subidas de precio, simplemente “no hay producto” disponible en ciertos momentos. De ahí que ya se vean síntomas en el mercado final:
- Pequeños fabricantes de PCs y servidores subiendo precios o reduciendo las configuraciones máximas de RAM y SSD.
- OEM y ensambladores adelantando compras de componentes “por miedo” a quedarse sin stock.
- Situaciones paradójicas en las que un PC o una consola completa cuestan menos que un kit de RAM DDR5 de gama alta.
Cómo se ha llegado a este cuello de botella
La tormenta perfecta que vive la memoria se explica por la combinación de cuatro factores principales:
- Explosión de la IA generativa y los modelos grandes
Los nodos de cómputo para entrenamiento e inferencia con GPUs de gama alta (como las series H100, H200, B200, MI300 y sucesoras) integran cientos de gigabytes de DRAM y/o HBM, además de grandes volúmenes de NAND en SSD NVMe para almacenar datasets, checkpoints y logs.
Proyectos como los de OpenAI, Anthropic, Meta o Google no despliegan unos pocos servidores: levantan auténticas granjas de GPUs, multiplicando la demanda de memoria por varios órdenes de magnitud. - Fabricantes concentrados en productos de mayor margen
Compañías como SK hynix han decidido volcar la mayor parte de su inversión en HBM y DRAM de alto valor añadido, mientras que la expansión masiva de la capacidad para DRAM “convencional” o NAND avanza mucho más despacio.
Levantar nuevas fábricas y llevarlas al máximo rendimiento exige varios años y miles de millones de inversión, por lo que no hay respuesta rápida posible al pico de demanda actual. - Cambio de modelo: de la sobrecapacidad al “build-to-order”
Tras una década de ciclos de exceso de oferta y hundimientos de precios, la industria de memoria parece haber aprendido la lección. Los grandes fabricantes están migrando hacia un modelo de “primero aseguro pedidos, luego amplío producción”.
En la práctica, esto significa que prefieren quedarse cortos pero con precios altos antes que volver a un escenario de sobrecapacidad con márgenes hundidos. - CSP con caja abundante y urgencia estratégica
Los hiperescalares disponen de capital y presión competitiva: necesitan seguir desplegando infraestructuras de IA para no perder terreno frente a otros actores globales.
Frenar proyectos por falta de memoria no es una opción, así que aceptan pagar más hoy antes que ceder cuota de mercado o retrasar el lanzamiento de nuevos servicios de IA.
Un futuro cercano con precios altos y memoria “política”
Si no se incorpora capacidad nueva de forma significativa, la previsión razonable es que los precios elevados y la volatilidad se extiendan como mínimo hasta 2027.
En ese periodo pueden aparecer nuevos factores desestabilizadores:
- Tensiones geopolíticas que afecten a la cadena de suministro.
- Retrasos en la puesta en marcha de nuevas fábricas.
- Nuevas generaciones de GPUs todavía más intensivas en memoria.
Para las empresas que no forman parte de la élite de los hiperescalares, esto se traduce en servidores más caros, PCs corporativos con mayores costes cuando se requiere mucha RAM, y menos margen para configuraciones “generosas” en estaciones de trabajo o equipos para desarrolladores, IA interna o bases de datos en memoria.
Si los contratos de largo plazo se consolidan, el sector podría volverse menos cíclico, pero también más concentrado y desigual:
- Los fabricantes tendrán parte de su producción vendida con años de antelación.
- Los grandes CSP se asegurarán memoria a precios relativamente más predecibles.
- El resto de clientes quedará en una especie de “cola”, más expuesto a picos de precio y a una disponibilidad incierta.
Impacto en el diseño de infraestructuras y en las empresas
Con una memoria más cara y escasa, los arquitectos de sistemas no tendrán otra opción que exprimir cada gigabyte:
- Mayor adopción de técnicas de compresión de modelos, cuantización (4-bit, 8-bit) y optimización del uso de memoria en entrenamiento e inferencia.
- Jerarquías de memoria más complejas, con uso creciente de tecnologías como CXL para desagregar memoria y compartirla entre nodos.
- Plataformas de orquestación que permitan particionar GPUs y memoria y aumentar la tasa de utilización efectiva, tal y como prometen ya algunos orquestadores avanzados.
Para una empresa “normal” que compra infraestructura —sea on-premise, en housing o cloud privado— el escenario implica:
- Mayor inversión inicial en servidores: la combinación CPU/GPU + mucha RAM + SSD de gran capacidad será sensiblemente más cara.
- Necesidad de planificar a 2–3 años vista las grandes ampliaciones de capacidad, alineando compras de hardware con posibles subidas de precio.
- Revisión de prácticas de consumo de recursos: consolidar cargas, eliminar infra sobredimensionada por inercia y optimizar políticas de retención de datos y cachés.
- Seguimiento cercano de la evolución de precios de DRAM y NAND, para aprovechar cualquier ventana de alivio que pueda llegar a partir de 2027–2028.
Preguntas frecuentes sobre la escasez de memoria por la IA
¿Por qué la inteligencia artificial afecta tanto al precio de la memoria RAM y NAND?
Porque los sistemas de IA modernos utilizan servidores con GPUs de gama alta que requieren enormes cantidades de DRAM, HBM y almacenamiento flash. Cada nuevo clúster de entrenamiento o inferencia supone cientos o miles de módulos adicionales de memoria, lo que tensiona una cadena de suministro que no estaba dimensionada para este ritmo de crecimiento.
¿Cómo impactará esta escasez de memoria en el precio de servidores y PCs empresariales?
La presión sobre DRAM y NAND se traslada a los precios finales de equipos que necesitan grandes capacidades de memoria. Es previsible que servidores con alta densidad de RAM y SSD empresariales suban de precio, y que algunas configuraciones “entusiastas” en PCs y estaciones de trabajo se vuelvan mucho menos asequibles durante 2026 y buena parte de 2027.
Qué pueden hacer las empresas para prepararse ante la subida del precio de la memoria?
Los expertos recomiendan planificar las ampliaciones de capacidad con más antelación, negociar paquetes completos con proveedores (servidor + RAM + SSD), optimizar el uso de recursos (virtualización más eficiente, consolidación de cargas, mejores políticas de almacenamiento) y priorizar inversiones en aquellas áreas donde la memoria aporta más valor directo al negocio.
¿Cuándo podría normalizarse el mercado de memoria tras el pico de demanda de IA?
La normalización dependerá de la entrada en producción de nuevas fábricas de DRAM, NAND y HBM y de si la demanda de IA mantiene el ritmo actual. Es posible que a partir de 2028 se perciba algo de alivio, pero muchos analistas creen que la memoria difícilmente volverá a los niveles de precios muy bajos vistos entre 2019 y 2022, especialmente si se consolidan los contratos de largo plazo entre fabricantes y grandes proveedores cloud.
Fuentes:
DigiTimes; información de mercado y análisis sectoriales sobre DRAM, NAND y demanda de IA.