La fiebre por los aceleradores de Inteligencia Artificial suele contarse desde las GPUs, los centros de datos y la energía necesaria para alimentarlos. Pero hay otra pieza menos visible que empieza a condicionar toda la cadena: la memoria. Sin DRAM, NAND y HBM suficientes, los modelos no entrenan ni responden al ritmo que prometen sus fabricantes.
Micron acaba de dejarlo claro con unos resultados récord y un mensaje todavía más potente: la demanda actual de memoria para IA es solo el principio. Sanjay Mehrotra, presidente y consejero delegado de la compañía, ha descrito esta fase como los “primeros innings” de una transformación que, según su lectura, exigirá más capacidad, más ancho de banda y más eficiencia en cada nueva generación de servidores y aceleradores.
Un trimestre récord para Micron
Micron cerró su segundo trimestre fiscal de 2026, finalizado el 26 de febrero, con ingresos de 23.860 millones de dólares, frente a los 13.643 millones del trimestre anterior y los 8.053 millones registrados un año antes. El beneficio neto GAAP fue de 13.790 millones de dólares, o 12,07 dólares por acción diluida, mientras que el beneficio neto no GAAP alcanzó los 14.020 millones, o 12,20 dólares por acción.
La compañía también registró un flujo de caja operativo de 11.900 millones de dólares y un flujo de caja libre ajustado de 6.900 millones. Son cifras poco habituales incluso para un fabricante de memoria en pleno ciclo favorable. El margen bruto no GAAP llegó al 74,9 %, muy por encima del 37,9 % del mismo periodo del año anterior.
| Métrica fiscal Q2 2026 | Resultado | Fiscal Q2 2025 |
|---|---|---|
| Ingresos | 23.860 millones de dólares | 8.053 millones |
| Beneficio neto GAAP | 13.790 millones de dólares | 1.583 millones |
| EPS diluido GAAP | 12,07 dólares | 1,41 dólares |
| Margen bruto no GAAP | 74,9 % | 37,9 % |
| Flujo de caja operativo | 11.900 millones de dólares | 3.940 millones |
| Flujo de caja libre ajustado | 6.900 millones de dólares | 857 millones |
El salto no procede de una sola línea de negocio. La unidad Cloud Memory facturó 7.749 millones de dólares; Core Data Center, 5.687 millones; Mobile and Client, 7.711 millones; y Automotive and Embedded, 2.708 millones. Todas ellas reflejan una mejora amplia del ciclo, aunque el centro de datos y la IA son los factores que están cambiando la narrativa del sector.
Para el tercer trimestre fiscal, Micron espera ingresos de unos 33.500 millones de dólares, con un margen bruto cercano al 81 % y un beneficio no GAAP por acción de 19,15 dólares, con una horquilla de 0,40 dólares. La previsión confirma que la compañía no interpreta el trimestre récord como un pico aislado, sino como parte de una fase de demanda sostenida.
La IA convierte la memoria en un activo estratégico
Durante años, el mercado de memoria ha sido visto como uno de los más cíclicos del sector tecnológico. Cuando la oferta superaba a la demanda, los precios caían con fuerza; cuando escaseaba la producción, los márgenes se disparaban. La diferencia ahora es que la Inteligencia Artificial está cambiando la naturaleza de esa demanda.
Micron sostiene que la demanda de DRAM y NAND para centros de datos impulsada por IA superará por primera vez el 50 % del mercado total direccionable de bits de la industria en 2026. La empresa también asegura que tanto la demanda de servidores tradicionales como la de servidores de IA está limitada por falta de suministro adecuado de DRAM y NAND.
La razón es sencilla. Entrenar y ejecutar modelos avanzados no solo requiere capacidad de cálculo. También necesita mover enormes cantidades de datos con baja latencia. HBM, o High Bandwidth Memory, se ha convertido en una memoria esencial para GPUs y aceleradores de IA, porque ofrece mucho ancho de banda en un formato muy próximo al chip. Pero también es cara, compleja de fabricar y consume capacidad industrial que podría dedicarse a otros productos DRAM.
El problema se extiende más allá de HBM. La inferencia, es decir, la ejecución diaria de modelos para responder a usuarios, generar código, analizar documentos o coordinar agentes, también está elevando las necesidades de memoria. Cuantos más tokens procesan los modelos, más presión aparece sobre DRAM, LPDDR, SSDs de centro de datos y NAND para cargas como bases vectoriales o descarga de caché KV.
Micron afirma que el rápido crecimiento de la inferencia está impulsando nuevas arquitecturas optimizadas para la economía del token. Esa frase resume bien el cambio: ya no se trata solo de entrenar grandes modelos de vez en cuando, sino de servirlos de forma continua, con millones de peticiones, contextos largos y agentes que encadenan múltiples pasos.
HBM4, LPDDR y SSDs: la nueva memoria de la IA
La hoja de producto de Micron también refleja hacia dónde va la industria. La compañía ha comenzado envíos en volumen de su HBM4 de 36 GB y 12 capas, diseñado para la plataforma NVIDIA Vera Rubin. Además, ya ha muestreado un producto HBM4 de 16 capas con 48 GB por cubo, lo que supone un 33 % más de capacidad frente al HBM4 de 12 capas.
El siguiente paso será HBM4E, cuya producción en volumen está prevista para 2027. Micron espera que esta generación use su nodo DRAM 1γ y aporte otra mejora de rendimiento para plataformas de IA. En la práctica, HBM se ha convertido en uno de los componentes que definen la capacidad de una GPU moderna para entrenar y ejecutar modelos grandes.
Pero la compañía también mira más allá de HBM. En memoria LP para centros de datos, Micron ha presentado muestras de SOCAMM2 de 256 GB, basadas en LPDDR, con capacidad para ofrecer hasta 2 TB por CPU. La promesa de LPDDR en servidores está en su eficiencia energética: menos consumo por bit movido, algo relevante cuando los centros de datos empiezan a estar limitados por energía, refrigeración y espacio.
En almacenamiento, la NAND también entra en el debate de la IA. Las bases de datos vectoriales, el uso de SSDs en capas de capacidad y la descarga de caché KV están elevando la demanda en centros de datos. Micron asegura que sus ingresos de NAND para data center se duplicaron con creces de forma secuencial durante el trimestre y que la demanda supera de forma clara su suministro disponible para el futuro previsible.
| Tecnología | Papel en IA |
|---|---|
| HBM | Alimenta GPUs y aceleradores con ancho de banda muy alto |
| DRAM DDR | Sostiene servidores tradicionales, CPUs y cargas de IA complementarias |
| LPDDR / SOCAMM | Reduce consumo en arquitecturas de servidor más eficientes |
| NAND / SSD | Da soporte a bases vectoriales, almacenamiento de datos y descarga de caché |
| HBM4E | Próxima generación para plataformas de IA más exigentes |
La escasez puede durar más de lo que esperan los clientes
La parte incómoda del mensaje de Micron es que aumentar la oferta no es rápido. Levantar fábricas, ampliar salas limpias, instalar equipos de litografía, cualificar procesos y alcanzar rendimientos maduros lleva años. La empresa espera que la demanda de bits de DRAM y NAND en 2026 esté limitada por la oferta y que las condiciones de tensión se mantengan más allá de ese año.
Micron está respondiendo con más inversión. La compañía prevé un capex fiscal 2026 por encima de 25.000 millones de dólares y anticipa un aumento adicional en 2027 para apoyar inversiones relacionadas con HBM y DRAM. Entre sus planes figuran la expansión de su huella global de fabricación, proyectos en Idaho y Nueva York, la adquisición del emplazamiento de Tongluo en Taiwán, ampliaciones en Japón y una nueva fábrica NAND en Singapur con primeras obleas previstas para la segunda mitad de 2028.
Esto explica por qué el mercado de memoria puede seguir tenso. Aunque los fabricantes quieran producir más, la capacidad adicional no aparece de un trimestre a otro. Además, HBM tiene una “ratio de intercambio” exigente: requiere más capacidad de fabricación para producir una cantidad determinada de memoria útil frente a productos DRAM convencionales. Si los fabricantes priorizan HBM por su rentabilidad y demanda, otros segmentos pueden verse más ajustados.
El impacto ya se nota en PC y móviles. Micron advierte de que, en 2026, varios factores, incluidas las restricciones de DRAM y NAND, podrían provocar descensos de unidades de PC y smartphones en el rango bajo de doble dígito. Al mismo tiempo, la IA en dispositivo puede elevar el contenido de memoria por equipo. En PC, las configuraciones de 32 GB empiezan a ganar peso en flujos locales de IA, lo que desplaza el estándar mínimo de muchos usuarios avanzados.
El ciclo de memoria entra en una etapa distinta
La gran cuestión es si el boom actual será un ciclo más, con subida de precios y posterior corrección, o si la IA está creando una base de demanda más estructural. Micron defiende la segunda lectura. No porque desaparezca la ciclicidad, sino porque el centro de datos, la inferencia, los agentes de IA, la robótica, los vehículos con más electrónica y la IA local elevan el consumo de memoria en muchos frentes a la vez.
Esa tesis tiene sentido, aunque conviene no exagerarla. La memoria seguirá siendo un negocio expuesto a inversión excesiva, cambios de precios y ajustes de inventario. Si los clientes frenan despliegues, si los modelos se hacen más eficientes o si la oferta crece demasiado rápido en algún tramo, el ciclo puede girar. La diferencia es que hoy la demanda no depende solo de smartphones y PC, sino de una nueva capa de infraestructura global que necesita memoria de alto rendimiento para funcionar.
Para los proveedores cloud y los fabricantes de modelos, la conclusión es clara: la disponibilidad de memoria puede ser tan importante como el acceso a GPUs. Para los centros de datos, añade otra presión sobre energía, refrigeración y diseño de sistemas. Para los fabricantes de PCs y móviles, introduce una tensión entre precios más altos y la necesidad de equipos con más RAM para ejecutar IA local.
Micron ha presentado resultados que reflejan un momento extraordinario. Pero lo más relevante no está solo en el trimestre, sino en el mensaje de fondo: la IA empieza a convertir la memoria en una pieza estratégica de la infraestructura tecnológica. Si la inferencia y los agentes crecen como espera la industria, la pregunta no será solo cuántas GPUs puede comprar una empresa. También será cuánta memoria rápida puede conseguir, a qué precio y con qué garantías de suministro.
Preguntas frecuentes
Por qué la IA necesita tanta memoria?
Porque los modelos deben mover y almacenar enormes cantidades de datos durante entrenamiento e inferencia. Cuanto más grandes son los modelos y más largos los contextos, más presión hay sobre HBM, DRAM y almacenamiento rápido.
Qué es HBM y por qué importa?
HBM es memoria de alto ancho de banda situada muy cerca del acelerador. Es esencial para GPUs de IA porque permite alimentar el chip con datos a gran velocidad.
Qué resultados presentó Micron en su Q2 fiscal 2026?
Micron logró ingresos de 23.860 millones de dólares, beneficio neto GAAP de 13.790 millones y flujo de caja operativo de 11.900 millones.
Puede afectar la escasez de memoria a PCs y móviles?
Sí. Micron advierte de que las restricciones de DRAM y NAND podrían presionar el mercado de PCs y smartphones en 2026, aunque la IA local también elevará el contenido de memoria por dispositivo.