Micron acelera con la ola de la IA: récord en ingresos, márgenes en máximos y más presión sobre HBM4 e inversión industrial

Micron ha puesto cifras muy contundentes a una realidad que el sector lleva meses repitiendo: en la carrera de la inteligencia artificial, la memoria ya no es “un componente”, sino el cuello de botella que decide quién escala y quién se queda atrás. En su primer trimestre fiscal de 2026 (cerrado el 27 de noviembre de 2025), la compañía registró 13,64 mil millones de dólares de ingresos, con 5,24 mil millones de beneficio neto GAAP (4,60 dólares por acción diluida) y 8,41 mil millones de flujo de caja operativo.

El dato que mejor resume el momento es el margen: Micron reportó 56,0% de margen bruto GAAP (56,8% en non-GAAP), un salto que no suele aparecer por casualidad.En su mensaje, el CEO Sanjay Mehrotra vinculó la mejora a una combinación de “liderazgo tecnológico”, cartera de producto y ejecución operativa, y dejó claro que la empresa se considera un “habilitador esencial” de la IA, justo cuando los hyperscalers y los grandes integradores compiten por asegurar suministro de DRAM, NAND y, especialmente, HBM.

Un trimestre “de inflexión” y un guidance que huele a pico de ciclo

Más allá del trimestre ya cerrado, la guía para el Q2 fiscal 2026 sube el listón: Micron proyecta 18,70 mil millones de dólares de ingresos (± 0,40), con margen bruto GAAP del 67,0% (68,0% non-GAAP) y EPS diluido GAAP de 8,19 (8,42 non-GAAP). En términos de industria, es una señal clara de que la demanda asociada a IA —y el mix de producto— está empujando los números hacia una zona de “escasez con precio”, especialmente en memoria para centros de datos.

Micron también comunicó 4,5 mil millones en capex neto durante el trimestre y free cash flow ajustado de 3,9 mil millones, además de cerrar con 12,0 mil millones en efectivo e inversiones (incluyendo restringido). Para rematar, el consejo declaró un dividendo trimestral de 0,115 dólares por acción, pagadero el 14 de enero de 2026 (fecha de registro: 29 de diciembre de 2025).

Dónde se nota el tirón: nube, cliente y un mix cada vez más “IA”

En el desglose por unidades, destacan especialmente las métricas de la unidad de Cloud Memory, con 5,284 mil millones de ingresos y 66% de margen bruto (55% de margen operativo). Es el tipo de combinación que suele aparecer cuando el mercado está premiando capacidad y rendimiento por encima de la “memoria commodity”.

También hay crecimiento fuerte en Mobile and Client (4,255 mil millones; 54% de margen bruto) y un avance sostenido en Automotive and Embedded (1,720 mil millones; 45% de margen bruto). En conjunto, el mensaje es que el ciclo no se limita a una sola vertical: la IA está “tirando” del centro de datos, pero el resto de mercados se beneficia del reposicionamiento de producto y de la normalización de inventarios.

HBM4: la gran palanca (y el gran examen)

El mercado lleva tiempo tratando HBM como si fuese “la gasolina premium” de los aceleradores de IA. Micron, en ese contexto, lleva meses subrayando hitos en HBM4. A mediados de 2025, por ejemplo, anunció el envío de muestras de HBM4 a clientes clave, destacando que se apoyaba en su nodo 1-beta de DRAM y poniendo el foco en eficiencia, rendimiento y escalabilidad para plataformas de próxima generación.

Ahora, con los márgenes actuales y una guía tan agresiva para el trimestre siguiente, la lectura “de mercado” es bastante directa: si HBM (y la memoria para IA) sigue tensionada, quien cumpla ramp y yield a tiempo va a capturar una parte desproporcionada del valor. En esa misma línea, distintas informaciones del sector apuntan a que Micron prevé consolidar la producción de HBM4 sobre 1-beta mientras ajusta calendarios industriales (incluida su capacidad de ensamblaje y test fuera de EE. UU.), en un momento en el que cualquier cuello de botella posterior a la fabricación del chip puede retrasar entregas reales.

Una foto que también se refleja en el mercado

Tras la publicación de resultados y el contexto de inversión, el mercado está especialmente sensible a cualquier pista sobre oferta futura, ramp de nodos y disponibilidad efectiva de HBM. A cierre de la madrugada del 18 de diciembre de 2025 (UTC), la acción de Micron cotizaba en torno a 225,52 dólares.


Preguntas frecuentes

¿Por qué los resultados de Micron importan tanto para la industria de la IA?
Porque la memoria (DRAM y, sobre todo, HBM) condiciona el rendimiento y el coste total de los clusters de entrenamiento e inferencia: sin memoria suficiente, la potencia de GPU no se aprovecha.

¿Qué es HBM4 y por qué es clave para los aceleradores de nueva generación?
HBM4 es la evolución de la memoria de alto ancho de banda apilada, diseñada para alimentar chips de IA con más throughput y mejor eficiencia energética; en la práctica, es una pieza crítica para escalar rendimiento sin disparar latencias.

¿Qué significa que HBM4 se apoye en un nodo “1-beta” de DRAM?
Que parte del avance viene de mejoras de proceso (densidad, consumo, rendimiento de fabricación). Si el nodo madura bien, ayuda a mejorar coste por bit y disponibilidad de producto.

¿Qué indicadores del informe apuntan a un ciclo especialmente fuerte?
La combinación de ingresos récord, margen bruto por encima del 56% en el trimestre y una guía de 18,70 mil millones con margen cercano al 67% para el siguiente trimestre sugiere una demanda muy por encima de una fase “normal” del mercado.

vía: investors.micron

encuentra artículos

newsletter

Recibe toda la actualidad del sector tech y cloud en tu email de la mano de RevistaCloud.com.

Suscripción boletín

LO ÚLTIMO

×