Microsoft está estrechando la relación con SK hynix en un momento clave para la infraestructura de inteligencia artificial. Según informaciones publicadas en Corea del Sur y recogidas por TrendForce, Kwak Noh-Jung, consejero delegado de SK hynix, tiene previsto reunirse esta semana con Bill Gates y Satya Nadella durante el Microsoft CEO Summit 2026, un encuentro privado en Redmond en el que participan directivos globales, tecnológicas y responsables institucionales.
La cita no es una simple reunión protocolaria. Llega cuando Microsoft está acelerando el despliegue de sus propios aceleradores de IA, como Maia 200, y cuando la memoria de alto ancho de banda se ha convertido en uno de los recursos más disputados del sector. En la práctica, la carrera por la IA ya no depende solo de quién compre más GPUs de NVIDIA, sino de quién consigue asegurar suministro de HBM, empaquetado avanzado, memoria DRAM y NAND para alimentar centros de datos cada vez más densos.
SK hynix aparece ahí como una pieza estratégica. La compañía surcoreana es uno de los grandes fabricantes mundiales de memoria y ha ganado un papel especialmente relevante en HBM, la memoria apilada de alto rendimiento que se usa junto a aceleradores de IA. Según Chosun Biz, Microsoft ya utiliza HBM3E de quinta generación de SK hynix en su acelerador Maia 200, además de comprar DRAM y NAND a la compañía.
Maia 200 y el intento de Microsoft de controlar más infraestructura
Microsoft presentó Maia 200 en enero de 2026 como un acelerador de IA propio orientado a inferencia. El chip ya está desplegado en la región US Central de Azure, cerca de Des Moines, Iowa, y la compañía prevé extenderlo a la región US West 3, cerca de Phoenix, Arizona, además de futuras regiones. Microsoft también ha abierto una vista previa del Maia SDK, con integración en PyTorch, compilador Triton, bibliotecas de kernels optimizados y acceso a un lenguaje de bajo nivel para el chip.
Este movimiento forma parte de una tendencia más amplia entre los grandes proveedores cloud. Microsoft, Google, Amazon y Meta están desarrollando chips propios para reducir costes, controlar mejor sus plataformas y evitar una dependencia excesiva de NVIDIA. No se trata de sustituir por completo a las GPUs, que seguirán siendo esenciales, sino de reservarlas para ciertas cargas y desplegar ASICs internos en tareas donde puedan ofrecer mejor coste por token, eficiencia energética o control operativo.
En ese contexto, la memoria es tan importante como el propio acelerador. Un chip de IA puede tener mucha capacidad de cálculo, pero si no recibe datos a suficiente velocidad, el rendimiento real cae. La HBM resuelve parte de ese cuello de botella al colocar memoria de gran ancho de banda muy cerca del procesador, mediante técnicas de apilado y empaquetado avanzado.
Ahí entra SK hynix. La compañía ha sido uno de los grandes beneficiados por la demanda de HBM para IA y quiere asegurar acuerdos a largo plazo con clientes estratégicos. Para Microsoft, consolidar la relación con SK hynix puede aportar estabilidad de suministro en un mercado donde la capacidad disponible se reserva con años de antelación y donde los precios de componentes están presionando los presupuestos de los centros de datos.
| Elemento | Relevancia para Microsoft |
|---|---|
| Maia 200 | Acelerador propio de IA para inferencia en Azure |
| HBM3E de SK hynix | Memoria de alto ancho de banda para alimentar el chip |
| DRAM y NAND | Componentes básicos para servidores y almacenamiento de IA |
| Iowa y Arizona | Primeras regiones citadas para despliegue de Maia 200 |
| CapEx 2026 | TrendForce estima 190.000 millones de dólares para Microsoft |
La memoria se convierte en cuello de botella de la IA
TrendForce estima que Microsoft ha elevado su previsión de CapEx para 2026 hasta 190.000 millones de dólares, alrededor de un 130 % más interanual. De esa cifra, unos 25.000 millones estarían relacionados con el aumento de costes de componentes. Es un dato muy revelador: una parte relevante del gasto en IA no responde solo a construir más centros de datos, sino a pagar más por memoria, chips, servidores y componentes críticos.
La presión no afecta únicamente a Microsoft. Los grandes CSP norteamericanos están ampliando inversión en clusters de GPU, ASICs propios, redes de alto rendimiento y memoria avanzada. Pero cuanto más se acelera la demanda, más se estrechan algunos puntos de la cadena de suministro. La HBM es uno de ellos, porque no basta con fabricar memoria convencional: exige procesos de apilado, interconexión, test y empaquetado mucho más complejos.
Para SK hynix, esto abre una oportunidad industrial enorme. La compañía ya compite con Samsung y Micron en memoria avanzada, pero su posición en HBM le permite sentarse con los principales compradores de infraestructura de IA en condiciones muy favorables. Si Microsoft quiere desplegar más Maia 200 y futuras generaciones de ASICs, necesitará asegurar capacidad de memoria compatible, estable y validada.
La reunión prevista entre Kwak Noh-Jung, Bill Gates y Satya Nadella debe leerse en ese marco. No se trata solo de vender chips de memoria. Se trata de participar en el diseño de la infraestructura de IA de próxima generación, desde el acelerador hasta la memoria, el empaquetado y la integración en centros de datos. La relación entre fabricantes de memoria y grandes cloud ya no es puramente transaccional; se está volviendo estratégica.
También hay una lectura geopolítica. Corea del Sur concentra dos actores clave en memoria, SK hynix y Samsung, mientras Estados Unidos intenta reforzar su autonomía en semiconductores y los hiperescalares buscan diversificar proveedores. En un mercado tensionado por restricciones a China, demanda de IA y capacidad limitada de empaquetado avanzado, asegurar alianzas con fabricantes coreanos se ha convertido en una prioridad.
Menos dependencia de NVIDIA, pero más dependencia de la cadena de memoria
Microsoft no puede reducir su dependencia de NVIDIA simplemente diseñando sus propios chips. Un ASIC interno necesita memoria, software, empaquetado, capacidad de fabricación, integración en racks, redes y optimización de modelos. Cambia el tipo de dependencia, pero no elimina la necesidad de una cadena de suministro muy especializada.
Maia 200 muestra esa transición. Si el chip se despliega a mayor escala en Azure, Microsoft ganará más control sobre ciertos workloads de inferencia y podrá ajustar mejor coste, rendimiento y consumo. Pero para que esa estrategia funcione, proveedores como SK hynix tendrán que acompañar el crecimiento con HBM suficiente y con futuras generaciones capaces de sostener modelos más grandes, contextos más largos y más tráfico de inferencia.
El mercado también mirará los efectos financieros. Una previsión de CapEx de 190.000 millones de dólares es una cifra enorme incluso para Microsoft. Si una parte sustancial se explica por inflación de componentes, los inversores tendrán que distinguir entre gasto que aumenta capacidad real y gasto que simplemente refleja que la misma capacidad cuesta más. En esa lectura, la memoria deja de ser un componente técnico escondido en la factura y pasa a ser una variable central en la rentabilidad de la IA.
Para SK hynix, la oportunidad es clara, pero no está libre de riesgos. La compañía debe ampliar producción, mantener calidad, gestionar ciclos de precios y evitar depender en exceso de unos pocos clientes gigantes. La demanda de IA parece fuerte, pero la industria de memoria tiene historial de ciclos duros cuando la oferta crece más rápido que el consumo. La diferencia ahora es que la HBM está más ligada a contratos estratégicos y capacidad reservada, lo que puede suavizar parte de esa volatilidad.
La relación con Microsoft puede convertirse en una referencia. Si Maia 200 se consolida y futuras generaciones de chips propios de Azure siguen usando memoria avanzada de SK hynix, la compañía surcoreana no será solo proveedor de un componente. Será parte de la arquitectura con la que Microsoft intenta competir en la siguiente fase de la IA: una fase menos dependiente de comprar aceleradores estándar y más centrada en diseñar infraestructuras a medida.
La carrera de la IA empezó hablándose de modelos y GPUs. Ahora se está decidiendo también en reuniones discretas sobre HBM, empaquetado y suministro a largo plazo. Y ahí SK hynix tiene mucho que decir.
Preguntas frecuentes
¿Qué se ha publicado sobre SK hynix y Microsoft?
Medios surcoreanos y TrendForce informan de que Kwak Noh-Jung, CEO de SK hynix, tiene previsto reunirse con Bill Gates y Satya Nadella durante el Microsoft CEO Summit 2026 en Redmond.
¿Por qué SK hynix es importante para Microsoft?
Porque Microsoft necesita memoria de alto rendimiento para su infraestructura de IA. SK hynix suministra DRAM, NAND y HBM3E, incluida memoria usada en el acelerador Maia 200.
¿Qué es Maia 200?
Maia 200 es un acelerador propio de Microsoft orientado a cargas de inferencia de IA en Azure. Ya está desplegado en la región US Central, cerca de Des Moines, Iowa, y se expandirá a la región US West 3, cerca de Phoenix.
¿Qué papel tiene la HBM en la IA?
La HBM, o memoria de alto ancho de banda, permite alimentar aceleradores de IA con grandes volúmenes de datos a mucha velocidad. Es esencial para GPUs y ASICs avanzados usados en centros de datos de IA.
vía: trendforce