La memoria se convierte en el “cuello de botella” de la IA y dispara las previsiones para Samsung y SK hynix

La carrera por desplegar Inteligencia Artificial a gran escala ya no se explica solo por la potencia de las GPU. En 2026, el foco del sector se está desplazando hacia un componente menos vistoso, pero decisivo: la memoria, especialmente la HBM (High Bandwidth Memory) y la DRAM avanzada que alimentan los aceleradores en centros de datos. Y ese cambio de prioridades empieza a reflejarse con fuerza en las estimaciones financieras que circulan en el mercado.

Dos cuadros de previsiones atribuidos a Morgan Stanley Research muestran revisiones al alza para Samsung Electronics y SK hynix en el periodo 2026-2028, con un mensaje que interesa de forma directa a un medio tecnológico: si la IA sigue escalando como hasta ahora, la memoria no es un componente más, sino un factor limitante que puede redefinir márgenes, inversión y estrategia industrial.

Samsung: cuando el beneficio se explica por semiconductores (y, dentro, por memoria)

En el caso de Samsung Electronics, las estimaciones revisadas para el ejercicio fiscal 2027 (FY27E) elevan las ventas del grupo a 647.680 (en miles de millones de wones) frente a 599.480 en el escenario previo, un incremento del 8 %. Pero el salto más llamativo está en el beneficio operativo: pasa de 241.454 a 317.379, es decir, una revisión del 31 %.

Ese cambio no es un ajuste menor: implica que el margen operativo estimado del grupo en FY27E sube desde el 37,0 % al 49,0 %, una mejora de 12,0 puntos porcentuales. En un conglomerado con múltiples divisiones, un movimiento de esa magnitud suele señalar una cosa: el negocio “core” está imponiendo su lógica al resto.

Al bajar al detalle por áreas, el cuadro atribuye el grueso del impulso a los semiconductores y, especialmente, a la línea de memoria. Para FY27E, el apartado “Memory” eleva sus ventas revisadas a 388.347 (desde 309.708), un 25 % más, y el beneficio operativo revisado asciende a 279.302 (desde 216.777), un 29 % más. En paralelo, la división de semiconductores (DS) también aparece con revisiones significativas: 437.900 en ventas (desde 357.471, +22 %) y 279.284 en beneficio operativo (desde 217.040, +29 %).

El contraste tecnológico llega cuando se mira el resto del grupo. En FY27E, “Mobile/Network” aparece con ventas revisadas a la baja (129.753, –18 % frente al escenario previo) y un desplome del beneficio operativo revisado hasta 9.885, un -52 % respecto a la estimación anterior (20.672). Es la foto de un mercado maduro: los móviles siguen siendo masivos, pero ya no marcan el ritmo de rentabilidad cuando el centro de gravedad se desplaza al datacenter.

SK hynix: márgenes “de software” para un negocio de hardware… si la HBM mantiene la escasez

En SK hynix, el cuadro es más directo porque la compañía está mucho más concentrada en memoria. Para FY27E, las ventas se revisan de 258.009 a 304.878 (+18 %) y el beneficio operativo de 181.336 a 225.354 (+24 %). El margen operativo estimado sube de 70 % a 74 % (un aumento de 4 puntos).

Lo interesante, en clave tech, está en el desglose “DRAM (& HBM)”. Ahí se ve la historia que el sector lleva meses contando: la memoria asociada a IA cambia las reglas. Para FY27E, las ventas revisadas de DRAM/HBM escalan a 237.721 (+21 % sobre el escenario previo) y el beneficio operativo revisado asciende a 187.568 (+27 %). La NAND también mejora, pero con menos intensidad: ventas revisadas 65.843 (+11 %) y beneficio operativo revisado 37.786 (+14 %).

En otras palabras: si la cadena de suministro mantiene la tensión en HBM, SK hynix aparece en el cuadro como una empresa capaz de sostener márgenes que, en otros tiempos, se asociaban más a servicios que a fabricación industrial. Esa es precisamente la razón por la que el debate se ha vuelto tan polarizante: algunos inversores lo leen como un superciclo estructural; otros, como el tipo de pico cíclico que históricamente ha terminado corrigiéndose cuando llega nueva capacidad.

Por qué esto importa a los equipos de infraestructura y al ecosistema IA

Para un medio tecnológico, la pregunta clave no es quién gana “más” en 2027, sino qué sugiere esto sobre el diseño de la infraestructura IA:

  • La HBM y la DRAM avanzada se están convirtiendo en un elemento de planificación. Ya no basta con reservar GPU; hay que asegurar memoria y packaging en la misma ventana.
  • La presión se traslada a la arquitectura: optimizar modelos, batching, cuantización y estrategias de inferencia ya no es solo eficiencia computacional; también es eficiencia de memoria.
  • Los fabricantes con capacidad de industrializar generaciones nuevas y entregar volumen estable pueden fijar el tono del mercado, igual que ocurrió con las GPU en los primeros años del boom.

Las propias tablas refuerzan ese relato: en Samsung, el motor de la mejora no es el móvil, sino el bloque de semiconductores y memoria. En SK hynix, la mayor parte del salto se explica por DRAM/HBM. No es un matiz contable; es un mapa del poder tecnológico en la IA.

El “gran riesgo” detrás de las cifras: ¿superciclo o episodio?

Las mismas estimaciones que entusiasman al mercado también contienen su advertencia implícita: son proyecciones, y dependen de supuestos sobre demanda, precios, capacidad y rendimientos. Si la escasez de memoria se relaja antes de lo previsto, los márgenes podrían normalizarse. Y si el gasto en IA se vuelve más selectivo —por eficiencia o por retorno—, el cuello de botella podría moverse a otra parte del stack.

Aun así, el giro ya es real en términos estratégicos: por primera vez en años, la memoria vuelve a ser el componente que decide calendarios, presupuestos y prioridades. Y, como muestran estas revisiones, también empieza a decidir el relato financiero de las grandes compañías del sector.


Preguntas frecuentes

¿Qué es la memoria HBM y por qué influye tanto en el rendimiento de la IA?
La HBM es memoria de alto ancho de banda diseñada para alimentar a aceleradores con mucha más velocidad que memorias convencionales, reduciendo cuellos de botella cuando se entrenan o ejecutan modelos grandes.

¿Por qué las previsiones mejoran tanto en 2027 y no solo en 2026?
Porque el mercado asume que la demanda de IA no es puntual: se está transformando en despliegues sostenidos en centros de datos, lo que empuja contratos, planificación de capacidad y márgenes a varios años vista.

¿Qué riesgo puede tumbar este escenario de márgenes tan altos en memoria?
Una relajación de la escasez por nueva capacidad, mejoras de rendimiento industrial o cambios de demanda. En memoria, históricamente, el equilibrio entre oferta y demanda puede cambiar rápido.

¿Estos números son ingresos reales o estimaciones?
Son estimaciones revisadas (Previous vs Revised) para ejercicios fiscales (FY26E, FY27E, FY28E) en miles de millones de wones, según cuadros atribuidos a Morgan Stanley Research.

encuentra artículos

newsletter

Recibe toda la actualidad del sector tech y cloud en tu email de la mano de RevistaCloud.com.

Suscripción boletín

LO ÚLTIMO

Las últimas novedades de tecnología y cloud

Suscríbete gratis al boletín de Revista Cloud. Cada semana la actualidad en tu buzón.

Suscripción boletín
×