Samsung Electronics se encamina a firmar uno de los mejores trimestres de su historia reciente, impulsada por el negocio de memoria en plena fiebre de centros de datos e Inteligencia Artificial. En sus resultados preliminares del cuarto trimestre de 2.025, la compañía situó sus ventas consolidadas en torno a 93 billones de wones (en una horquilla de 92–94 billones) y el beneficio operativo en torno a 20 billones de wones (entre 19,9–20,1 billones). La cifra supone un salto de escala que vuelve a poner el foco en una realidad incómoda para el resto de la industria: la DRAM se ha convertido en un componente “estratégico” y su precio está tensionando toda la cadena.
La lectura del mercado es directa: cuando la memoria sube, sube (o se comprime) todo lo demás. En el mundo del PC y el móvil se nota en márgenes; en el mundo del centro de datos se traduce en presupuestos que se reescriben sobre la marcha; y en el terreno de la IA, donde la carrera por el rendimiento no se detiene, el sector parece más dispuesto a pagar ese “peaje” que el consumidor final.
La DRAM, de componente invisible a pieza crítica
Durante años, la memoria RAM fue para muchos fabricantes un coste más dentro del BOM (bill of materials). Hoy, la situación ha cambiado por dos razones: demanda y prioridades de producción.
Por el lado de la demanda, la infraestructura para IA —entrenamiento, inferencia, analítica en tiempo real— ha disparado el apetito de memoria. No solo por el volumen total, sino por el tipo de memoria: junto a la DRAM “convencional” (DDR para servidores y PCs), la memoria HBM (High Bandwidth Memory) se ha convertido en el combustible de los aceleradores para IA. Y ahí el mercado es aún más sensible: capacidades limitadas, cadenas de suministro complejas y contratos que se negocian con visión de años, no de trimestres.
Por el lado de la oferta, las grandes compañías de memoria ajustan su mix para maximizar rentabilidad y atender el segmento más caliente: IA y centro de datos. Eso no significa “abandonar” el PC o el móvil, pero sí reordenar prioridades en un momento en el que añadir capacidad industrial no es inmediato.
¿Qué está pasando con los precios?
El dato que se repite en el mercado es que la escalada de la DRAM ha sido intensa. Distintos seguimientos de precios y análisis del sector han descrito incrementos que, en algunos casos, multiplican varias veces los niveles del año anterior en determinadas categorías y contratos. Y el consenso de analistas apunta a que el primer trimestre de 2.026 puede seguir en la misma dirección: TrendForce, por ejemplo, prevé que los precios contractuales de DRAM convencional aumenten entre un 55% y un 60% trimestre contra trimestre.
La clave aquí no es solo el “porcentaje”, sino el efecto dominó: si una marca paga más por memoria para un portátil ultraligero, o un servidor de propósito general, ese incremento acaba compitiendo con otros costes (panel, batería, CPU/GPU, almacenamiento, logística) y presiona la estrategia de precios final. En consumo, el límite lo marca el usuario. En IA, a menudo lo marca la urgencia por desplegar capacidad.
Samsung gana (y el resto recalcula)
En este contexto, no sorprende que Samsung anticipe un trimestre con beneficio operativo cercano a 20 billones de wones. El mercado ha interpretado estas cifras como una señal de que la memoria vuelve a ser el motor de la rentabilidad, especialmente cuando el ciclo acompaña.
Para el sector, sin embargo, el mensaje es doble:
- Para fabricantes de PCs y móviles, el riesgo es que la memoria encarezca gamas medias y “AI-ready”, justo cuando la industria intenta vender valor añadido (NPU, nuevas plataformas, experiencias locales con IA) sin disparar precios.
- Para centros de datos tradicionales, la subida añade presión a inversiones que ya están tensionadas por energía, refrigeración, GPUs y redes.
- Para operadores de IA, la memoria se asume cada vez más como parte del coste estructural del negocio: si el retorno (productividad, automatización, servicios) compensa, se paga; si no, se frena.
Un 2.026 donde el “coste por inteligencia” también depende de la memoria
La narrativa habitual de la IA se ha centrado en GPUs y consumo eléctrico. Pero la realidad es que la memoria —y su disponibilidad— está en el corazón del rendimiento y del coste: sin suficiente capacidad y ancho de banda, los sistemas no escalan como prometen los folletos. Y cuando el mercado entra en fase de tensión, la memoria deja de ser un commodity y se convierte en un factor de ventaja competitiva.
Si la previsión de nuevas subidas de precios contractuales se materializa, 2.026 podría consolidar una idea incómoda: la era de la IA no solo se paga en chips de cálculo, también en gigabytes.
Preguntas frecuentes
¿Por qué sube tanto el precio de la DRAM y cómo afecta a la IA?
Porque la demanda de servidores y aceleradores para IA ha crecido más rápido que la capacidad disponible, y parte de la producción se orienta a segmentos más rentables. En IA, además, la memoria (capacidad y ancho de banda) condiciona rendimiento y costes operativos.
¿Qué diferencia hay entre DRAM “convencional” y HBM en centros de datos?
La DRAM convencional (como DDR5) se usa como memoria principal de CPU y servidores; la HBM está pensada para GPUs/aceleradores y ofrece muchísimo ancho de banda, clave para entrenar e inferir modelos grandes con eficiencia.
¿Subirá el precio de los portátiles y PCs por culpa de la DRAM?
Puede presionar precios o márgenes, sobre todo en gamas donde cada euro cuenta. El impacto final depende de contratos, inventario, competencia y de si el fabricante decide absorber el coste o trasladarlo.
¿Qué indicadores conviene seguir para saber si la subida continúa?
Las guías trimestrales de fabricantes de memoria, los informes de precios contractuales (DRAM y NAND), y las previsiones de demanda de servidores/IA (capex de hiperescalares, despliegues de centros de datos y ciclos de renovación de PC).