Google y Microsoft pisan el acelerador: prefieren velocidad a coste mientras los hyperscalers compiten por cada giga de memoria

La nueva fiebre del oro en la nube ya no son las GPU, sino la memoria. Varios informes del sector apuntan a un desajuste creciente entre oferta y demanda de DRAM y HBM para centros de datos, y los grandes proveedores de servicios cloud (CSP, por sus siglas en inglés) están reaccionando de forma muy distinta. Entre los estadounidenses, Google y Microsoft estarían priorizando claramente la velocidad y la disponibilidad frente al precio, incluso asumiendo sobrecostes para asegurarse suministro preferente.

Escasez de memoria en plena carrera por la IA

El detonante es conocido: la explosión de la IA generativa y de los modelos de gran tamaño ha disparado la demanda de memoria de alto rendimiento, tanto HBM (High Bandwidth Memory) para GPUs como DDR5 para servidores. A esto se suma que los grandes fabricantes —Samsung, SK hynix y Micron— están reorientando fábricas y líneas de producción hacia estos productos premium, reduciendo la disponibilidad de memorias más baratas y tradicionales.

El resultado es un mercado tensionado donde:

  • Se priorizan los envíos a servidores frente a PC y consumo.
  • Algunos actores llevan meses haciendo acopio agresivo de módulos para asegurarse capacidad futura.
  • Los precios de DDR5 y HBM han registrado subidas de dos dígitos a lo largo de 2025, con incrementos especialmente visibles en módulos de alta capacidad para servidores.

Google y Microsoft: pagar más a cambio de ir más rápido

Según fuentes del canal de memoria y analistas del sector, entre los hyperscalers estadounidenses hay dos estrategias claras. Por un lado, Google y Microsoft estarían aceptando precios más altos con tal de garantizarse entregas rápidas y volúmenes asegurados para sus clústeres de IA.

Tiene sentido:

  • Ambos están inmersos en una carrera pública para desplegar superclusters de IA, servicios tipo Copilot, Gemini, modelos propios y soluciones de IA para empresa.
  • Un cuello de botella en memoria dejaría infrautilizadas GPUs de gama altísima, lo que supone tirar a la basura inversiones de miles de millones en hardware.
  • Para sus cuentas, el coste extra de la memoria es marginal comparado con el valor estratégico de seguir lanzando productos de IA a toda velocidad y cerrar grandes contratos empresariales.

Dicho de otra forma: para Google y Microsoft, el “riesgo real” no es pagar un 20–30 % más por módulo, sino quedarse sin RAM ni HBM cuando sus clientes quieren entrenar modelos, afinar LLMs o desplegar agentes de IA a escala global.

Otros CSPs, más sensibles al precio

Otros grandes actores —como algunos proveedores de nube de segundo nivel y parte del ecosistema asiático— estarían siendo más conservadores: retrasan pedidos, intentan diversificar proveedores o combinan módulos de diferentes generaciones para contener costes.

Este enfoque reduce presión inmediata sobre su CAPEX, pero tiene un coste oculto:

  • Menos margen para escalar de forma agresiva sus plataformas de IA.
  • Mayor exposición a futuros picos de precios si la escasez empeora.
  • Riesgo de quedar por detrás en rendimiento frente a hyperscalers que sí han apostado fuerte por HBM y DDR5 de alta velocidad.

El papel de Samsung, SK hynix y Micron

La otra pieza del puzzle son los fabricantes. Samsung y SK hynix, en particular, están acelerando planes para nuevas fases de producción y nodos más avanzados, con el objetivo de reforzar su liderazgo en HBM3E y futuros HBM4 destinados a centros de datos de IA.

Esta apuesta implica:

  • Más inversión en fábricas y capacidad DRAM destinada casi en exclusiva a IA.
  • Menos foco en memorias convencionales para PC y móviles, lo que presiona precios en toda la cadena.
  • Negociaciones más duras con clientes: el que paga mejor y da más visibilidad de demanda se lleva los mejores slots de producción.

De ahí que los hyperscalers con más músculo financiero, como Google y Microsoft, estén en mejor posición para asegurarse contratos a largo plazo y volúmenes garantizados.

¿Qué significa esto para el mercado de la nube y la IA?

A corto plazo, el mensaje es claro:

  • Los clientes verán precios más altos en instancias de GPU y nodos de alta memoria.
  • Las startups y empresas más pequeñas podrían tener más dificultad para acceder a recursos de IA puntera a precios competitivos.
  • La brecha entre los grandes hyperscalers y el resto se agranda, no solo en software y modelos, sino también en infraestructura física básica.

A medio plazo, esta tensión podría acelerar:

  • El desarrollo de alternativas más eficientes en memoria, como arquitecturas con mejor uso de DDR, nuevas jerarquías de caché o modelos más compactos.
  • El interés por soluciones on-premise y bare-metal especializados, donde algunas empresas prefieran invertir en su propio hardware para no depender tanto de la nube en plena escalada de precios.
  • Un movimiento regulatorio y geopolítico aún mayor en torno a chips, fábricas y control de exportaciones, con EE. UU., Europa, Corea y Taiwán como actores clave.

Velocidad hoy, factura mañana

Que Google y Microsoft prioricen la velocidad sobre el coste no significa que el tema del precio desaparezca. Simplemente han decidido que, en esta fase de la carrera por la IA, el factor crítico es llegar primero (o no quedarse atrás) y capturar mercado.

La gran incógnita es cuánto tiempo puede sostenerse esta dinámica:

  • Si los precios de memoria se mantienen altos varios años y la demanda de IA no se traduce en márgenes suficientes, incluso los gigantes tendrán que revisar su estrategia.
  • Si, por el contrario, la IA corporativa y los agentes de negocio se consolidan como nueva infraestructura básica, estos contratos caros de hoy podrían verse dentro de unos años como una apuesta ganadora para dominar la próxima década de la computación en la nube.

Mientras tanto, el mensaje que envía el mercado es inequívoco: en la nueva economía de la IA, la memoria es poder. Y los hyperscalers que estén dispuestos a pagar por ella son los que marcarán el ritmo de la próxima ola de innovación.

encuentra artículos

newsletter

Recibe toda la actualidad del sector tech y cloud en tu email de la mano de RevistaCloud.com.

Suscripción boletín

LO ÚLTIMO

×