¿Puede ZAM destronar a la HBM? Intel y SoftBank apuestan por una “memoria en el eje Z” para la IA

Durante años, la conversación sobre rendimiento en inteligencia artificial se centró en la potencia de cálculo: más GPUs, más núcleos, más FLOPs. Pero, a medida que los modelos crecen y las arquitecturas se vuelven más paralelas, el cuello de botella está virando hacia un terreno menos “sexy” y más determinante: la memoria. En concreto, el acceso a memoria de muy alto ancho de banda y baja latencia se está convirtiendo en el factor que decide cuánto rinde un clúster… y cuánto cuesta operarlo.

En ese contexto aparece ZAM (Z-Angle Memory), una propuesta de memoria apilada que Intel está desarrollando junto a SAIMEMORY, una filial vinculada a SoftBank, con una ambición directa: ofrecer una alternativa a HBM (High Bandwidth Memory), hoy el estándar de facto para alimentar GPUs y aceleradores en cargas de IA a gran escala.

Por qué HBM se ha convertido en el “punto de estrangulamiento” de la IA

HBM no es “una RAM más”. Es memoria DRAM apilada en vertical y conectada mediante tecnologías avanzadas de empaquetado (2.5D/3D), diseñada para entregar un ancho de banda enorme con mejor eficiencia energética que otras aproximaciones. El resultado es claro: para entrenamiento e inferencia exigente, la capacidad de mover datos desde memoria a los motores de cómputo puede valer tanto como el propio silicio.

El problema es que esa ventaja tiene un coste industrial: fabricar HBM a gran escala requiere procesos sofisticados, empaquetado avanzado y capacidad de producción concentrada. El mercado de HBM, además, está dominado por un número muy reducido de proveedores, un dato que se ha repetido en el sector por el impacto que tiene sobre precios, disponibilidad y poder de negociación.

Con la IA tirando de la demanda, la presión sobre la cadena de suministro de HBM ya no es un asunto secundario: condiciona calendarios de despliegue, capex de centros de datos y, en la práctica, quién puede escalar y quién no.

Qué es ZAM y por qué Intel y SoftBank creen que puede mover el tablero

La alianza anunciada sitúa a Intel como socio tecnológico y de innovación, mientras SAIMEMORY lideraría el desarrollo y la comercialización. Según el marco publicado, el trabajo arranca en el primer trimestre de 2.026, con prototipos previstos en 2.027 y un objetivo de despliegue a escala hacia 2.030.

El propio nombre “ZAM” no es casual: hace referencia al eje Z, es decir, a una estrategia de apilado vertical que busca aumentar densidad y rendimiento “subiendo pisos” en lugar de expandirse en superficie. En la misma cobertura se señala que SoftBank planea invertir aproximadamente 3.000 millones de yenes hasta completar la fase de prototipo (año fiscal 2.027).

La promesa técnica que acompaña a ZAM es agresiva para un mercado tan maduro: se habla de memorias con 2–3× la capacidad de HBM, recortando el consumo “hasta la mitad” y con costes comparables o inferiores. En estimaciones citadas por medios del sector, el objetivo sería reducir consumo un 40–50 % y acercar el coste de fabricación a alrededor del 60 % del de HBM.

Si esas cifras se acercaran a la realidad en producción, el impacto sería inmediato: más capacidad de memoria por acelerador, menos vatios por gigabyte y, potencialmente, menos dependencia de una oferta concentrada.

El factor diferencial: no solo la memoria, también el empaquetado

El salto de HBM no se explica solo por “qué memoria es”, sino por cómo se integra. Y ahí Intel quiere jugar una carta que conoce bien: el empaquetado avanzado. En la información recopilada por TrendForce se menciona el uso de EMIB (Embedded Multi-die Interconnect Bridge) como parte del enfoque para optimizar interconexiones en arquitecturas apiladas.

En otras palabras: el debate no es únicamente DRAM vs DRAM, sino arquitectura completa de apilado, interconexión y fabricación a volumen.

Además, la historia reciente de Intel en tecnologías de memoria y empaquetado aparece como antecedente: su trabajo con Sandia National Laboratories y lo que se describe como Next-Generation DRAM Bonding (NGDB) se presenta como base tecnológica relacionada con nuevos métodos de apilado para superar límites de capacidad y avanzar hacia memorias “de alto rendimiento” fabricables a escala.

¿Sustituto real de HBM… o complemento con nichos claros?

La pregunta que muchos se harán (y que algunos titulares ya empujan) es si ZAM puede “reemplazar” HBM. A corto plazo, el calendario por sí solo sugiere prudencia: prototipos en 2.027 y despliegue a escala hacia 2.030, en el mejor de los casos.

Eso coloca a ZAM más como una apuesta estratégica para la segunda mitad de la década que como un salvavidas inmediato para la saturación actual de HBM.

Aun así, incluso como complemento, ZAM podría ser relevante en escenarios concretos:

  • Servidores de IA pequeños y medianos donde el coste total (memoria + energía + refrigeración) penaliza más y el “premium HBM” puede ser difícil de justificar.
  • Edge computing y despliegues distribuidos, donde el margen térmico y energético manda y donde una memoria apilada más eficiente puede marcar la diferencia.

La clave estará en demostrar no solo ancho de banda y densidad, sino fiabilidad a volumen, rendimientos de fabricación (yield), compatibilidad con cadenas de suministro y, sobre todo, integración real con aceleradores y plataformas.

La lectura industrial: memoria como arma competitiva en el ecosistema de IA

El movimiento de Intel y SoftBank es interesante por lo que implica más allá de ZAM: confirma que la “carrera de la IA” ya no se gana únicamente diseñando chips, sino controlando el triángulo completo de cómputo + memoria + energía. Para los hiperescalares y el mercado de colocation, esto es más que una curiosidad tecnológica: es una línea directa a la cuenta de resultados.

Si el mercado sigue tensionado por la oferta de HBM, cualquier alternativa creíble —aunque llegue en 2.029–2.030— puede tener efecto incluso antes de existir: presiona a proveedores, incentiva inversiones y empuja a diversificar estrategias de memoria. Pero la credibilidad, en este terreno, se compra con prototipos funcionando, rutas de fabricación claras y socios capaces de industrializar.


Preguntas frecuentes

¿Qué problema intenta resolver ZAM frente a HBM en centros de datos de IA?
Busca aumentar capacidad y eficiencia energética de la memoria apilada, reduciendo el coste por rendimiento y mitigando la dependencia de una oferta de HBM muy concentrada.

¿Cuándo podría estar disponible Z-Angle Memory (ZAM) para producción?
Las referencias públicas apuntan a prototipos en 2.027 y un objetivo de despliegue a escala hacia 2.030.

¿ZAM reemplazará HBM en GPUs y aceleradores de IA?
En el horizonte actual parece más realista pensar en convivencia o sustitución parcial por segmentos. La adopción dependerá de rendimiento real, fiabilidad, costes y facilidad de integración con plataformas existentes.

¿Qué papel juegan tecnologías como EMIB en estas nuevas memorias apiladas?
El empaquetado e interconexión son críticos: enfoques como EMIB se citan como parte de la estrategia para conectar chips apilados con eficiencia, un factor clave para competir con arquitecturas tipo HBM.

encuentra artículos

newsletter

Recibe toda la actualidad del sector tech y cloud en tu email de la mano de RevistaCloud.com.

Suscripción boletín

LO ÚLTIMO

Las últimas novedades de tecnología y cloud

Suscríbete gratis al boletín de Revista Cloud. Cada semana la actualidad en tu buzón.

Suscripción boletín
×