En un movimiento que refuerza su ambición por reducir dependencias externas y ganar tracción en el mercado doméstico de aceleradores, Huawei ha desvelado en Huawei Connect 2025 una hoja de ruta de chips de inteligencia artificial que se extiende hasta 2028. Según un informe de MyDrivers sobre la presentación, el plan incluye varias familias Ascend con incrementos sustanciales de cómputo y, sobre todo, un punto de inflexión: memoria HBM de diseño propio incorporada en los nuevos productos.
El mensaje es inequívoco: competitividad “de puertas adentro” para atender la demanda china de computación de IA con soluciones “homegrown” que, en algunos casos, se sitúan como alternativas frente a ofertas como NVIDIA H20 en el mercado local. Pero la novedad no es sólo el rendimiento: Huawei propone soberanía tecnológica en los componentes críticos, empezando por la HBM (memoria de alto ancho de banda), históricamente dominada por unos pocos proveedores globales.
Ascend 950PR: punto de partida con HBM propia y foco en inferencia
La primera parada del plan es el Ascend 950PR, sucesor del Ascend 910C. Este chip inaugura la transición hacia un stack interno con la integración de HBM de Huawei. En especificaciones, el 950PR promete:
- Precisión baja con soporte hasta FP8, y cifras de 1 PFLOPS en FP8 y 2 PFLOPS en FP4.
- Interconexión de 2 TB/s entre componentes, clave para escalar cargas modernas de IA.
- Memoria HBM “HiBL 1.0” con 128 GB de capacidad y 1,6 TB/s de ancho de banda.
La compañía posiciona el 950PR como acelerador orientado a inferencia, con optimización para prefill (la fase inicial de provisión de contexto en grandes modelos) y sistemas de recomendación. La lectura estratégica es clara: empezar por donde hoy se concentra gran parte del consumo masivo de IA en la nube y en la empresa —la inferenciación a gran escala— y asegurar durante esa fase el rodaje del stack de memoria propio.
HBM “made by Huawei”: de HiBL 1.0 a HiZQ 2.0
El hito técnico de mayor calado es la HBM de fabricación propia. La firma habla de una primera generación “HiBL 1.0” para el 950PR (128 GB, 1,6 TB/s) y adelanta una segunda generación “HiZQ 2.0” con 144 GB y 4 TB/s. Que una casa de diseño de aceleradores integre una HBM de marca propia supone recortar la lista de dependencias en la cadena de suministro y, potencialmente, optimizar a medida la relación entre ancho de banda, latencia, consumo y formato del paquete.
En términos de mercado, el paso es significativo: la HBM se ha convertido en la moneda dura de la IA generativa. No sólo manda el FLOPS; la memoria y su ancho de banda efectivo determinan cuánta context window y cuántas consultas simultáneas puede despachar un clúster. Si Huawei logra estabilizar producción y rendimiento de HiBL/HiZQ, ganará margen para precio, plazos y escalado en sus sistemas Ascend.
950DT (Q4 2026): el turno del entrenamiento
El segundo peldaño de la línea 950 es el Ascend 950DT, con lanzamiento previsto para el cuarto trimestre de 2026. A diferencia del 950PR, este modelo se especializa en entrenamiento y da el salto a HiZQ 2.0 (HBM de 144 GB y 4 TB/s), con lo que se espera mayor caudal de memoria y mejor alimentación de los tensor cores bajo cargas largas y distribuidas.
Que Huawei separe inferenc ia (950PR) de entrenamiento (950DT) permite segmentar silicio, memoria y red para cada uso, en lugar de un único diseño “para todo”. Es un patrón que ya se observa en otras casas: los perfiles térmicos, el scheduler y los modos de precisión (FP8/FP4) se ajustan para maximizar throughput en escenarios concretos.
960 (Q4 2027): más memoria, más banda, más FLOPS
La hoja de ruta continúa con el Ascend 960, previsto para el cuarto trimestre de 2027, que representa una mejora amplia en todos los frentes:
- Interconexión de 2,2 TB/s, útil para topologías de clúster más densas y sincronizaciones más rápidas.
- Memoria efectiva de 288 GB (probablemente HiZQ 2.0) y un ancho de banda de memoria de 9,6 TB/s.
- Cómputo de 2 PFLOPS (FP8) y 4 PFLOPS (FP4).
Este salto sugiere dos cosas: primero, una doble apuesta por ensanchar el “cuello” de memoria y segundo, un empujón sostenido en cómputo a baja precisión (FP8/FP4), que es donde la industria está obteniendo mejores ratios de rendimiento por vatio sin castigar la calidad en training e inferencia para muchas arquitecturas de modelos.
970 (2028): el “gran bloque” a tres años vista
El itinerario cierra con el Ascend 970, para 2028, del que Huawei avanza “mejoras significativas” en memoria y cómputo. No hay más cifras oficiales en este hito, pero, por el patrón de incrementos, cabe esperar un nuevo escalón en capacidad HBM, banda sostenida, interconexión y FLOPS en FP8/FP4. La clave estará en cómo se traslada ese músculo al coste total de propiedad (TCO) de los centros de datos: densidad por rack, eficiencia energética y mantenimiento.
Lectura estratégica: un plan pensado “de dentro hacia fuera”
Más allá de los números, la hoja de ruta indica un diseño estratégico de dentro hacia fuera:
- HBM propia primero: dominar el elemento más tensionado de la cadena (memoria) para proteger suministro y marcar precios.
- Inferencia ahora, entrenamiento después: garantizar capacidad de despliegue para la demanda inmediata (950PR), y consolidar entrenamiento con más memoria y banda (950DT, 960).
- Crecimiento por fases: iteraciones anuales/bianuales que permiten absorber lecciones de cada generación y repartir riesgo.
- Apoyo al mercado doméstico: sintonía con la necesidad de capacidad de cómputo nacional para IA generativa y servicios digitales, con Ascend como pieza central del stack.
Competencia y posicionamiento: dónde encajan los Ascend
Huawei no es nueva en aceleración de IA. Sus Ascend ya han buscado un hueco en escenarios donde NVIDIA domina con ecosistemas como CUDA y TensorRT. El diferencial que propone la nueva hoja de ruta es soberanía (memoria propia, stack interno) y tracción local para nube, gobierno y empresa.
- Frente a NVIDIA H20: el mensaje apunta a competir en China con productos “homegrown” con buen perf/watt en FP8/FP4 y banda de memoria elevada.
- Foco en software: no basta con el silicio; el éxito exige toolchains, compiladores, frameworks y librerías sólidas. Huawei no lo detalla aquí, pero históricamente ha empujado su ecosistema CANN para programar Ascend.
- Interconexión: con 2–2,2 TB/s en fabric, la escalabilidad depende de latencias finas, topologías sin bloqueos y orquestación. Es un punto técnico tanto o más crucial que el FLOPS.
Riesgos y desafíos: empaquetado, energía y madurez de ecosistema
El plan es ambicioso y realista a la vez: reconoce que la pelea no es únicamente de FLOPS. Algunos desafíos que asoman:
- Empaquetado avanzado y rendimiento térmico: HBM propia implica stacking complejo, crosstalk, integridad de señal y diseño de interposer. Sostener 9,6 TB/s con 288 GB requiere una ingeniería fina de encapsulado y gestión térmica.
- Disponibilidad y rendimiento sostenido: alcanzar volúmenes con yield competitivo es otra liga. La variabilidad de producción puede afectar a precios, plazos y binning.
- Ecosistema de software: la adopción masiva pasa por compatibilidad con frameworks populares, optimizadores, kernels especializados y APIs de compilación eficientes.
- Energía y densidad: más banda y memoria suelen traducirse en más consumo. El éxito en centros de datos dependerá de la eficiencia eléctrica y la densidad por U alcanzables.
- Mercado global vs. doméstico: el plan prioriza China, donde la soberanía de cómputo es objetivo de país. Más allá, las limitaciones regulatorias y de suministro marcarán la proyección.
Qué significan FP8 y FP4 (y por qué importan)
El énfasis en FP8 y FP4 no es casual. La industria está virando hacia precisiones más bajas que mantienen la calidad de entrenamiento e inferencia gracias a técnicas de cuantización, escalado de pérdidas y calibración. ¿El resultado? Más rendimiento por vatio y mejor uso de la memoria. Cuando Huawei cifra 1 PFLOPS en FP8 y 2 PFLOPS en FP4 (950PR), está diciendo que sus motores vectoriales están dimensionados para el mainstream actual de LLMs, donde FP8 se consolida en entrenamiento y FP4/INT4 gana terreno en inferencia de alto rendimiento.
El camino a 2028: una escalera de tres peldaños
- 2025–2026: consolidar inferencias a escala con 950PR (HBM HiBL 1.0) y entrar en entrenamiento con 950DT (HBM HiZQ 2.0).
- 2027: elevar el listón con 960 (más memoria y banda, 2 PFLOPS FP8, 4 PFLOPS FP4).
- 2028: el Ascend 970 como síntesis, con mejoras “significativas” en cómputo y memoria.
Cada peldaño amplía capacidad de memoria efectiva y ancho de banda; sin eso, el FLOPS en la ficha técnica se quedaría corto. Ese énfasis refuerza la tesis de Huawei: “HBM primero”.
Conclusión: un plan de soberanía de memoria para competir en la era de la IA
Lo más relevante del anuncio no es una sola cifra, sino la arquitectura del plan. Huawei fija una hoja de ruta creíble y incremental que combina escalado de cómputo con control de la memoria —el recurso más escaso en la fiebre de la IA— y con una segmentación clara entre inferencias y entrenamiento.
Si la compañía cumple plazos y mantiene el ritmo de su HBM propia (de HiBL 1.0 a HiZQ 2.0), podría asegurar capacidad para el mercado chino y construir ventajas de coste en clústeres Ascend. La incógnita queda en el software y en la escala industrial: dos factores que, históricamente, separan las hojas de ruta ambiciosas de los despliegues que cambian el mercado.
Por ahora, la señal es potente: Ascend 950PR, 950DT, 960 y 970 dibujan una escalera a 2028 con 1–2 PFLOPS FP8, 2–4 PFLOPS FP4, hasta 9,6 TB/s de banda en 960, interconexión de 2–2,2 TB/s y HBM propia que sube de 128 a 144 y 288 GB en la cartera intermedia. En una década marcada por la escasez de memoria y la voracidad de los LLM, controlar la HBM es, en sí mismo, una ventaja estratégica.
Preguntas frecuentes
¿Qué es el Huawei Ascend 950PR y para qué está pensado?
El Ascend 950PR es el sucesor del 910C y el primer acelerador de la serie que integra HBM propia (HiBL 1.0, 128 GB, 1,6 TB/s). Ofrece 1 PFLOPS en FP8 y 2 PFLOPS en FP4, con 2 TB/s de interconexión, y está orientado a inferencia (por ejemplo, prefill en LLM y recomendadores).
¿En qué se diferencia el 950DT del 950PR?
El 950DT está enfocado a entrenamiento y llegaría en Q4 2026 con HBM HiZQ 2.0 (144 GB, 4 TB/s). Es decir, más banda y capacidad para sostener batches y pipelines de entrenamiento largos.
¿Qué mejoras aporta el Ascend 960 (Q4 2027)?
El 960 sube la interconexión a 2,2 TB/s, la memoria a 288 GB (probablemente HiZQ 2.0) y la banda de memoria a 9,6 TB/s. En cómputo, apunta a 2 PFLOPS (FP8) y 4 PFLOPS (FP4).
¿Qué se sabe del Ascend 970 previsto para 2028?
Huawei habla de mejoras significativas en memoria y cómputo, sin cifras públicas. Encajaría como siguiente escalón del plan, consolidando el foco en HBM y precisiones FP8/FP4.
¿La HBM de Huawei sustituye a la de terceros desde ya?
Huawei ha anunciado HiBL 1.0 (128 GB, 1,6 TB/s) para 950PR y HiZQ 2.0 (144 GB, 4 TB/s) para 950DT y la línea posterior. El objetivo es reducir dependencias y optimizar a medida; el ritmo de adopción dependerá de la producción, el rendimiento sostenido y la validación.
¿Esto compite con NVIDIA H20?
En el mercado doméstico chino, Huawei presenta Ascend como alternativa “homegrown”. La comparativa exacta depende de métricas de sistema (no sólo del chip): software, red, HBM, eficiencia y TCO del clúster.
¿Por qué son importantes FP8 y FP4?
Porque permiten más rendimiento por vatio y mejor aprovechamiento de memoria sin degradar resultados en muchos modelos. El 950PR ya cifra 1 PFLOPS (FP8) y 2 PFLOPS (FP4); el 960 dobla esos números.
¿Cuáles son los retos principales del plan?
Empaquetado HBM, térmica, ecosistema software, energía por rack y volúmenes de fabricación. El éxito real se medirá en coste, plazos y adopción en centros de datos.
vía: wccftech