China acelera la producción de aceleradores de IA en fábricas locales: el verdadero cuello de botella es la HBM (y la capacidad de los nodos avanzados)

La carrera por la soberanía de cómputo en inteligencia artificial ha entrado en una nueva fase en China. Tras años de sanciones, restricciones de exportación y tensiones geopolíticas, los campeones nacionales están aumentando el ritmo de fabricación de aceleradores de IA en fabs domésticas, con Huawei y Cambricon a la cabeza. Las cifras internas y estimaciones de analistas apuntan a una producción que podría alcanzar más de un millón de unidades anuales a partir de 2026. Sin embargo, el impulso se topa con dos murallas: la memoria HBM y la capacidad productiva en nodos avanzados.

La narrativa que emerge es clara: la lógica ya no es el único freno. Incluso si SMIC (el líder foundry chino) y futuros fabs operados por Huawei consiguen mejorar rendimientos (yields) y ciclos de fabricación en procesos de clase 7 nm, la escasez de HBM —memoria de alto ancho de banda indispensable para entrenar e inferir LLM modernos a escala— se perfila como el principal limitante de la oferta real de aceleradores en el corto plazo.


El viraje de China: de depender de TSMC a forzar la fabricación doméstica

Las listas de entidades del Departamento de Comercio de EE. UU. y los sucesivos paquetes de controles de exportación han forzado a las compañías chinas a rediseñar su mapa de suministros. En 2024, según distintas fuentes del sector, Huawei habría tirado de un “banco de troqueles” (die bank) fabricados previamente en TSMC para sortear la transición, mientras SMIC maduraba sus nodos de clase 7 nm (N+2) bajo fuerte presión.

Este “colchón” permitió sostener el lanzamiento y el escalado de la serie Ascend 910 (B y C) mientras SMIC afinaba procesos, automatización y capacidad. Paralelamente, Huawei ha impulsado su propia verticalización: desde el diseño a la fabricación, pasando por equipos de proceso (con la creación de SiCarrier para replicar y desarrollar herramientas clave) y paquetizado avanzado.

Qué cambia en 2025–2026

  • SMIC ha pasado de fabricar principalmente SoC móviles (como Kirin 9000S) a aumentar el peso de dies grandes orientados a IA (Ascend).
  • El tiempo de ciclo en 7 nm de SMIC sigue siendo más largo que el de TSMC, con multipatroneo DUV intensivo, pero hay signos de mejora en volumen y yields.
  • Huawei aspira a operar fabs propias para liberar capacidad de SMIC y acelerar iteraciones; de cuajar, permitiría subir el listón en volumen y control de proceso.

El límite físico hoy: HBM, no lógica

Por rendimiento y eficiencia energética, los aceleradores de IA modernos requieren HBM (HBM2E/3/3E…). China acumuló un volumen relevante de stacks extranjeros antes de la entrada en vigor de nuevas restricciones a finales de 2024, pero ese stock se agotará en los próximos trimestres si no entran nuevas partidas. La lectura estratégica del sector es inequívoca: sin HBM adicional, el número de ASIC de IA ensamblados cae aunque haya dies lógicos disponibles.

Por qué HBM manda

  • Ancho de banda masivo por vatio y por socket, imprescindible en RLHF, SFT, MoE y inferencia multimodal.
  • No hay sustituto directo: GDDR/LPDDR puede servir de parche para ciertos modelos o inferencia liviana, pero no escala para SOTA en entrenamiento y servicio a gran escala.
  • El paquetizado 2.5D/3D (interposers, TSV, stacking) añade complejidad y cuellos de botella de OSAT (empresas de ensamblaje y test), otro frente donde China acelera pero que aún no iguala a los líderes globales.

CXMT, el “segundo motor” que aún no despega del todo

En el frente de DRAM/HBM, CXMT es la apuesta principal. La compañía ha recortado distancias en DDR5 y empuja su hoja de ruta hacia HBM3/3E, con inversiones del Big Fund y alianzas de paquetizado con JCET y Tongfu, entre otros. Aun así, el salto de escala en HBM requiere herramientas específicas, procesos TSV y una curva de aprendizaje que no se acorta por decreto.

Las proyecciones más prudentes sitúan la producción HBM de CXMT en torno a 2–3 millones de stacks en 2026, suficientes para 250.000–400.000 paquetes Ascend 910C (dependiendo de la configuración), muy por debajo de lo que Huawei quiere ensamblar si dispone de lógica en cantidad. Es decir: el cuello de botella de 2026–2027 es la HBM.


SMIC: capacidad creciente, rendimientos en ascenso, ciclos aún largos

Los analistas difieren en cifras, pero convergen en la tendencia: SMIC está aumentando su capacidad de nodos avanzados (7 nm y derivados DUV) con objetivo de 45 k wafers/mes a finales de 2025, 60 k en 2026 y 80 k en 2027. Aun con yields inferiores a TSMC, la producción anual de varios millones de dies de clase Ascend es factible si la asignación de capacidad se prioriza.

El gran “pero”: el lead time. Entre inicio de oblea y módulo final con paquetizado avanzado, las estimaciones sitúan el ciclo total de SMIC en el doble que TSMC para nodos DUV de 7 nm, por multipatroneo intensivo, menos herramientas punta por línea y menor automatización. Ese diferencial no es trivial cuando se persigue escala mensual de seis o siete dígitos.


“Compute diplomacy”: chips extranjeros “capados”, alquiler offshore y presión regulatoria

Mientras China acelera su base doméstica, el tablero internacional mueve ficha:

  • Nvidia H20/H20E (versiones ajustadas a controles) han recibido luz verde para entrar en China; hay informes sobre un B30A (familia Blackwell) con más FLOPs y mucha memoria, encajado bajo umbrales regulatorios —o con licencias específicas.
  • Alquiler de cómputo fuera de China (p. ej., Malasia) permite entrenar con GPUs de vanguardia sin importar físicamente chips al país, con la desconexión como palanca de control si se vulneran condiciones.
  • La consecuencia: actores como DeepSeek, Qwen (Alibaba) o Kimi (Moonshot) logran seguir entrenando y servir mejor, aunque la soberanía total siga lejos mientras la HBM local no acompañe.

¿Sustituir GPU por ASIC “nativos”? El debate que va más allá del silicio

Desde Beijing y voces del sector se impulsa la idea de divergir del “camino CUDA” y apostar por ASICs y pilas no occidentales. La eficiencia de un ASIC bien afinado en tareas concretas es real; el problema es ecosistema: librerías, compilers, frameworks, herramientas y talento volcados durante una década en el stack Nvidia/CUDA o TPU/XLA.

Los Ascend de Huawei han mejorado en software y operadores, pero, según fuentes del sector, todavía quedan brechas de rendimiento y madurez frente a Hopper/Blackwell o TPU v5 en entrenamiento SOTA. Sin HBM en volumen, la discusión sobre arquitectura es secundaria: no se puede escalar.


El 2026 que viene: más dies, ¿suficiente HBM?

Si SMIC mantiene la pendiente y Huawei suma capacidad propia, la parte de lógica puede dejar de ser el cuello de botella a lo largo de 2026. El número de dies “potenciales” para Ascend podría rebasar varios millones anuales. Pero sin HBM (propia o importada), el número de módulos ensamblados quedaría muy por debajo.

Escenarios plausibles:

  1. HBM doméstica despega (CXMT + OSAT): China podría equilibrar lógica y memoria, con ~0,3–0,5 M de paquetes en 2026 y aceleración en 2027 (si yields y herramientas acompañan).
  2. Smuggling/re-export de HBM persiste: elevaría temporalmente el techo de producción, pero no es base estable.
  3. Más licencias a chips extranjeros con mucha memoria (H20E/B30A): permitirían servir e inferir mejor, aliviando demanda sobre Ascend en ciertos tiers, pero no sustituyen la necesidad de HBM local si el objetivo es autosuficiencia.

Implicaciones estratégicas

  • Para China: el plan de autosuficiencia exige dos motores sincronizadoslógica (SMIC/Huawei/Cambricon) y HBM (CXMT + OSAT)— más un stack software competitivo. La memoria es el cuello de botella inmediato.
  • Para EE. UU. y aliados: los controles sobre HBM y herramientas críticas pesan más que las restricciones a lógica a la hora de modular el ritmo de la rampa china. La coordinación temporal de controles (EE. UU., Japón, Países Bajos, Corea) es decisiva para evitar “ventanas de abastecimiento”.
  • Para el mercado: aun con limitaciones, 2026–2027 verá mucho más cómputo en China vía Ascend + GPUs licenciadas + cómputo alquilado. La experiencia de usuario en apps de IA locales mejorará al aumentar la capacidad de servicio (más memoria por chip y más chips).

Conclusión

China está rampando su producción de aceleradores de IA en fabs domésticas, y puede fabricar millones de dies si prioriza asignación y mejora yields. Pero en el corto y medio plazo, la llave de su escalado no es la litografía, sino la HBM. Sin una rampa doméstica robusta —o sin acceso estable a HBM extranjera—, el número de módulos ensamblados quedará por debajo de las ambiciones. La soberanía total del stack (de silicio a tokens) será un maratón: HBM marca el paso.


Preguntas frecuentes (FAQ)

¿Por qué la HBM es un cuello de botella mayor que la lógica?
Porque los modelos SOTA necesitan ancho de banda masivo y memoria cercana al compute. La HBM aporta ambos; sin ella, los entrenamientos y la inferencia a gran escala pierden rendimiento y eficiencia.

¿Puede China sustituir la HBM por GDDR o LPDDR?
En casos de uso concretos o inferencia ligera, podría paliar. Para LLM de vanguardia, RLHF y multimodal a escala, no: el ancho de banda y la topología que ofrece HBM son difíciles de emular.

¿SMIC puede producir suficientes chips de IA?
La capacidad y los yields mejoran. Con 20–50 k wafers/mes asignados y rendimientos razonables, es factible producir millones de dies al año. El desafío es el ciclo (más largo que TSMC) y, sobre todo, emparejar esos dies con HBM.

¿Qué papel juegan Nvidia H20/H20E o un hipotético B30A?
Pueden mejorar la capacidad de servicio e inferencia en China bajo licencia, al tiempo que alivian presión sobre Ascend. Pero no resuelven el objetivo de autosuficiencia mientras la HBM doméstica no despegue.


vía: semianalysis

encuentra artículos

newsletter

Recibe toda la actualidad del sector tech y cloud en tu email de la mano de RevistaCloud.com.

Suscripción boletín

LO ÚLTIMO

×