La “fiebre de la IA” ha convertido a las GPU en un recurso geopolítico. Y en ese tablero, China está empujando una transición que hace solo dos años parecía impensable: reducir su dependencia de Nvidia a gran velocidad, incluso aunque eso suponga pagar un precio en eficiencia energética o en madurez de software.
Un análisis de Bernstein recogido por medios internacionales apunta a un escenario especialmente duro para la compañía: la cuota de Nvidia en el mercado chino de aceleración de IA podría caer hasta el entorno del 8 %, frente a cifras que se situaban alrededor de dos tercios del mercado en el pasado reciente. La combinación de restricciones de exportación y progreso local sería el detonante de este cambio.
Dos fuerzas que cambian el equilibrio
1) Export controls: menos producto, más “fricción” comercial
El primer factor no es tecnológico, sino regulatorio. Las restricciones estadounidenses sobre chips avanzados y su ecosistema (componentes, interconexión, capacidades de cómputo, etc.) han limitado qué modelos pueden venderse y bajo qué condiciones. El resultado práctico es que, en el segmento de IA de alto rendimiento, la disponibilidad de oferta occidental se vuelve irregular, más cara y burocrática.
En ese contexto, parte del mercado chino —especialmente el asociado a grandes despliegues— no puede basar su planificación en un suministro incierto. Las compras pasan a priorizar aquello que se puede firmar, fabricar y desplegar dentro del país, aunque no sea “lo mejor” en el sentido clásico.
2) Sustitución doméstica: “suficientemente buena” y cada vez más escalable
El segundo factor es la maduración acelerada de proveedores chinos. El mismo análisis citado por Bernstein sostiene que los fabricantes locales podrían cubrir en torno al 80 % de la demanda doméstica en los próximos años, empujando a Nvidia a una posición marginal.
Aquí la clave no es solo el chip, sino el sistema completo: clústeres, redes internas, software, soporte y disponibilidad. Cuando el objetivo es construir capacidad a escala (centros de datos, nubes regionales, superclústeres), la variable “time-to-deploy” pesa casi tanto como los TFLOPS.
Huawei, Moore Threads y el “modelo sistema”: competir por rack, no por tarjeta
En la práctica, China está replicando el camino que ya siguieron EE. UU. y los hiperescalares: dejar de hablar de “una GPU” y pasar a hablar de arquitecturas a nivel de rack.
Un ejemplo es el enfoque de Huawei con CloudMatrix 384, presentado como una plataforma de entrenamiento a escala que compite en el terreno del clúster completo. Según Financial Times, la compañía ha defendido comparativas en las que CloudMatrix 384 mejora cifras de rendimiento en determinados escenarios frente a configuraciones equivalentes de Nvidia, aunque con un coste energético sensiblemente mayor, un matiz que en centros de datos se traduce en CAPEX (potencia instalada) y OPEX (electricidad y refrigeración).
Por su parte, el ecosistema de nuevos actores —como Moore Threads— intenta cerrar la brecha en el escalón “GPU para IA” con productos dedicados, apoyándose en el argumento de soberanía tecnológica y disponibilidad local. En el análisis que cita a Bernstein se menciona esta presión competitiva como parte del cambio de tendencia.
Tabla comparativa: qué está cambiando y por qué importa
| Variable clave | Antes (dominancia Nvidia) | Ahora (transición acelerada) | Impacto real en el mercado chino |
|---|---|---|---|
| Acceso a GPUs punteras | Relativamente fluido | Restringido y con incertidumbre | Planificación de capacidad más difícil con proveedores externos |
| Unidad de competencia | GPU / tarjeta | Sistema / rack / clúster | Gana quien entrega “infraestructura lista”, no solo silicio |
| Proveedores alternativos | Complementarios | Estratégicos | Los compradores aceptan “suficientemente bueno” si es desplegable |
| Precio vs disponibilidad | Precio alto, pero asumible | Disponibilidad prioritaria | La cadena de suministro pesa tanto como el rendimiento |
| Energía y eficiencia | Ventaja clara occidental | Compensaciones (más consumo) | Aumenta la presión sobre potencia instalada y refrigeración |
Lectura para Europa: una advertencia sobre dependencia y cadena de suministro
Este caso también deja un mensaje fuera de China: cuando un componente se convierte en arma estratégica, la dependencia se transforma en riesgo operativo. La “IA soberana” no es un eslogan en este contexto: es una forma de asegurar continuidad, costes y planificación a medio plazo.
Preguntas frecuentes
¿Por qué se habla de que la cuota de Nvidia en China podría caer al 8 %?
Porque analistas de Bernstein, citados por medios internacionales, proyectan una caída fuerte por la combinación de restricciones de exportación y crecimiento de proveedores locales capaces de cubrir gran parte de la demanda interna.
¿Qué significa que China pueda cubrir el 80 % de su demanda con chips locales?
Significa que, para muchos despliegues, el comprador puede priorizar disponibilidad, soporte y capacidad de entrega local, aunque el rendimiento por vatio no sea el mejor del mercado. Esa autosuficiencia reduce el espacio de Nvidia.
¿Huawei realmente compite con Nvidia en entrenamiento de IA?
Huawei está empujando un enfoque “rack-scale” con sistemas como CloudMatrix 384. Algunas comparativas publicadas en medios indican rendimientos competitivos en escenarios concretos, con el matiz de un consumo energético más alto.
¿Qué implicación tiene esto para el mercado global de hardware de IA?
Acelera una bifurcación: por un lado, cadenas occidentales (Nvidia/AMD y su ecosistema) y, por otro, un stack chino cada vez más integrado. Esa fragmentación puede encarecer, duplicar desarrollos de software y tensionar la capacidad de fabricación avanzada.
vía: tomshardware y Nikkei