China acaba de enviar un mensaje claro a Washington desde Pekín: no piensa quedarse atrás en la carrera de la inteligencia artificial aunque Estados Unidos intente cerrar el grifo de los chips avanzados. En su conferencia Baidu World 2025, el gigante tecnológico chino ha presentado dos nuevos procesadores de IA —Kunlun M100 y Kunlun M300— y una arquitectura de supernodos masivos Tianchi que, sobre el papel, apuntan directamente al dominio que hoy ejercen Nvidia y otros fabricantes occidentales en el cómputo para IA.
No es un lanzamiento más. Es la pieza central de una estrategia de largo recorrido: dotar a China de potencia de cálculo propia, “controlable” y libre de las restricciones impuestas desde Washington.
De las sanciones de Washington al “plan B” de Pekín
Desde 2022, EE.UU. ha ido endureciendo las restricciones de exportación de chips de alto rendimiento y equipamiento de fabricación hacia China, con reglas que limitan directamente la venta de GPU avanzadas de Nvidia, AMD e incluso el acceso a herramientas críticas de litografía y diseño.
El objetivo declarado de la Casa Blanca es frenar la capacidad de Pekín para entrenar modelos de IA de última generación, especialmente aquellos con posible uso militar o de vigilancia masiva. Como efecto colateral, grandes tecnológicas chinas se han visto obligadas a buscar alternativas domésticas para entrenar sus modelos de lenguaje y sistemas multimodales.
Huawei abrió el camino demostrando que era posible fabricar SoCs a 7 nm con SMIC —como el Kirin 9000S del Mate 60 Pro— pese a las sanciones y sin acceso a litografía EUV. Pero en el terreno de los aceleradores de IA de alto rendimiento, la pieza que faltaba eran chips capaces de competir, aunque sea parcialmente, con las GPU de Nvidia en centros de datos.
Ahí entra Baidu con su línea Kunlun.
Kunlun M100 y M300: dos armas para la guerra de la IA
En Baidu World 2025, la compañía ha desvelado su nueva generación de chips Kunlun para IA: el M100, optimizado para inferencia a gran escala, y el M300, diseñado para el entrenamiento e inferencia de modelos fundacionales multimodales de tamaño “ultra grande”.
Las piezas clave son:
- Kunlun M100
- Enfocado en entornos de inferencia masiva, donde hay que servir millones de peticiones de IA al día.
- Está especialmente optimizado para modelos de tipo Mixture of Experts (MoE), una arquitectura que activa solo partes del modelo según la consulta para ganar eficiencia.
- Su lanzamiento comercial está previsto para inicios de 2026, y Baidu lo presenta como el motor para ejecutar modelos como Ernie a gran escala dentro de China.
- Kunlun M300
- Pensado como chip “todo en uno” para entrenamiento e inferencia de modelos multimodales de próxima generación, con trillones de parámetros.
- Está orientado a modelos que combinan texto, imagen, audio y vídeo en un mismo marco.
- Su llegada al mercado se espera para principios de 2027.
Baidu no ha detallado públicamente el nodo de fabricación ni todos los parámetros técnicos de estos chips, un silencio habitual en la industria china tras las sanciones. Pero el mensaje oficial insiste en tres conceptos: potencia, bajo coste y, sobre todo, computación “controlable” y doméstica para clientes chinos que ya no pueden o no quieren depender de hardware estadounidense.
Tianchi 256 y 512: los supernodos que quieren imitar (y desafiar) a Nvidia
La otra mitad del anuncio es tan importante como los chips: la arquitectura de supercomputación que los acompaña. Baidu presentó dos “supernodos” Tianchi —el Tianchi 256 y el Tianchi 512— que interconectan cientos de aceleradores en una única unidad lógica de cómputo, un enfoque similar al de sistemas como el Nvidia GB200 NVL72 o el CloudMatrix 384 de Huawei.
Según la información compartida por la compañía y medios especializados:
- El Tianchi 256 enlaza 256 chips P800 (la generación actual de Kunlun) y estará disponible en la primera mitad de 2026.
- El Tianchi 512 elevará la cifra a 512 chips en la segunda mitad del mismo año.
Baidu asegura que, frente al supernodo presentado en abril, el nuevo Tianchi 256 multiplica por cuatro el ancho de banda total, mejora el rendimiento global en más de un 50 % y consigue multiplicar por 3,5 el throughput de tokens por GPU en cargas de inferencia de grandes modelos.
La idea es clara: aunque cada chip individual pueda estar uno o dos pasos por detrás de las GPU más avanzadas de Nvidia, la red de interconexión y el diseño del clúster buscan compensar esa brecha sumando más tarjetas y optimizando al máximo la comunicación entre ellas.
Una hoja de ruta hasta 2030: del supernodo de 256 tarjetas al clúster de un millón
Más allá de los productos concretos, Baidu ha dibujado una hoja de ruta de cinco años para su familia Kunlun que apunta a un objetivo ambicioso: construir, para 2030, un clúster de un millón de tarjetas Kunlun en una sola “megainfraestructura” de IA que alimentará su plataforma Baige.
Los hitos anunciados son:
- 2026: despliegue de Tianchi 256 y Tianchi 512.
- 2028: llegada de supernodos “de escala mil-tarjetas”, lo que situaría a China en la liga de los mayores sistemas de entrenamiento del mundo.
- 2030: objetivo de alcanzar un clúster de un millón de tarjetas Kunlun trabajando como una única unidad lógica, al menos sobre el papel.
En paralelo, Baidu ha presentado Ernie 5.0, un modelo de lenguaje multimodal de 2,4 billones de parámetros, capaz de procesar texto, imágenes, audio y vídeo, entrenado sobre su propia infraestructura basada en chips P800.
La combinación de chips, supernodos y modelos crea la narrativa que Baidu quiere proyectar: China está levantando su propio “stack” de IA de extremo a extremo, desde el silicio hasta las aplicaciones.
Golpe directo a la dependencia de Nvidia… dentro de China
El mensaje político de Baidu es evidente. Mientras Estados Unidos endurece o flexibiliza a ratos las reglas para exportar GPU a China, Pékin quiere que sus grandes tecnológicas reduzcan al mínimo la compra de chips extranjeros para centros de datos estratégicos.
Con los Kunlun M100 y M300, la compañía se posiciona como alternativa doméstica frente a las GPU de Nvidia y AMD, al menos para buena parte de las cargas de trabajo de IA corporativa y de servicios en la nube chinos. No se trata solo de rendimiento bruto; también de seguridad regulatoria:
- No dependen de licencias de exportación estadounidenses que pueden cambiar de un mes a otro.
- No corren el riesgo de quedar atrapados en nuevas rondas de sanciones o vetos geopolíticos.
- Permiten al gobierno chino exigir que datos sensibles y modelos críticos se ejecuten sobre hardware considerado “seguro y controlable”.
Al mismo tiempo, la apuesta de Baidu responde a otro fenómeno: la creciente hostilidad regulatoria de China hacia los chips extranjeros de IA, con inspecciones a importaciones de Nvidia y mayor control sobre lo que entra por los puertos del país.
¿Un desafío real al liderazgo de EE.UU. en IA?
La gran pregunta para la comunidad internacional es si esta ofensiva de Baidu puede recortar de forma significativa la ventaja que todavía mantienen Estados Unidos y sus aliados en cómputo para IA.
A corto plazo, la respuesta parece prudente: los chips de Nvidia siguen marcando el ritmo en procesos de fabricación, ecosistema de software (CUDA), librerías y comunidad de desarrolladores. Y las fundiciones chinas continúan varios nodos por detrás de TSMC o Intel en litografía avanzada.
Sin embargo, el tablero está cambiando:
- China ya ha demostrado que puede fabricar chips de 7 nm sin EUV y seguir iterando sobre esa base.
- Baidu, Huawei y otros actores están construyendo sistemas de supernodos que escalan mediante volumen más que por sofisticación extrema de cada chip.
- Los modelos chinos de IA reducen la distancia con los estadounidenses, con estimaciones que sitúan la brecha en cuestión de meses en ciertos ámbitos.
En ese contexto, los Kunlun M100 y M300 no convierten de la noche a la mañana a China en líder del hardware de IA, pero sí consolidan una tendencia: el país ya no es un mero comprador de chips estadounidenses, sino un competidor con hoja de ruta propia.
Preguntas frecuentes
¿En qué se diferencian los chips Baidu Kunlun M100 y M300 para inteligencia artificial?
El Kunlun M100 está optimizado para inferencias a gran escala, especialmente en modelos de tipo Mixture of Experts (MoE), y está pensado para ejecutar asistentes, chatbots y servicios en la nube con millones de peticiones diarias. El Kunlun M300, en cambio, se orienta tanto a entrenamiento como a inferencia de modelos fundacionales multimodales de próxima generación, capaces de trabajar con texto, imagen, audio y vídeo, y se reserva para los clústeres más potentes de Baidu y grandes clientes industriales.
¿Qué papel juegan los supernodos Tianchi 256 y Tianchi 512 en la estrategia de Baidu para IA?
Los supernodos Tianchi 256 y 512 permiten agrupar cientos de chips Kunlun P800 en una sola unidad lógica de cómputo, con una interconexión de muy alta velocidad. El objetivo es compensar posibles desventajas frente a GPU extranjeras sumando más tarjetas y mejorando la comunicación entre ellas. Baidu asegura que el Tianchi 256 cuadruplica el ancho de banda de su generación anterior y aumenta más de un 50 % el rendimiento global en IA, con hasta 3,5 veces más tokens por GPU en inferencia de grandes modelos, lo que lo convierte en la base de su futura infraestructura de IA a gran escala.
¿Cómo afectan los Kunlun M100/M300 y Tianchi a la dependencia de China de los chips de Nvidia?
Estos productos permiten a Baidu y a otras empresas chinas reducir su exposición a las restricciones de exportación de EE.UU. y a la volatilidad regulatoria asociada a las GPU de Nvidia. Aunque el ecosistema de Nvidia sigue siendo dominante a nivel global, los Kunlun y los supernodos Tianchi ofrecen una vía doméstica para entrenar y desplegar modelos avanzados dentro de China, cumpliendo al mismo tiempo con las prioridades de “seguridad y control” marcadas por Pekín en centros de datos estratégicos.
¿Qué significa el plan de Baidu de llegar a un clúster de un millón de tarjetas Kunlun en 2030?
Ese objetivo forma parte de la hoja de ruta de cinco años de la familia Kunlun y representa la ambición de Baidu de operar una de las mayores infraestructuras de cómputo para IA del mundo basada en chips propios. Los hitos intermedios incluyen supernodos de 256 y 512 tarjetas en 2026 y sistemas de escala mil-tarjetas en 2028. Si el plan se cumple, en 2030 Baidu podría entrenar y servir modelos de IA gigantes apoyándose casi exclusivamente en hardware doméstico, reforzando la autosuficiencia tecnológica china frente a Estados Unidos y sus aliados.
Baidu Unveils New Kunlun Chip M100·M300 and Two Next-Generation “Supernode” Solutions
— Jukan (@Jukanlosreve) November 13, 2025
• Baidu announced that it will introduce its next-generation AI chips, the Kunlun Chip (昆仑芯) M100 and M300.
Among them, the M100 is optimized for large-scale inference environments,… pic.twitter.com/cNB7j0ruO2