Moore Threads quiere ganar la guerra del “copiloto” con un stack chino de principio a fin

Moore Threads, una de las compañías llamadas a liderar la alternativa china a los grandes proveedores occidentales de computación para Inteligencia Artificial, intenta ahora dar un salto que va más allá del silicio. La empresa con sede en Pekín ha presentado un servicio propio de programación asistida por IA —bajo el nombre de “AI Coding Plan”— con una ambición clara: no limitarse a vender GPU, sino controlar también la capa de software que convierte esa potencia de cálculo en productividad diaria para desarrolladores.

El movimiento llega en un momento en el que la programación con ayuda de modelos de lenguaje se ha convertido en un campo de batalla estratégico. En Occidente, herramientas como GitHub Copilot han normalizado el uso de asistentes en el editor; y en paralelo, han surgido soluciones que compiten por convertirse en “la interfaz” de la programación moderna. En China, el pulso es doble: por un lado, se busca competir en experiencia y resultados; por otro, reducir dependencias externas en un terreno especialmente sensible por las restricciones comerciales y la geopolítica tecnológica.

Del chip al teclado: por qué Moore Threads quiere el control de la experiencia

La tesis de Moore Threads es que la ventaja competitiva ya no reside solo en el rendimiento bruto del hardware. El valor se está desplazando hacia plataformas completas: infraestructura + modelos + herramientas de trabajo + integración con flujos reales. Bajo esa lógica, “AI Coding Plan” se presenta como una suite de desarrollo “vertical”, apoyada en hardware doméstico y en un modelo entrenado para tareas de programación.

El servicio se apoya en la GPU MTT S5000, basada en la arquitectura Pinghu. Según información publicada en torno a la compañía, este chip entró en producción en 2025 y se ha convertido en uno de los motores comerciales del grupo, hasta el punto de que Moore Threads ha comunicado previsiones de crecimiento de ingresos de aproximadamente el triple, impulsadas por la adopción del S5000 en clústeres orientados a IA. Ese mensaje conecta con una realidad del mercado: cuando el acceso a aceleradores punteros se vuelve más complejo o costoso, el software que “hace útil” a la computación local gana peso en la decisión de compra.

En otras palabras: vender GPU es importante, pero conseguir que un desarrollador escriba, depure y entregue código más rápido —sin abandonar tu plataforma— es lo que crea hábito. Y el hábito, en tecnología, suele convertirse en lock-in.

Compatibilidad como gancho: entrar sin obligar a “empezar de cero”

Una de las claves del anuncio es la promesa de compatibilidad con herramientas populares. Moore Threads ha señalado que su plan puede convivir con entornos y flujos ya conocidos por los desarrolladores, mencionando integración o soporte con utilidades de uso extendido en el ecosistema de “AI coding”. Esta estrategia persigue un objetivo práctico: minimizar el coste psicológico y técnico del cambio. En un mercado donde el editor, los plugins y los atajos son parte de la identidad profesional, obligar a migrar de golpe suele ser la forma más rápida de perder usuarios.

La jugada tiene también lectura industrial. Si el hardware es doméstico pero el desarrollador mantiene su flujo, la adopción puede acelerarse. Y si la adopción crece, el hardware se justifica mejor. Es un círculo virtuoso… siempre que el rendimiento y la fiabilidad estén a la altura.

El papel del modelo: GLM-4.7 como argumento de competitividad

En la capa de modelos, la plataforma se apoya en GLM-4.7, desarrollado por Zhipu AI (Z.ai). La documentación pública y comunicados del propio entorno de Z.ai describen a GLM-4.7 como un modelo diseñado para escenarios reales de desarrollo y lo sitúan en posiciones destacadas en evaluaciones de programación; además, citan resultados competitivos en benchmarks de referencia del sector y un buen desempeño en pruebas centradas en ingeniería de software. El mensaje de fondo es nítido: el “copiloto” ya no se mide solo por autocompletar líneas, sino por resolver tareas más largas, navegar bases de código y comportarse como un agente que ejecuta pasos. En esa transición, la calidad del modelo importa tanto como la potencia de cómputo.

Un mercado en ebullición: Alibaba, ByteDance y el “nuevo front-end” del software

Moore Threads no aterriza en un desierto. Alibaba lleva tiempo reforzando su presencia en programación asistida con Tongyi Lingma y con su familia de modelos Qwen orientados a código. La propia compañía ha afirmado que su asistente ha generado miles de millones de líneas desde su lanzamiento, una cifra que funciona como métrica de adopción y, sobre todo, como señal para empresas: esto ya no es experimental.

La competencia doméstica se cruza con la occidental, pero también con un fenómeno más amplio: el IDE y el editor se han convertido en un canal de distribución. Quien controla el punto donde el desarrollador pasa horas cada día controla, en gran parte, la forma en la que se construye software. Por eso, la batalla no va solo de “quién programa mejor”, sino de quién se convierte en el estándar de facto en flujos empresariales.

La lectura estratégica: soberanía, márgenes y una nueva forma de vender GPU

En el fondo, el anuncio de Moore Threads sugiere un cambio de identidad: de fabricante de chips a proveedor de plataforma. Ese salto puede mejorar márgenes (servicios y suscripciones suelen ser más predecibles que la venta puntual de hardware) y, a la vez, reforzar la narrativa de autosuficiencia tecnológica. También implica nuevas responsabilidades: soporte, comunidad, seguridad, evolución del producto y, sobre todo, confianza.

Porque si el desarrollo asistido por IA entra en el núcleo del trabajo diario, cualquier fallo —alucinaciones, errores sutiles, filtraciones de código o un mal control de datos— ya no es un problema “de laboratorio”. Es un problema de producción.

Aun así, el movimiento encaja con la tendencia del sector: la infraestructura de IA se está “productizando” y bajando a capas cada vez más cercanas al usuario final. En esa bajada, el que llegue primero con una experiencia completa y razonablemente abierta puede ganar una posición difícil de desalojar.


Preguntas frecuentes (FAQ)

¿Qué es un “AI coding plan” y en qué se diferencia de un autocompletado de código?
Un plan de “AI coding” suele incluir generación, depuración, refactorización y ejecución de tareas más largas (por ejemplo, cambios en varios archivos), no solo sugerencias línea a línea dentro del editor.

¿Por qué es tan importante que la plataforma sea compatible con herramientas de desarrollo populares?
Porque reduce la fricción de adopción: un equipo puede probar el asistente sin rehacer su flujo de trabajo, sus plugins o su configuración, lo que acelera pilotos y despliegues.

¿Qué ventajas ofrece usar un stack doméstico (hardware + modelo + herramienta) en empresas?
Principalmente, control sobre la infraestructura, dependencia reducida de terceros y, en ciertos entornos, más opciones para requisitos de cumplimiento, residencia del dato o políticas internas de seguridad.

¿Puede un asistente de código con IA sustituir a un equipo de desarrollo?
En la práctica, hoy se usa para aumentar productividad: automatiza tareas repetitivas, acelera pruebas y documentación, y ayuda a explorar soluciones, pero sigue requiriendo revisión humana, validación y responsabilidad técnica.

vía: scmp

encuentra artículos

newsletter

Recibe toda la actualidad del sector tech y cloud en tu email de la mano de RevistaCloud.com.

Suscripción boletín

LO ÚLTIMO

Las últimas novedades de tecnología y cloud

Suscríbete gratis al boletín de Revista Cloud. Cada semana la actualidad en tu buzón.

Suscripción boletín
×