La fiebre del “AI PC” ya no es solo una competición entre Intel, AMD, Qualcomm o Apple. En China, Moore Threads (conocida hasta ahora sobre todo por su apuesta en GPU y el ecosistema MUSA) ha presentado Yangtze, un SoC orientado a portátiles y mini PCs que busca cubrir el “paquete completo” para cargas de trabajo modernas: CPU, GPU integrada, NPU y un bloque multimedia preparado para vídeo de alta resolución.
Según la información difundida tras su presentación, Yangtze integra una CPU de 8 núcleos con frecuencia máxima de 2,65 GHz, y el componente más llamativo para el discurso comercial del AI PC: una NPU de 50 TOPS (INT8), planteada para acelerar tareas como reconocimiento de voz e imagen, y, en general, funciones de IA ejecutadas en local.
Un SoC pensado para “todo en uno”: NPU, iGPU y motor multimedia
El anuncio describe a Yangtze como una solución totalmente integrada, algo clave para el mercado de portátiles y mini PCs, donde el equilibrio entre rendimiento, consumo y coste manda más que en un sobremesa tradicional.
En ese planteamiento, Moore Threads pone el foco en tres piezas:
- NPU (50 TOPS): diseñada como motor neuronal multinúcleo para acelerar inferencia en tareas de IA comunes.
- iGPU: con ambición de cubrir tanto renderizado 3D como aceleración de modelos de lenguaje (LLM) y tareas de vídeo.
- VPU / motor multimedia: con soporte de 8K a 30 FPS y 4K a 60 FPS, además de compatibilidad con H.265, H.264 y AV1.
A ese “núcleo” se le suman otros bloques habituales en SoCs modernos, como un DPU para escenarios de múltiples pantallas (se menciona la posibilidad de doble 8K o hasta ocho 4K, dependiendo de interfaz), un DSP con funciones como reducción de ruido y efectos de audio, y un ISP con soporte de cámara de hasta 32 MP y HDR.
Primeros equipos: MTT AIBook y MTT AICube
Moore Threads no se ha limitado a enseñar el chip. También ha presentado diseños de plataforma para ponerlo en manos de usuarios y, sobre todo, de integradores del mercado doméstico chino: un portátil llamado MTT AIBook y un mini PC MTT AICube.
En ambos casos, la configuración de memoria mencionada apunta a 32 GB y 64 GB de LPDDR5X, con un ancho de banda de más de 100 GB/s. Es un dato importante porque, en equipos de “IA local”, la memoria (capacidad y ancho de banda) puede convertirse en el verdadero techo práctico, especialmente cuando se habla de modelos grandes, contextos largos o pipelines multimodales.
Lo que está intentando Moore Threads (más allá de las cifras)
Más allá del impacto de un número como “50 TOPS”, el movimiento de Moore Threads encaja con una idea muy concreta: controlar un stack completo de AI PC dentro del mercado chino, reduciendo dependencia de soluciones extranjeras en un segmento que va camino de convertirse en estándar de la industria.
La compañía no ha detallado públicamente la arquitectura interna ni los IPs concretos de CPU/GPU, pero sí posiciona el SoC como una alternativa “competitiva” dentro de la categoría de 8 núcleos, con énfasis en eficiencia y operación de bajo consumo. En la práctica, eso sugiere que el objetivo no es “ganar en benchmarks globales” mañana, sino construir una base instalada real y un ecosistema de software que acompañe.
Tabla comparativa: tres enfoques para llevar IA al PC
| Enfoque | Qué aporta | Ventajas típicas | Límites típicos | Ideal para |
|---|---|---|---|---|
| SoC con NPU integrada (como Yangtze) | IA local dentro del propio chip | Menos latencia, menor consumo, integración total | Menos margen térmico que sobremesa; NPU y memoria pueden limitar modelos grandes | Portátiles y mini PCs con funciones de IA “siempre disponibles” |
| CPU + iGPU sin NPU potente | IA vía CPU/GPU generalista | Compatibilidad amplia; simplicidad | Peor eficiencia en IA sostenida; más carga en CPU/GPU | Uso general con IA ocasional |
| PC con GPU dedicada | IA local con gran capacidad de cómputo y VRAM | Mejor para modelos grandes y tareas pesadas | Más consumo, coste y requisitos térmicos | Desarrollo, creativos, laboratorios, inferencia local exigente |
El mensaje de fondo: el AI PC ya es un “formato” de mercado
La lectura estratégica es clara: el “AI PC” se está convirtiendo en una etiqueta comercial… pero también en una lista de requisitos técnicos (NPU, vídeo, memoria, software) que empuja a los fabricantes a mover ficha. Moore Threads, con Yangtze, busca entrar justo ahí: un SoC “todo en uno” para equipos de consumo, con aceleración de IA integrada y un diseño de plataforma listo para producto.
Si el reto de las GPU era competir contra ecosistemas muy asentados, el de los AI PC añade otra capa: hacer que todo funcione bien en el día a día (drivers, frameworks, compatibilidad de apps, rendimiento sostenido y eficiencia). La ficha ya está sobre el tablero; ahora lo decisivo será el despliegue real en equipos y, sobre todo, la adopción.
Preguntas frecuentes
¿Qué significa que una NPU tenga 50 TOPS?
Es una forma de medir capacidad de cálculo para IA (normalmente en INT8). Sirve como referencia, pero no garantiza por sí sola el rendimiento final: influyen memoria, software, tipos de modelo y eficiencia.
¿Para qué sirve un SoC “AI PC” en un portátil o mini PC?
Para ejecutar tareas de IA en local (voz, imagen, asistentes, mejoras de vídeo/audio, automatizaciones) con menor latencia y sin depender tanto de la nube, además de reducir consumo frente a hacerlo todo con CPU/GPU.
¿Por qué importa tanto la memoria (32/64 GB LPDDR5X) en IA local?
Porque muchos modelos y flujos de trabajo necesitan capacidad y ancho de banda; sin memoria suficiente, la experiencia se degrada aunque la NPU sea potente.