Huawei libera Flex:ai, su plataforma open source para exprimir los chips de IA y reducir la dependencia de NVIDIA

Huawei vuelve a mover ficha en plena guerra de chips de inteligencia artificial. La compañía china ha presentado Flex:ai, una plataforma de orquestación open source pensada para exprimir al máximo GPUs, NPUs y otros aceleradores, con la promesa de aumentar su utilización media en torno a un 30 % y acercar a China a una infraestructura de IA propia y competitiva.

El anuncio llega acompañado de un relato ambicioso: medios chinos lo enmarcan en una estrategia que incluye incluso el desarrollo de chips de IA analógicos que, sobre el papel, podrían ser hasta 1 000 veces más rápidos que las GPU de NVIDIA en determinadas tareas. Un mensaje pensado tanto para el mercado como para el terreno geopolítico.

Qué es Flex:ai y qué resuelve

Flex:ai es un software de orquestación construido sobre Kubernetes, el estándar de facto para gestionar aplicaciones contenerizadas en grandes clústeres. En vez de centrarse solo en CPUs, la plataforma actúa como una capa de gestión para GPUs, NPUs y otros aceleradores de distintos fabricantes, con dos ideas clave:

  • Agrupar y “trocear” aceleradores: una misma tarjeta puede dividirse en varias unidades de cómputo virtuales, permitiendo que múltiples cargas de trabajo de IA se ejecuten en paralelo sin desperdiciar recursos.
  • Exprimir recursos ociosos: Flex:ai es capaz de localizar procesadores infrautilizados en distintos nodos del clúster y reasignarlos dinámicamente a tareas de IA que lo necesiten.

El corazón del sistema es Hi Scheduler, un planificador inteligente que decide qué tarea corre en qué acelerador, cómo se reparte un GPU o NPU entre varios trabajos y cuándo conviene agrupar recursos para entrenar o inferir un modelo grande. Según Huawei, este enfoque permite elevar la tasa de utilización de los chips de IA alrededor de un 30 % de media, una cifra muy relevante en un momento en el que la capacidad de cómputo es cara y escasa.

Un Kubernetes “vitaminado” para la era de la IA

En la práctica, Flex:ai funciona como una extensión de Kubernetes adaptada a las necesidades de la IA moderna:

  • Entiende GPUs y NPUs como recursos de primera clase, no solo como “adjuntos” a los pods.
  • Permite ejecutar varios modelos o tareas en la misma tarjeta sin tener que reservarla por completo para un único trabajo pequeño.
  • Hace posible consolidar clústeres heterogéneos con aceleradores de diferentes proveedores, algo crítico en un contexto de sanciones y restricciones de exportación que afectan al acceso a hardware de última generación.

Para administradores de sistemas y equipos de MLOps, la promesa es clara: menos GPUs “calentando banco” y más trabajo útil por cada euro invertido en hardware.

El contexto: sanciones, chips locales y “democratización” de la IA

El lanzamiento de Flex:ai no se entiende sin el telón de fondo de la guerra tecnológica entre EE. UU. y China. Las restricciones a la exportación de las GPU más avanzadas de NVIDIA están obligando a las empresas chinas a apostar por:

  • Chips propios, como los aceleradores de la familia Ascend de Huawei.
  • Software de optimización que permita sacar más jugo al hardware disponible.

Flex:ai encaja justo en esa segunda categoría: si no puedes acceder al último chip de NVIDIA, exprime al máximo los que sí tienes. Y hazlo, además, con un enfoque open source para atraer a universidades, startups y desarrolladores que quieran construir sobre esa base. Huawei planea publicar Flex:ai a través de su comunidad de desarrolladores ModelEngine, en colaboración con universidades como Shanghai Jiao Tong, Xi’an Jiaotong o Xiamen.

La compañía ya venía reforzando esta estrategia con otras herramientas como Unified Cache Manager (UCM), pensada para optimizar el acceso a datos en diferentes niveles de memoria y reducir la dependencia de memorias de alto ancho de banda de proveedores extranjeros.

¿Y dónde encajan los chips analógicos “1 000 veces más rápidos”?

El mensaje de que China trabaja en un chip de IA analógico hasta 1 000 veces más rápido que las GPU de NVIDIA procede de investigaciones paralelas de universidades y centros de I+D chinos que exploran arquitecturas no tradicionales para acelerar redes neuronales.

En ese tablero, Flex:ai no es el chip, sino la capa de software que podría:

  • Orquestar simultáneamente GPUs digitales, NPUs y futuros chips analógicos en un mismo clúster.
  • Abstraer la complejidad de cada tipo de hardware y presentarlo como un único “pool” de cómputo a los equipos de datos.
  • Permitir que las aplicaciones de IA se beneficien de ese nuevo hardware sin necesidad de reescribir todo el stack.

Es decir, si esos chips analógicos llegan a producción y se integran en centros de datos, hará falta una plataforma que los combine de forma eficiente con el resto de aceleradores. Huawei está intentando adelantarse a ese escenario con Flex:ai.

Un rival directo para Run:AI y compañía

La propuesta recuerda inevitablemente a plataformas occidentales como Run:AI, adquirida por NVIDIA en 2024, que también ofrece orquestación avanzada de clústeres de GPU para mejorar la utilización y simplificar la vida a los equipos de MLOps.

Las similitudes son claras:

  • División lógica de GPUs en “slices” para múltiples trabajos.
  • Planificación inteligente de colas de entrenamiento e inferencia.
  • Soporte para grandes grupos de aplicaciones contenerizadas en Kubernetes.

La gran diferencia es el enfoque estratégico: mientras Run:AI se ha integrado en el ecosistema de NVIDIA, Flex:ai se presenta como una pieza central de un ecosistema soberano pensado para que China pueda seguir entrenando y sirviendo grandes modelos de IA con menor dependencia de proveedores estadounidenses.

Qué significa para empresas, centros de datos y equipos de IA

Si Huawei cumple lo que promete, Flex:ai puede tener un impacto tangible en cómo se dimensionan y operan los clústeres de IA:

  • Mejor ROI del hardware: un aumento del 30 % en la utilización de GPUs y NPUs puede traducirse en menos servidores para el mismo trabajo o más capacidad efectiva sin ampliar el presupuesto.
  • Menos colas y tiempos de espera: al trocear las tarjetas para adaptar los recursos al tamaño real de cada tarea, se reducen los cuellos de botella típicos de los entornos donde muchas cargas de trabajo pequeñas bloquean GPUs completas.
  • Más flexibilidad para I+D: los equipos pueden lanzar experimentos en paralelo sin “pisarse” entre sí, usando fracciones de GPU en lugar de reservar nodos completos.
  • Aislamiento y multitenencia: la virtualización de aceleradores facilita que distintos equipos o incluso distintos clientes compartan la misma infraestructura con garantías de aislamiento.

Para administradores de sistemas y responsables de centros de datos, la lectura es clara: el problema ya no es solo conseguir chips, sino utilizarlos de forma inteligente. La orquestación será tan estratégica como el propio silicio.

Un movimiento más en la carrera por la infraestructura de IA

Flex:ai es, en esencia, otro ladrillo en el muro que Huawei lleva años construyendo alrededor de su ecosistema de IA: chips Ascend, modelos Pangu, herramientas de compilación y ahora una capa de orquestación de clústeres que quiere competir de tú a tú con las mejores soluciones del mercado.

Queda por ver hasta qué punto la comunidad internacional adoptará el proyecto más allá de China y qué impacto real tendrán tanto el software como los futuros chips analógicos en la práctica, más allá de los titulares llamativos. Pero el mensaje de fondo es inequívoco: en la carrera por la IA, el software que gestiona el cómputo es tan estratégico como el cómputo en sí mismo, y Huawei no piensa quedarse fuera de esa batalla.

vía: scmp

encuentra artículos

newsletter

Recibe toda la actualidad del sector tech y cloud en tu email de la mano de RevistaCloud.com.

Suscripción boletín

LO ÚLTIMO

×