Arm reivindica el “cerebro” del centro de datos de IA: el CPU vuelve al centro del tablero con NVIDIA Rubin

Durante años, el relato de la infraestructura de inteligencia artificial parecía tener un único protagonista: la GPU. Pero Arm está empujando una idea distinta (y, para muchos, inevitable): la única forma de escalar la IA de verdad es el diseño de sistema completo, donde el CPU —y cada vez más también el DPU— se convierte en el pegamento que hace que los aceleradores entreguen valor real.

Ese argumento lo utiliza Arm para leer el anuncio de NVIDIA Rubin en CES 2026 como una validación de fondo: la industria está girando hacia racks y superclústeres “co-diseñados” (compute, red, almacenamiento y seguridad concebidos como un único producto) y, en ese salto, los CPUs basados en Arm ganan peso como capa de orquestación, coordinación y control.

Del “más GPUs” al “centro de datos convergente”

Arm resume el cambio con una frase contundente: los aceleradores hacen las cuentas, pero son los CPUs los que convierten esa potencia en sistemas utilizables, gestionando movimiento de datos, sincronización, aislamiento y fiabilidad a escala. En un mundo de modelos más grandes y, sobre todo, más “agénticos” (IA que planifica, razona y actúa encadenando herramientas), el cuello de botella ya no es solo FLOPs: es alimentar, coordinar y proteger la fábrica de IA.

Ahí encaja el concepto de “centro de datos convergente de IA”: infraestructuras densas, modulares y altamente integradas que maximizan computación por metro cuadrado y, a la vez, intentan contener el coste energético y operativo.

Rubin: seis chips, un “superordenador” en formato plataforma

NVIDIA presenta Rubin como una plataforma de “extreme codesign” (co-diseño extremo) entre seis piezas: Vera CPU, Rubin GPU, NVLink 6 Switch, ConnectX-9 SuperNIC, BlueField-4 DPU y Spectrum-6 Ethernet Switch. El objetivo no es solo más rendimiento, sino reducir tiempos y costes en entrenamiento e inferencia cuando se escala a nivel de rack.

En su resumen, NVIDIA habla de:

  • Hasta 10× menos coste por token en inferencia frente a Blackwell.
  • Hasta 4× menos GPUs para entrenar modelos Mixture-of-Experts (MoE) comparado con la generación anterior.
  • Un empuje adicional con Ethernet Photonics en Spectrum-X para mejorar eficiencia energética y disponibilidad.

Además, el anuncio enlaza ya con despliegues concretos: desde “Fairwater AI superfactories” de Microsoft (basadas en sistemas NVL72 de Vera Rubin) hasta la intención de proveedores como CoreWeave de estar entre los primeros en llevar Rubin a producción.

El giro clave: el DPU como “servidor de infraestructura” (y el almacenamiento como arma competitiva)

Un punto interesante del enfoque de Arm es que no se limita al CPU host. Subraya el salto de BlueField-4: más que una tarjeta de red “lista”, se comporta como un procesador de infraestructura capaz de descargar funciones críticas del host.

NVIDIA, por su parte, ha puesto nombre a esta idea con una plataforma específica de almacenamiento para IA: NVIDIA AI Inference Context Memory (AICON), concebida para aumentar tokens/segundo y eficiencia energética, y apoyada en BlueField-4 como elemento central.

La lectura implícita es clara: si los modelos de razonamiento y agentes dependen de contexto y memoria, la frontera entre “compute” y “data” se difumina. El almacenamiento deja de ser un periférico y pasa a ser parte del rendimiento final.

AWS también apunta al mismo patrón con Trainium3: integración para bajar el coste por unidad útil

Arm refuerza su tesis citando el caso de AWS Trainium3: un sistema donde acelerador, CPU (Graviton) y componentes de infraestructura (Nitro) se conciben como un conjunto.

AWS afirma que Trainium3 ofrece:

  • Hasta 4,4× más potencia de cómputo y hasta 4× más eficiencia energética que Trainium2.
  • 128 GB de HBM3e por chip y casi más ancho de banda de memoria.
  • Configuraciones a escala de “UltraServer” con decenas de chips y una agregación masiva de memoria HBM.

De nuevo: el mensaje no es “otro acelerador”, sino plataformas cerradas sobre sí mismas donde cada capa reduce fricción, latencia y desperdicio energético.


Tabla comparativa rápida: dos caminos hacia el “sistema completo”

PlataformaFilosofíaPiezas claveEnfoque de escaladoPromesa principal
NVIDIA RubinCo-diseño extremo (6 chips como “un sistema”)Vera CPU, Rubin GPU, NVLink 6, ConnectX-9, BlueField-4, Spectrum-6Rack-scale (NVL72) y superclústeresMenor coste por token y menos GPUs para MoE
AWS Trainium3Silicio propio + integración vertical (compute + CPU + infraestructura)Trainium3 + Graviton + NitroUltraServers y despliegue en AWSMás rendimiento y eficiencia energética por generación

Lo que esto significa para el mercado

  1. El CPU deja de ser “secundario” en IA: orquestación, seguridad y movimiento de datos se convierten en el factor limitante en racks densos.
  2. La infraestructura se “productiza”: cada vez más, comprar IA a escala será comprar plataformas completas, no piezas sueltas.
  3. Red y almacenamiento entran en la carrera: DPUs, NICs y “context memory” pasan a ser diferenciales reales para agentes y razonamiento.

Preguntas frecuentes

¿Qué es un “centro de datos convergente” de IA?
Un enfoque donde compute, red, almacenamiento y seguridad se diseñan para funcionar como un único sistema, optimizado para escalar IA con eficiencia energética y control operativo.

¿Por qué Arm insiste en que el CPU es clave si la GPU hace el trabajo pesado?
Porque a gran escala lo difícil no es solo calcular, sino coordinar miles de GPUs: alimentar datos, sincronizar trabajos, aislar entornos, observar fallos y mantener el sistema estable.

¿Qué papel juega un DPU como BlueField-4 en IA?
Actúa como “procesador de infraestructura”: descarga tareas de red/seguridad/almacenamiento del host para liberar recursos y mejorar aislamiento y eficiencia en clústeres muy grandes.

¿Qué cambia con Rubin frente a generaciones anteriores?
La apuesta por una plataforma de seis chips co-diseñados que busca reducir costes de inferencia y acelerar entrenamiento, además de integrar nuevas capas para agentes y razonamiento.

vía: newsroom.arm

encuentra artículos

newsletter

Recibe toda la actualidad del sector tech y cloud en tu email de la mano de RevistaCloud.com.

Suscripción boletín

LO ÚLTIMO

Las últimas novedades de tecnología y cloud

Suscríbete gratis al boletín de Revista Cloud. Cada semana la actualidad en tu buzón.

Suscripción boletín
×