La IA agéntica devuelve peso a las CPU y cambia el equilibrio con las GPU

Durante los últimos años, la conversación sobre infraestructura para Inteligencia Artificial parecía resuelta: las GPU mandaban y las CPU quedaban relegadas a un papel secundario. Pero ese reparto empieza a cambiar. TrendForce sostiene que la llegada de la IA agéntica —modelos capaces de planificar tareas, llamar herramientas, coordinar subagentes y ejecutar acciones— está alterando de forma estructural el diseño de los centros de datos y devolviendo protagonismo a las CPU.

La señal más visible llegó en marzo, cuando NVIDIA empezó a vender su Vera CPU como producto independiente y Arm presentó su primer procesador propio para centros de datos, el Arm AGI CPU. Que una empresa conocida por sus GPU y otra famosa por licenciar arquitectura hayan entrado en el mercado de CPU para servidores en el mismo momento no parece casualidad: responde a un cambio en la demanda real de los centros de datos de Inteligencia Artificial.

En los despliegues de modelos tradicionales, TrendForce sitúa la relación CPU:GPU en un rango aproximado de 1:4 a 1:8. En la era de los agentes, esa proporción podría moverse hacia 1:1 o 1:2, porque la CPU vuelve a cargar con tareas críticas de orquestación, control, evaluación y movimiento de datos. Arm, de hecho, estima que la demanda podría pasar de unos 30 millones de núcleos CPU por gigavatio en centros de datos de IA tradicionales a unos 120 millones en escenarios dominados por agentes.

Por qué la IA agéntica necesita más CPU

La clave está en el tipo de trabajo. La GPU sigue siendo imbatible para la computación masivamente paralela y para el cálculo matricial que alimenta el entrenamiento y la inferencia de modelos. Pero la IA agéntica no solo genera tokens: también descompone tareas, coordina pasos, lanza llamadas a herramientas, consulta bases de datos, interpreta código, rastrea webs y decide si la petición original ya se ha cumplido. Ese “control de tráfico” recae sobre la CPU.

TrendForce recoge además que, en este tipo de cargas, los cuellos de botella ya no dependen únicamente del acelerador. En IA agéntica aparecen límites por latencia, throughput y consumo energético ligados al procesador generalista. Según el análisis citado por la consultora, el procesamiento de herramientas sobre CPU puede llegar a representar hasta el 90,6 % de la latencia total en ciertos flujos, y el consumo dinámico de la CPU puede alcanzar el 44 % del gasto energético dinámico total con grandes lotes de trabajo.

La siguiente tabla resume, de forma sencilla, cómo se reparten hoy los papeles entre CPU y GPU en entornos de Inteligencia Artificial, a partir del esquema publicado por TrendForce.

Comparativa claveCPUGPU
Principio de cálculoLógica compleja y procesamiento secuencialComputación paralela simple
Número de núcleosBajo, de decenas a cientosAlto, de miles a decenas de miles
Tipo de memoria habitualDRAMHBM
Papel en IAPreprocesado de datos, planificación y orquestaciónCálculo del modelo y generación masiva
Fabricantes destacadosIntel, AMD, AmpereNVIDIA, AMD, Intel

El mercado ya se está reposicionando

Ese cambio de equilibrio ya se deja ver en la oferta. NVIDIA Vera integra 88 núcleos Olympus y 176 hilos, además de NVLink-C2C con 1,8 TB/s de ancho de banda coherente entre CPU y GPU y hasta 1,2 TB/s de ancho de banda de memoria. La propia NVIDIA presenta Vera como una CPU pensada para aprendizaje por refuerzo, gestión de caché KV y flujos de agentes con gran movimiento de datos.

Por su parte, Arm AGI CPU llega con hasta 136 núcleos Arm Neoverse V3, 300 W de TDP y una propuesta claramente orientada a infraestructura de agentes, control de aceleradores y servicios cloud. Arm lo presenta como la base para centros de datos agénticos y asegura que ya cuenta con socios como Meta, Cloudflare, OpenAI, SAP y SK Telecom.

Los grandes proveedores cloud también llevan tiempo moviéndose. AWS Graviton5 se anunció con 192 núcleos por chip; Microsoft Cobalt 200 con 132 núcleos activos; y Google Axion N4A se comercializa en instancias con hasta 64 vCPU, donde cada vCPU equivale a un núcleo físico al no usar SMT. Todo ello confirma que el mercado de CPU para centros de datos ya no es solo territorio de Intel y AMD.

TrendForce, además, sitúa para 2026 una ofensiva aún más amplia. En su comparativa de núcleos e hilos aparecen AMD EPYC Venice con 256 núcleos y 512 hilos, Intel Xeon 6+ con 288/288, Intel Xeon 7 con 256/256 y AmpereOne MX también con 256/256. En estos casos conviene matizar que se trata de la hoja de ruta y de las previsiones comparativas manejadas por la consultora para 2026, no de una fotografía cerrada de producto ya desplegado en todos los casos.

La siguiente tabla combina datos oficiales ya anunciados con la comparativa 2026 publicada por TrendForce para mostrar cómo se está ensanchando el mercado de CPU orientada a IA y centros de datos.

CPU destacada en 2026NúcleosHilosSituación
NVIDIA Vera88176Anunciada oficialmente
Arm AGI CPU136136Anunciada oficialmente
AWS Graviton5192192Anunciada oficialmente
Microsoft Cobalt 200132132Anunciada oficialmente
Google Axion N4A6464Disponible en instancias N4A
AMD EPYC Venice256512Comparativa/previsión de TrendForce
Intel Xeon 6+288288Comparativa/previsión de TrendForce
Intel Xeon 7256256Comparativa/previsión de TrendForce
AmpereOne MX256256Comparativa/previsión de TrendForce

No es el fin de la GPU, sino un reparto distinto

Nada de esto significa que la GPU pierda su papel central. De hecho, TrendForce insiste en que los aceleradores seguirán siendo la pieza principal para el cálculo intensivo del modelo. Lo que cambia es el reparto del sistema: en vez de una arquitectura donde casi todo el valor se concentraba en el acelerador, la IA agéntica obliga a reforzar el plano de control y la capa de orquestación.

Eso ayuda a explicar por qué NVIDIA quiere vender Vera por separado, por qué Arm ha dado el salto desde la licencia al chip propio y por qué AWS, Microsoft y Google siguen empujando sus CPU internas. La próxima gran batalla del centro de datos no será solo por quién tiene la GPU más rápida, sino por quién ofrece el mejor equilibrio entre cómputo paralelo, orquestación, latencia, ancho de banda y eficiencia energética. Y en ese tablero, la CPU vuelve a ser una pieza estratégica.

Preguntas frecuentes

¿Por qué la IA agéntica necesita más CPU que un LLM tradicional?
Porque no solo genera texto o respuestas: también coordina tareas, llama herramientas, mueve datos entre subagentes y evalúa resultados. Esa capa de orquestación recae sobre la CPU.

¿Qué relación CPU:GPU se usa hoy y cuál se espera en IA agéntica?
TrendForce sitúa el ratio actual en torno a 1:4 a 1:8 en centros de datos de IA tradicionales y prevé un cambio hacia 1:1 o 1:2 en la era de los agentes.

¿La GPU dejará de ser la pieza principal en Inteligencia Artificial?
No. La GPU seguirá siendo clave para el cálculo masivamente paralelo y la generación de tokens, pero la CPU gana peso porque la IA agéntica exige más control, planificación y movimiento de datos.

¿Qué fabricantes están mejor posicionados en esta nueva fase?
Intel y AMD siguen siendo actores clave, pero el mercado se está abriendo con propuestas de NVIDIA, Arm y de los grandes proveedores cloud como AWS, Microsoft y Google.

vía: insights.trendforce

encuentra artículos

newsletter

Recibe toda la actualidad del sector tech y cloud en tu email de la mano de RevistaCloud.com.

Suscripción boletín

LO ÚLTIMO

Las últimas novedades de tecnología y cloud

Suscríbete gratis al boletín de Revista Cloud. Cada semana la actualidad en tu buzón.

Suscripción boletín
×