Durante los últimos años, la conversación sobre infraestructura para Inteligencia Artificial parecía resuelta: las GPU mandaban y las CPU quedaban relegadas a un papel secundario. Pero ese reparto empieza a cambiar. TrendForce sostiene que la llegada de la IA agéntica —modelos capaces de planificar tareas, llamar herramientas, coordinar subagentes y ejecutar acciones— está alterando de forma estructural el diseño de los centros de datos y devolviendo protagonismo a las CPU.
La señal más visible llegó en marzo, cuando NVIDIA empezó a vender su Vera CPU como producto independiente y Arm presentó su primer procesador propio para centros de datos, el Arm AGI CPU. Que una empresa conocida por sus GPU y otra famosa por licenciar arquitectura hayan entrado en el mercado de CPU para servidores en el mismo momento no parece casualidad: responde a un cambio en la demanda real de los centros de datos de Inteligencia Artificial.
En los despliegues de modelos tradicionales, TrendForce sitúa la relación CPU:GPU en un rango aproximado de 1:4 a 1:8. En la era de los agentes, esa proporción podría moverse hacia 1:1 o 1:2, porque la CPU vuelve a cargar con tareas críticas de orquestación, control, evaluación y movimiento de datos. Arm, de hecho, estima que la demanda podría pasar de unos 30 millones de núcleos CPU por gigavatio en centros de datos de IA tradicionales a unos 120 millones en escenarios dominados por agentes.
Por qué la IA agéntica necesita más CPU
La clave está en el tipo de trabajo. La GPU sigue siendo imbatible para la computación masivamente paralela y para el cálculo matricial que alimenta el entrenamiento y la inferencia de modelos. Pero la IA agéntica no solo genera tokens: también descompone tareas, coordina pasos, lanza llamadas a herramientas, consulta bases de datos, interpreta código, rastrea webs y decide si la petición original ya se ha cumplido. Ese “control de tráfico” recae sobre la CPU.
TrendForce recoge además que, en este tipo de cargas, los cuellos de botella ya no dependen únicamente del acelerador. En IA agéntica aparecen límites por latencia, throughput y consumo energético ligados al procesador generalista. Según el análisis citado por la consultora, el procesamiento de herramientas sobre CPU puede llegar a representar hasta el 90,6 % de la latencia total en ciertos flujos, y el consumo dinámico de la CPU puede alcanzar el 44 % del gasto energético dinámico total con grandes lotes de trabajo.
La siguiente tabla resume, de forma sencilla, cómo se reparten hoy los papeles entre CPU y GPU en entornos de Inteligencia Artificial, a partir del esquema publicado por TrendForce.
| Comparativa clave | CPU | GPU |
|---|---|---|
| Principio de cálculo | Lógica compleja y procesamiento secuencial | Computación paralela simple |
| Número de núcleos | Bajo, de decenas a cientos | Alto, de miles a decenas de miles |
| Tipo de memoria habitual | DRAM | HBM |
| Papel en IA | Preprocesado de datos, planificación y orquestación | Cálculo del modelo y generación masiva |
| Fabricantes destacados | Intel, AMD, Ampere | NVIDIA, AMD, Intel |
El mercado ya se está reposicionando
Ese cambio de equilibrio ya se deja ver en la oferta. NVIDIA Vera integra 88 núcleos Olympus y 176 hilos, además de NVLink-C2C con 1,8 TB/s de ancho de banda coherente entre CPU y GPU y hasta 1,2 TB/s de ancho de banda de memoria. La propia NVIDIA presenta Vera como una CPU pensada para aprendizaje por refuerzo, gestión de caché KV y flujos de agentes con gran movimiento de datos.
Por su parte, Arm AGI CPU llega con hasta 136 núcleos Arm Neoverse V3, 300 W de TDP y una propuesta claramente orientada a infraestructura de agentes, control de aceleradores y servicios cloud. Arm lo presenta como la base para centros de datos agénticos y asegura que ya cuenta con socios como Meta, Cloudflare, OpenAI, SAP y SK Telecom.
Los grandes proveedores cloud también llevan tiempo moviéndose. AWS Graviton5 se anunció con 192 núcleos por chip; Microsoft Cobalt 200 con 132 núcleos activos; y Google Axion N4A se comercializa en instancias con hasta 64 vCPU, donde cada vCPU equivale a un núcleo físico al no usar SMT. Todo ello confirma que el mercado de CPU para centros de datos ya no es solo territorio de Intel y AMD.
TrendForce, además, sitúa para 2026 una ofensiva aún más amplia. En su comparativa de núcleos e hilos aparecen AMD EPYC Venice con 256 núcleos y 512 hilos, Intel Xeon 6+ con 288/288, Intel Xeon 7 con 256/256 y AmpereOne MX también con 256/256. En estos casos conviene matizar que se trata de la hoja de ruta y de las previsiones comparativas manejadas por la consultora para 2026, no de una fotografía cerrada de producto ya desplegado en todos los casos.
La siguiente tabla combina datos oficiales ya anunciados con la comparativa 2026 publicada por TrendForce para mostrar cómo se está ensanchando el mercado de CPU orientada a IA y centros de datos.
| CPU destacada en 2026 | Núcleos | Hilos | Situación |
|---|---|---|---|
| NVIDIA Vera | 88 | 176 | Anunciada oficialmente |
| Arm AGI CPU | 136 | 136 | Anunciada oficialmente |
| AWS Graviton5 | 192 | 192 | Anunciada oficialmente |
| Microsoft Cobalt 200 | 132 | 132 | Anunciada oficialmente |
| Google Axion N4A | 64 | 64 | Disponible en instancias N4A |
| AMD EPYC Venice | 256 | 512 | Comparativa/previsión de TrendForce |
| Intel Xeon 6+ | 288 | 288 | Comparativa/previsión de TrendForce |
| Intel Xeon 7 | 256 | 256 | Comparativa/previsión de TrendForce |
| AmpereOne MX | 256 | 256 | Comparativa/previsión de TrendForce |
No es el fin de la GPU, sino un reparto distinto
Nada de esto significa que la GPU pierda su papel central. De hecho, TrendForce insiste en que los aceleradores seguirán siendo la pieza principal para el cálculo intensivo del modelo. Lo que cambia es el reparto del sistema: en vez de una arquitectura donde casi todo el valor se concentraba en el acelerador, la IA agéntica obliga a reforzar el plano de control y la capa de orquestación.
Eso ayuda a explicar por qué NVIDIA quiere vender Vera por separado, por qué Arm ha dado el salto desde la licencia al chip propio y por qué AWS, Microsoft y Google siguen empujando sus CPU internas. La próxima gran batalla del centro de datos no será solo por quién tiene la GPU más rápida, sino por quién ofrece el mejor equilibrio entre cómputo paralelo, orquestación, latencia, ancho de banda y eficiencia energética. Y en ese tablero, la CPU vuelve a ser una pieza estratégica.
Preguntas frecuentes
¿Por qué la IA agéntica necesita más CPU que un LLM tradicional?
Porque no solo genera texto o respuestas: también coordina tareas, llama herramientas, mueve datos entre subagentes y evalúa resultados. Esa capa de orquestación recae sobre la CPU.
¿Qué relación CPU:GPU se usa hoy y cuál se espera en IA agéntica?
TrendForce sitúa el ratio actual en torno a 1:4 a 1:8 en centros de datos de IA tradicionales y prevé un cambio hacia 1:1 o 1:2 en la era de los agentes.
¿La GPU dejará de ser la pieza principal en Inteligencia Artificial?
No. La GPU seguirá siendo clave para el cálculo masivamente paralelo y la generación de tokens, pero la CPU gana peso porque la IA agéntica exige más control, planificación y movimiento de datos.
¿Qué fabricantes están mejor posicionados en esta nueva fase?
Intel y AMD siguen siendo actores clave, pero el mercado se está abriendo con propuestas de NVIDIA, Arm y de los grandes proveedores cloud como AWS, Microsoft y Google.
vía: insights.trendforce