Durante los dos últimos años, la conversación sobre infraestructura de Inteligencia Artificial ha girado casi por completo alrededor de las GPU. NVIDIA se convirtió en el nombre inevitable, los hiperescalares compitieron por asegurar aceleradores y la memoria HBM pasó a ser un recurso estratégico. Pero la siguiente fase de la IA puede devolver parte del foco a un componente que muchos daban por secundario en esta carrera: la CPU de servidor.
La razón está en la IA agéntica. A medida que los modelos dejan de limitarse a responder preguntas y empiezan a ejecutar flujos de trabajo, llamar a herramientas, coordinar tareas, consultar bases de datos, mover información y actuar sobre aplicaciones, aumenta la necesidad de procesadores capaces de orquestar todo ese trabajo. La GPU sigue siendo esencial para entrenamiento e inferencia pesada, pero la CPU gana peso como capa de control, coordinación y ejecución general.
UBS ve un mercado de CPU mucho mayor de lo previsto
Según una nota de UBS recogida por varios medios financieros y tecnológicos, el mercado total direccionable de CPU para servidores podría pasar de unos 30.000 millones de dólares en 2025 a alrededor de 170.000 millones en 2030. Es una previsión agresiva y debe leerse como tal, pero refleja un cambio de percepción: la IA no solo consume aceleradores, también necesita más cómputo general para que esos aceleradores trabajen de forma útil.
La tesis de UBS es que las cargas agénticas podrían elevar entre tres y cinco veces el número de núcleos de CPU necesarios por usuario y por GPU. No se trata solo de alojar modelos, sino de gestionar miles o millones de pequeñas decisiones alrededor de ellos: preparar contexto, dividir tareas, ejecutar código, validar resultados, enrutar peticiones, mantener sesiones, aplicar permisos y coordinar agentes.
En ese escenario, UBS considera que Arm sería el gran beneficiado potencial, con una cuota que podría llegar al 40 % o 45 % del mercado de CPU de servidor hacia 2030. AMD aparecería como el segundo ganador natural por su posición en procesadores EPYC de muchos núcleos y alto rendimiento por vatio. Intel también se beneficiaría del crecimiento del mercado, aunque tendría que demostrar que sus próximas plataformas pueden competir en densidad, eficiencia y coste.
La lectura es incómoda para Intel porque el supuesto renacimiento de la CPU no garantiza que todos los proveedores se beneficien por igual. Si la demanda se inclina hacia más núcleos, menor consumo y diseños muy adaptables para centros de datos de IA, Arm y AMD pueden capturar una parte mayor del crecimiento. Intel, que durante décadas dominó la CPU de servidor, se enfrenta a un mercado que crece, pero también cambia de forma.
La CPU como plano de control de la IA
Intel fue una de las primeras compañías en intentar girar la narrativa. En su presentación de resultados del primer trimestre de 2026, Lip-Bu Tan afirmó que la CPU vuelve a situarse como una base esencial de la era de la IA. Según el consejero delegado de Intel, la CPU actúa como capa de orquestación y plano de control crítico para todo el stack de Inteligencia Artificial.
Esa idea encaja con lo que también está diciendo AMD. Lisa Su defendió en la última llamada de resultados que la inferencia y la IA agéntica están aumentando la demanda de CPU de alto rendimiento y aceleradores. La compañía informó de ingresos de 10.253 millones de dólares en el primer trimestre de 2026, un 38 % más interanual, con el área de centros de datos creciendo un 57 %, hasta 5.800 millones. Ese negocio ya es el principal motor de ingresos y beneficios de AMD.
La propia AMD insiste en que la nueva demanda de CPU no canibaliza necesariamente la demanda de GPU. Su lectura es que los aceleradores siguen siendo necesarios para ejecutar modelos fundacionales y cargas intensivas, mientras que los agentes generan trabajo adicional para las CPU. En configuraciones tradicionales, la CPU podía actuar como host para varias GPU, con relaciones como una CPU por cuatro u ocho aceleradores. Con muchos agentes coordinando tareas, esa relación podría acercarse a uno a uno en algunos despliegues.
La diferencia es importante. La IA generativa clásica podía entenderse como una consulta a un modelo. La IA agéntica se parece más a una cadena de acciones: interpretar una petición, consultar documentación, llamar a una API, generar código, revisar el resultado, pedir una validación, ejecutar otra herramienta y entregar una respuesta. Cada paso consume coordinación, memoria, entrada y salida, red y cómputo general.
Por qué Arm y AMD parten con ventaja
Arm lleva años creciendo en centros de datos gracias a proveedores cloud que diseñan sus propios chips o adoptan arquitecturas más eficientes. AWS Graviton fue el ejemplo más visible, pero la tendencia se ha extendido a otros entornos donde el rendimiento por vatio es tan importante como el rendimiento absoluto. En IA agéntica, esa ventaja puede pesar aún más, porque muchas tareas no necesitan una CPU monolítica con la máxima frecuencia, sino muchos núcleos eficientes trabajando de forma paralela.
Arm está posicionando sus diseños para centros de datos de IA con ese argumento: más eficiencia, despliegues flexibles y capacidad para acompañar cargas agénticas. La empresa no fabrica chips, pero licencia arquitecturas que pueden adaptarse a diseños propios de hiperescalares, fabricantes de servidores y proveedores especializados.
AMD, por su parte, tiene una posición fuerte con EPYC. Su estrategia de muchos núcleos, buen rendimiento por socket y eficiencia ha ganado terreno en servidores durante los últimos años. Además, AMD puede combinar CPU EPYC, aceleradores Instinct, redes Pensando y plataformas de rack como Helios, lo que le permite presentarse como proveedor de infraestructura de IA más completa.
Intel conserva fortalezas relevantes: base instalada, relaciones empresariales, capacidad de fabricación propia, empaquetado avanzado y una hoja de ruta de CPU como Coral Rapids. Pero necesita ejecutar bien. Si el mercado se mueve hacia más núcleos por vatio y diseños más adaptados a cargas agénticas, la marca histórica no bastará.
El PC local también entra en la ecuación
La nota de UBS introduce otro punto interesante: la IA agéntica no solo puede aumentar la demanda de CPU en servidores, sino también en PCs locales. Herramientas como Claude Code, asistentes de desarrollo, agentes personales o flujos de automatización que corren en el equipo del usuario pueden elevar las necesidades de CPU, memoria y NPU en portátiles y sobremesas.
Esto no significa que todos los usuarios vayan a necesitar estaciones de trabajo. Pero sí apunta a una bifurcación del mercado. Las tareas más pesadas seguirán en centros de datos, mientras que una parte de la IA cotidiana se ejecutará en local por privacidad, latencia o coste. En ese entorno, AMD e Intel también podrían beneficiarse, aunque competirán con Apple Silicon, Qualcomm y otros diseños basados en Arm.
La clave estará en el equilibrio entre nube y dispositivo. Los agentes más complejos necesitarán acceso a modelos grandes, datos empresariales y herramientas cloud. Pero muchos pasos intermedios, como preparación de contexto, automatización ligera, análisis local o ejecución de código, pueden beneficiarse de CPU más potentes en el propio equipo.
Una nueva arquitectura para centros de datos de IA
La consecuencia más importante es que los centros de datos de IA dejarán de medirse solo por número de GPU. La pregunta pasará a ser cuántos aceleradores, cuántas CPU, cuánta memoria, qué red, qué almacenamiento y qué software de orquestación hacen falta para sostener miles de flujos agénticos de forma fiable.
Esto cambia la economía de la infraestructura. Un clúster con muchas GPU pero insuficiente CPU puede quedarse corto en orquestación. Un sistema con CPUs eficientes pero sin aceleradores suficientes tampoco podrá ejecutar modelos pesados a escala. La ventaja estará en diseñar sistemas equilibrados, con ratios adecuados según la carga: entrenamiento, inferencia, agentes empresariales, generación de código, análisis documental o automatización operativa.
La tesis de UBS puede resultar optimista en cifras, pero señala una dirección razonable. La IA agéntica convierte el cómputo en algo más distribuido y más complejo. No elimina la necesidad de GPU; añade más capas alrededor. Y en esas capas la CPU vuelve a tener un papel central.
Para Intel, esto es una oportunidad y una amenaza. El mercado puede crecer con fuerza, pero no necesariamente bajo las reglas que le dieron su dominio histórico. Para AMD, es una ocasión de reforzar EPYC y vender una plataforma de IA más amplia. Para Arm, puede ser el momento de consolidar su entrada en el centro de datos con una propuesta basada en eficiencia y escala.
La era de la IA no será solo una guerra de aceleradores. Será una guerra de sistemas completos. Y en esa guerra, la CPU vuelve a importar mucho.
Preguntas frecuentes
¿Por qué la IA agéntica aumenta la demanda de CPU?
Porque los agentes no solo generan respuestas. También coordinan tareas, llaman a herramientas, mueven datos, ejecutan procesos, aplican permisos y gestionan flujos paralelos. Todo eso requiere cómputo general además de GPU.
¿Las CPU van a sustituir a las GPU en IA?
No. Las GPU seguirán siendo esenciales para entrenamiento e inferencia intensiva. La tesis es que las CPU crecerán como complemento necesario para orquestar y ejecutar cargas agénticas.
¿Por qué Arm podría beneficiarse más que Intel?
Porque muchas cargas agénticas pueden valorar más el número de núcleos y la eficiencia energética que la potencia máxima por núcleo. Ahí los diseños basados en Arm pueden resultar atractivos para hiperescalares y servidores de IA.
¿Qué papel tiene AMD en este cambio?
AMD puede beneficiarse por sus procesadores EPYC de muchos núcleos y por su estrategia de infraestructura completa con CPU, GPU Instinct, redes y plataformas de rack para IA.