AMD ha querido zanjar uno de los debates más repetidos en la infraestructura de Inteligencia Artificial: si el crecimiento de la IA agéntica y de la inferencia puede desplazar parte del gasto desde las GPU hacia las CPU. Lisa Su, consejera delegada de la compañía, defendió durante la presentación de resultados del primer trimestre de 2026 que esa demanda adicional de procesadores es “en gran medida aditiva” al mercado de aceleradores, no una sustitución directa.
La explicación de fondo es sencilla. Los grandes modelos siguen necesitando GPU y aceleradores para entrenamiento, inferencia pesada y ejecución eficiente a gran escala. Pero los agentes de IA añaden otra capa de trabajo: coordinación, movimiento de datos, ejecución paralela de tareas, llamadas a herramientas, gestión de memoria, preparación de contexto y control de flujos. Todo eso aumenta el papel de las CPU dentro de los centros de datos.
La CPU vuelve al centro del debate de la IA
Durante los dos últimos años, la conversación sobre infraestructura de IA ha estado dominada por las GPU. NVIDIA ha marcado el ritmo del mercado y los grandes hiperescalares han competido por asegurar aceleradores, memoria HBM, redes de alta velocidad y capacidad eléctrica. Pero la inferencia y los agentes están cambiando la composición de esos sistemas.
Lisa Su explicó que la IA agéntica está aumentando la necesidad de cómputo CPU en servidores porque estas cargas requieren más procesamiento para orquestación, movimiento de datos y ejecución paralela, además de usar CPU como nodos de control para GPU y aceleradores. AMD ya refleja esa tendencia en sus resultados: el segmento de centros de datos alcanzó 5.800 millones de dólares en el primer trimestre, un 57 % más interanual, impulsado por la demanda de procesadores EPYC y el aumento de envíos de GPU Instinct.
Esta lectura ayuda a entender por qué AMD ha revisado al alza su visión del mercado de CPU para servidores. Según Reuters, la compañía espera ahora que el mercado direccionable de CPU para servidor crezca más del 35 % anual hasta superar los 120.000 millones de dólares en 2030, frente al crecimiento anual del 18 % que había estimado en noviembre.
La tesis no es que los centros de datos vayan a comprar menos aceleradores. La tesis de AMD es que comprarán más de todo, pero con una proporción distinta. En configuraciones clásicas de IA, la CPU podía actuar sobre todo como host node, con ratios aproximados de una CPU por cuatro u ocho GPU. En escenarios con muchos agentes, Su sugirió que esa relación puede acercarse a uno a uno e incluso, en determinados despliegues, inclinarse hacia más CPU que GPU.
Esto es importante porque sitúa a AMD en una posición menos dependiente de ganar solo la batalla de los aceleradores. La compañía compite en GPU con Instinct, pero también tiene una franquicia sólida en servidores con EPYC. Si la IA agéntica obliga a repensar el equilibrio CPU-GPU, AMD puede beneficiarse por las dos vías.
MI450, Helios y la apuesta por inferencia a gran escala
La parte GPU sigue siendo esencial. AMD confirmó que ha empezado a enviar muestras de sus Instinct MI450 a clientes líderes y que mantiene el calendario para iniciar los envíos de producción de Helios en la segunda mitad de 2026. La compañía afirma que las previsiones de clientes ya superan sus planes iniciales y que hay más conversaciones para despliegues de gran escala, incluidas oportunidades de varios gigavatios.
MI450 y Helios son piezas clave en la estrategia de AMD para competir con NVIDIA en infraestructura de IA de rack completo. Ya no basta con vender chips sueltos: los grandes clientes quieren soluciones integradas con aceleradores, CPU, memoria, red, refrigeración y software. Ahí AMD intenta presentar una alternativa abierta y basada en estándares, con EPYC, Instinct, Pensando y ROCm como componentes principales.
La compañía ya había detallado que cada GPU MI450 puede alcanzar hasta 432 GB de memoria HBM4 y 19,6 TB/s de ancho de banda de memoria. A escala de rack, un sistema Helios con 72 GPU MI450 ofrecería hasta 1,4 exaFLOPS en FP8 y 2,9 exaFLOPS en FP4, con 31 TB de HBM4 agregada.
La inferencia aparece como el campo más prometedor. Según la información recogida de la llamada, AMD ve despliegues de MI450 tanto para entrenamiento como para inferencia, pero los mayores proyectos estarían orientados a inferencia. Tiene lógica: una vez entrenados los modelos, servir respuestas a millones de usuarios, agentes y aplicaciones empresariales se convierte en una carga permanente y creciente. Ahí importan la memoria, el coste por token, el consumo, la red y la capacidad de escalar de forma estable.
El siguiente paso ya aparece en el horizonte. Lisa Su también señaló que muchos clientes están hablando con AMD sobre la futura serie MI500, lo que indica que la hoja de ruta de aceleradores se negocia cada vez con más antelación. En IA, los grandes compradores no planifican trimestre a trimestre; reservan capacidad eléctrica, racks, memoria, packaging y nodos de fabricación con años de margen.
Resultados fuertes y una guía por encima de lo previsto
Los resultados financieros dan contexto a ese optimismo. AMD ingresó 10.253 millones de dólares en el primer trimestre de 2026, un 38 % más que un año antes. El beneficio neto GAAP fue de 1.383 millones y el beneficio por acción diluido, de 0,84 dólares. En términos non-GAAP, el beneficio por acción fue de 1,37 dólares, con un margen bruto del 55 %.
El flujo de caja libre alcanzó 2.566 millones de dólares, frente a 727 millones en el mismo trimestre del año anterior, con un margen de flujo de caja libre del 25 %. La compañía terminó el trimestre con 12.347 millones en efectivo, equivalentes e inversiones a corto plazo.
| Métrica Q1 2026 | Resultado |
|---|---|
| Ingresos | 10.253 millones de dólares |
| Crecimiento interanual | +38 % |
| Ingresos Data Center | 5.800 millones de dólares |
| Crecimiento Data Center | +57 % |
| Beneficio neto GAAP | 1.383 millones de dólares |
| BPA non-GAAP | 1,37 dólares |
| Margen bruto non-GAAP | 55 % |
| Flujo de caja libre | 2.566 millones de dólares |
| Caja e inversiones a corto plazo | 12.347 millones de dólares |
Para el segundo trimestre, AMD espera ingresos de unos 11.200 millones de dólares, con un margen de 300 millones arriba o abajo. El punto medio supone un crecimiento interanual cercano al 46 % y una mejora secuencial aproximada del 9 %. La compañía también prevé un margen bruto non-GAAP alrededor del 56 %.
El mercado recibió bien la guía. Reuters informó de una subida cercana al 12 % en negociación extendida tras los resultados, apoyada por la demanda de chips de centros de datos y por unas previsiones superiores a las esperadas.
El nuevo equilibrio: más GPU, pero también más CPU
La discusión más interesante no está solo en el trimestre, sino en la arquitectura de los próximos centros de datos. La IA agéntica no funciona como una consulta simple a un modelo. Un agente puede dividir una tarea, llamar a una base de datos, consultar una API, generar código, comprobar un resultado, volver a pedir contexto, ejecutar otra herramienta y coordinarse con otros agentes. Cada una de esas acciones añade trabajo alrededor del acelerador.
En ese entorno, la GPU sigue siendo el corazón del cálculo intensivo, pero la CPU gana peso como coordinadora y procesadora general. También aumentan las necesidades de red, memoria, almacenamiento y software de orquestación. La infraestructura se vuelve más parecida a una fábrica de tareas distribuidas que a un único motor de inferencia.
Por eso Lisa Su insiste en que la demanda CPU no canibaliza el mercado GPU. Si los agentes multiplican las tareas útiles que pueden automatizarse, el resultado puede ser más gasto total en infraestructura. Es una versión práctica de la paradoja de Jevons aplicada a la IA: cuando baja el coste de usar una tecnología, aumenta el número de usos posibles y el consumo total puede crecer.
Para AMD, esta narrativa es muy favorable. Le permite presentarse no solo como alternativa a NVIDIA en aceleradores, sino como proveedor completo de infraestructura de IA: CPU EPYC para servidores y nodos de control, GPU Instinct para entrenamiento e inferencia, redes Pensando, software ROCm y plataformas de rack como Helios.
El riesgo está en la ejecución. NVIDIA sigue teniendo una ventaja clara en software, ecosistema, adopción y disponibilidad de soluciones completas. AMD necesita entregar MI450 a tiempo, asegurar memoria HBM4, mejorar ROCm, convencer a más clientes y convertir el interés inicial en despliegues reales. También depende de TSMC y de una cadena de suministro tensionada por la misma demanda de IA que está impulsando sus cifras.
Intel añade otra capa de competencia. La revalorización reciente de la CPU en IA también beneficia a su rival histórico, que busca aprovechar su capacidad de fabricación propia y recuperar terreno en servidores. Reuters señala que Intel está acelerando su producción interna mientras AMD sigue apoyándose en fabricantes externos como TSMC, una diferencia relevante en un mercado donde la capacidad de fabricación es tan estratégica como el diseño del chip.
Aun así, el mensaje de AMD es claro: la próxima etapa de la IA no será solo una carrera de GPU. Será una carrera de sistemas completos. La inferencia y los agentes obligan a equilibrar aceleradores, CPU, memoria, red y software. Si esa lectura se confirma, AMD puede tener más vías de crecimiento de las que el mercado asociaba tradicionalmente a su negocio de centros de datos.
Preguntas frecuentes
¿Qué ha dicho Lisa Su sobre la IA agéntica?
Lisa Su ha defendido que la IA agéntica aumenta la demanda de CPU para orquestación, movimiento de datos, ejecución paralela y nodos de control, pero que esa demanda es en gran medida adicional al mercado de GPU.
¿La demanda de CPU puede reducir las ventas de GPU?
AMD sostiene que no de forma relevante. Según su lectura, los aceleradores siguen siendo necesarios para los modelos, mientras que los agentes generan más trabajo adicional para CPU y sistemas de apoyo.
¿Qué son AMD MI450 y Helios?
MI450 es la próxima generación de GPU Instinct para IA, y Helios es la plataforma de rack de AMD que integra GPU, CPU EPYC, red y software para grandes despliegues de entrenamiento e inferencia.
¿Cuándo llegarán los envíos de producción de MI450?
AMD afirma que ya ha empezado a enviar muestras a clientes líderes y que los envíos de producción de Helios están previstos para la segunda mitad de 2026.