ARM apunta a CPUs de 512 núcleos para la era de la IA en centros de datos

ARM quiere que la conversación sobre inteligencia artificial deje de girar solo alrededor de las GPU. La compañía británica, conocida durante décadas por licenciar arquitecturas eficientes para móviles, dispositivos embebidos y chips personalizados, está elevando el tono en centros de datos con una idea muy concreta: la próxima gran batalla no se medirá solo por número de procesadores vendidos, sino por núcleos CPU desplegados para coordinar, alimentar y gestionar sistemas de IA cada vez más complejos.

Rene Haas, consejero delegado de Arm, ha defendido en la última conferencia de resultados de la compañía que el crecimiento de la IA agéntica multiplicará la necesidad de CPU en los centros de datos. Según su tesis, los agentes de IA no solo ejecutan una consulta puntual, sino que orquestan tareas, mueven datos, gestionan memoria, coordinan aceleradores y lanzan procesos en paralelo. En ese contexto, Arm ve posible un futuro cercano con chips de 256 e incluso 512 núcleos, una cifra que hace pocos años habría sonado más propia de supercomputación que de infraestructura comercial.

La CPU vuelve al centro de la IA

El mensaje de Arm llega en un momento en el que el mercado empieza a corregir una idea demasiado simplificada: la infraestructura de IA no vive solo de GPU. Las GPU y aceleradores especializados siguen siendo la parte más visible, sobre todo para entrenamiento e inferencia masiva, pero necesitan CPU alrededor. Esas CPU actúan como nodos de control, coordinan flujos de trabajo, preparan datos, gestionan red, seguridad, memoria, almacenamiento y planificación de tareas.

Arm sostiene que los centros de datos necesitarán más de cuatro veces la capacidad CPU actual a medida que escalen los agentes de IA. La compañía calcula que ese cambio puede abrir una oportunidad de mercado de más de 100.000 millones de dólares en CPU para centros de datos en 2030. AMD, por su parte, ha elevado su propia previsión del mercado de CPU servidor hasta más de 120.000 millones de dólares para ese mismo año, con una tasa de crecimiento anual superior al 35 % impulsada por la demanda de infraestructura de IA.

La cifra de 500 núcleos no aparece como un producto cerrado con fecha y nombre comercial, sino como un horizonte técnico planteado por Haas. En la llamada con analistas, el directivo mencionó que la Arm AGI CPU ya cuenta con 136 núcleos, frente a los 88 núcleos de NVIDIA Vera, y dijo que podía imaginar diseños de 256 o 512 núcleos en los próximos años. La clave, según Arm, no está solo en aumentar el número bruto, sino en hacerlo con eficiencia por núcleo.

Esa precisión importa. Hablar de una “CPU de 500 núcleos” puede sonar espectacular, pero no estamos ante el anuncio formal de un chip concreto para 2030. Estamos ante una señal estratégica: Arm cree que el mercado de IA demandará procesadores generalistas de muchísimos núcleos y que su arquitectura tiene ventaja cuando se trata de escalar eficiencia, densidad y consumo.

Arm contra x86: menos dependencia y más personalización

La batalla de fondo es contra el dominio histórico de x86 en servidores, un terreno controlado durante décadas por Intel y, cada vez con más fuerza, por AMD. Arm no compite solo con rendimiento. Compite con un modelo de arquitectura licenciataria que permite a grandes clientes diseñar chips propios o adoptar soluciones adaptadas a cargas muy concretas.

Ahí entran los hiperescalares. AWS lleva años desarrollando Graviton. Google ha presentado Axion. Microsoft trabaja con Cobalt. NVIDIA usa CPU Arm en Vera. Según Arm, Amazon, Google y NVIDIA ya integran CPU basadas en Arm junto a sus plataformas de aceleración para IA. La lectura es clara: los grandes operadores cloud no quieren depender únicamente de Intel y AMD para todas las capas de cómputo.

Esto no significa que x86 vaya a desaparecer. AMD vive uno de sus mejores momentos en servidores con EPYC, e Intel sigue teniendo una base instalada enorme, relaciones empresariales profundas y capacidad industrial propia. Pero sí significa que el mercado se está fragmentando. Antes, muchas empresas compraban servidores relativamente estándar. Ahora, los grandes actores diseñan su infraestructura como un producto propio: CPU, aceleradores, red, memoria, almacenamiento, refrigeración y software se optimizan juntos.

Arm quiere ocupar una posición central en esa nueva pila. Su estrategia ya no se limita a vender IP para que otros fabriquen chips. Con la Arm AGI CPU, la compañía ha dado el salto a silicio propio para centros de datos, manteniendo al mismo tiempo su negocio tradicional de licencias y royalties. Es un cambio delicado, porque puede generar tensiones con algunos clientes que también diseñan chips Arm, pero la empresa insiste en que ambas líneas son complementarias.

El propio Haas ha señalado que Arm ya tiene más de 2.000 millones de dólares de demanda prevista para su AGI CPU en los ejercicios fiscales 2027 y 2028, más del doble de lo comunicado en el lanzamiento. Reuters, sin embargo, recogió un matiz importante: la compañía tendría asegurada capacidad para cubrir el primer tramo de 1.000 millones, pero no todavía el segundo. Es decir, la demanda existe, pero la cadena de suministro vuelve a ser una restricción.

Núcleos CPU no son núcleos GPU

La comparación entre núcleos CPU y núcleos GPU debe tratarse con mucho cuidado. Un núcleo CPU no es equivalente a un CUDA core, un shader, un Tensor Core o una unidad especializada de una GPU moderna. Sirven para trabajos distintos, con modelos de paralelismo diferentes y con una relación muy distinta entre control, latencia, memoria y cálculo masivo.

Por eso la idea de Arm no debe entenderse como “las CPU van a superar a las GPU”. No es eso. Lo que plantea la compañía es que, aunque la proporción física entre chips CPU y GPU no cambie tanto, la relación por núcleos CPU desplegados puede crecer mucho. En grandes data halls dedicados a IA, podrían aparecer racks completos de CPU orientadas a orquestación, planificación, gestión de agentes e inferencia auxiliar, colocados junto a racks de aceleradores.

El ejemplo de NVIDIA Vera ayuda a entenderlo. Haas citó el rack dedicado de Vera anunciado por NVIDIA, con 256 chips Vera de 88 núcleos en un rack refrigerado por líquido de 200 kW, diseñado para operar junto a sistemas Vera Rubin. Ese tipo de arquitectura muestra que incluso NVIDIA, símbolo absoluto de la era GPU, está reforzando la capa CPU alrededor de sus plataformas de IA.

La razón es sencilla: los agentes de IA no son solo grandes multiplicaciones matriciales. También requieren lógica, coordinación, memoria, ejecución de herramientas, llamadas a APIs, interacción con bases de datos, seguridad, colas, tareas paralelas y decisiones encadenadas. Para esas cargas, muchas CPU eficientes pueden ser tan importantes como los aceleradores que ejecutan los modelos.

Qué implica para servidores, cloud y PC

Para el mercado de centros de datos, la tendencia apunta a chips cada vez más densos, con más núcleos, más memoria, más ancho de banda y diseños optimizados para eficiencia por rack. La métrica que importa ya no será solo el rendimiento por socket, sino el rendimiento por vatio, por rack, por dólar invertido y por carga real de IA.

Para los clientes empresariales, esto puede traducirse en más opciones. Habrá instancias cloud basadas en x86, Arm, aceleradores propios y combinaciones cada vez más específicas. Las empresas no necesariamente comprarán una CPU de 512 núcleos, pero sí consumirán servicios cloud apoyados en esa arquitectura. La decisión se moverá hacia coste por tarea, latencia, compatibilidad de software y eficiencia energética.

Para el PC y el portátil, la lectura es distinta. La carrera de los 500 núcleos pertenece al centro de datos, no al ordenador personal. En dispositivos cliente, Arm seguirá empujando a través de Qualcomm, Apple y otros socios, con foco en autonomía, IA local y diseños eficientes. No tendría sentido trasladar de forma directa una CPU de cientos de núcleos a un portátil. Son mercados distintos, aunque compartan arquitectura y herramientas de desarrollo.

El reto de Arm será demostrar que puede escalar sin perder las ventajas que la hicieron atractiva. A más núcleos, más complejidad de memoria, coherencia, interconexión, software, compiladores y planificación. El hardware solo gana si el ecosistema puede usarlo bien. En servidores, x86 mantiene una ventaja histórica de compatibilidad, pero Linux, Kubernetes, bases de datos, runtimes modernos y cargas cloud-native han reducido mucho esa barrera para Arm.

La jugada de Arm es ambiciosa porque llega en un punto de cambio real. La IA agéntica no solo está aumentando la demanda de GPU. También está devolviendo protagonismo a la CPU como cerebro de coordinación de la infraestructura. Si Arm consigue convertir eficiencia y personalización en más cuota de mercado, Intel y AMD tendrán un competidor más incómodo en el lugar donde más margen hay: el centro de datos.

La CPU de 512 núcleos no es todavía un producto que podamos reservar. Es una declaración de hacia dónde va la industria. Y la dirección parece clara: más núcleos, más eficiencia, más integración y una batalla cada vez menos centrada en la arquitectura tradicional del servidor y más en quién controla la infraestructura completa de la IA.

Preguntas frecuentes

¿Arm ha anunciado oficialmente una CPU de 500 núcleos?
No como producto concreto. Rene Haas, CEO de Arm, ha planteado que diseños de 256 o 512 núcleos son posibles en los próximos años, dentro de la evolución de CPU para centros de datos e IA.

¿Por qué la IA necesita tantas CPU si ya existen las GPU?
Las GPU ejecutan gran parte del cálculo intensivo, pero las CPU coordinan tareas, gestionan memoria, datos, red, seguridad, orquestación y agentes. La IA agéntica aumenta mucho esa carga generalista.

¿Arm puede competir de verdad con Intel y AMD en servidores?
Sí, especialmente en cloud e hiperescalares, donde ya hay chips Arm personalizados como AWS Graviton, Google Axion, Microsoft Cobalt o NVIDIA Vera. Aun así, x86 seguirá siendo muy fuerte en empresa y servidores tradicionales.

¿Veremos CPUs de 500 núcleos en portátiles?
No es lo esperable. Esa escala apunta a centros de datos. En portátiles y PCs, Arm seguirá centrada en eficiencia, autonomía e IA local con chips mucho más contenidos.

vía: MyDrivers

encuentra artículos

newsletter

Recibe toda la actualidad del sector tech y cloud en tu email de la mano de RevistaCloud.com.

Suscripción boletín

LO ÚLTIMO

Las últimas novedades de tecnología y cloud

Suscríbete gratis al boletín de Revista Cloud. Cada semana la actualidad en tu buzón.

Suscripción boletín
×