Meta ha firmado un acuerdo con Amazon Web Services para incorporar decenas de millones de núcleos AWS Graviton a su infraestructura de computación. El movimiento refuerza una idea que empieza a ganar peso en el sector: la inteligencia artificial no vive solo de GPU. A medida que los modelos se convierten en sistemas capaces de razonar, buscar, generar código y coordinar tareas, la demanda de CPU eficientes también se dispara.
El pacto convierte a Meta en uno de los mayores clientes mundiales de Graviton y amplía una relación que la compañía mantiene desde hace años con AWS. La operación se presenta como una pieza más dentro de la infraestructura que Meta necesita para su próxima generación de inteligencia artificial, especialmente para cargas de trabajo agénticas, donde los sistemas no se limitan a responder, sino que ejecutan procesos compuestos por varios pasos.
La IA agéntica también necesita CPU, no solo GPU
La carrera de la inteligencia artificial se ha contado casi siempre a través de las GPU. NVIDIA se ha convertido en el símbolo del entrenamiento de grandes modelos, y buena parte de la inversión de los hiperescalares se ha concentrado en clústeres de aceleradores. Pero esa es solo una parte de la historia. Cuando un sistema de IA debe atender millones o miles de millones de interacciones, buscar información, llamar a herramientas, generar código, coordinar agentes y mantener respuestas en tiempo real, la CPU vuelve al centro de la arquitectura.
Ahí encaja el acuerdo entre Meta y AWS. Según Amazon, el despliegue inicial arrancará con decenas de millones de núcleos Graviton, con posibilidad de ampliarse conforme crezcan las necesidades de Meta. La compañía utilizará estos procesadores en distintas cargas, incluidas las vinculadas a sus esfuerzos en inteligencia artificial.
La diferencia es importante. Entrenar un gran modelo suele requerir GPU o aceleradores especializados. Ejecutar servicios de IA a escala, orquestar agentes, procesar peticiones, gestionar búsquedas o coordinar flujos complejos puede depender mucho más de CPU, memoria, red y eficiencia energética. En otras palabras, la IA generativa se entrena en grandes fábricas de aceleradores, pero muchas de sus funciones diarias viven en capas de cómputo generalista muy optimizadas.
Meta lo ha explicado en términos de diversificación. Santosh Janardhan, responsable de infraestructura de la compañía, ha señalado que diversificar las fuentes de computación es una prioridad estratégica a medida que Meta escala la infraestructura detrás de sus ambiciones en IA. AWS, por su parte, presenta el acuerdo como una validación de su estrategia de silicio propio.
Graviton5: 192 núcleos y una apuesta clara por Arm
La pieza técnica central del anuncio es Graviton5, la nueva generación de procesadores diseñados por AWS. Este chip cuenta con 192 núcleos, una caché cinco veces mayor que la generación anterior y, según Amazon, puede reducir hasta un 33 % los retrasos en la comunicación entre núcleos. AWS también afirma que Graviton5 ofrece hasta un 25 % más de rendimiento que Graviton4.
El salto no se entiende solo por el número de núcleos. Las cargas agénticas pueden generar muchos procesos simultáneos, llamadas a servicios externos, consultas, inferencias auxiliares y operaciones de coordinación. En ese contexto, una caché mayor, más ancho de banda y menor latencia entre componentes pueden marcar diferencias en coste y rendimiento, sobre todo cuando el despliegue se mide en millones de núcleos.
Graviton5 está fabricado con tecnología de 3 nanómetros y se apoya en AWS Nitro System, la arquitectura de AWS que separa parte de las funciones de virtualización, red y almacenamiento en hardware y software dedicados. Esto permite ofrecer instancias bare metal y entornos virtualizados con acceso eficiente al hardware, algo especialmente relevante para clientes grandes que ya tienen sus propias capas de virtualización, automatización y despliegue.
Otro elemento destacado es el soporte de Elastic Fabric Adapter, la tecnología de AWS para comunicaciones de baja latencia y alto ancho de banda entre instancias. En cargas distribuidas de IA, la red puede convertirse en un cuello de botella tan importante como el procesador. Si muchos nodos deben trabajar de forma coordinada, la comunicación entre ellos pesa tanto como la potencia bruta de cada chip.
La elección de Graviton también confirma el avance de Arm en el centro de datos. Durante años, la arquitectura x86 dominó casi por completo la computación empresarial. AWS empezó a cambiar esa dinámica con sus propios chips Arm, primero como una alternativa de mejor relación precio-rendimiento para cargas cloud generales, y ahora como una opción para infraestructuras de IA a gran escala.
AWS gana peso frente al dominio de las GPU
Para AWS, el acuerdo con Meta llega en un momento clave. Amazon lleva años invirtiendo en chips propios, no solo con Graviton para CPU, sino también con Trainium e Inferentia para entrenamiento e inferencia de inteligencia artificial. La compañía compite en un mercado donde Microsoft, Google y otros hiperescalares también están diseñando silicio específico para reducir costes, mejorar eficiencia y depender menos de proveedores externos.
El mensaje de AWS es claro: no todo el cómputo de IA debe resolverse con GPU. En algunos escenarios, una CPU diseñada a medida para su nube puede ofrecer mejores costes operativos y más eficiencia energética. Esto es especialmente importante cuando las empresas pasan de experimentar con IA a desplegar servicios con muchos usuarios, alta concurrencia y necesidades de respuesta constantes.
El beneficio para Meta también parece evidente. La compañía necesita enormes cantidades de capacidad de cómputo para sostener sus productos de IA, desde asistentes hasta funciones integradas en Facebook, Instagram, WhatsApp, dispositivos y herramientas para creadores o anunciantes. Al apoyarse en AWS Graviton, Meta puede diversificar su infraestructura y no depender únicamente de GPU o de sus propios centros de datos.
La dimensión energética tampoco es menor. La demanda de computación para IA está aumentando la presión sobre centros de datos, redes eléctricas y presupuestos de capital. AWS defiende que Graviton5 ofrece mejoras de rendimiento manteniendo una alta eficiencia energética. Para compañías como Meta, que han asumido compromisos de sostenibilidad y a la vez necesitan multiplicar su capacidad de IA, cada mejora en rendimiento por vatio cuenta.
El acuerdo no cambia por sí solo el equilibrio del mercado de chips, pero sí añade una señal importante. Las grandes plataformas están empezando a diseñar sus arquitecturas de IA como una combinación de aceleradores, CPU especializadas, redes rápidas, almacenamiento distribuido y software de orquestación. La GPU seguirá siendo esencial para entrenar y ejecutar muchos modelos, pero la capa que permite convertir esos modelos en servicios masivos será más diversa.
Para Meta, Graviton es una forma de ganar capacidad y flexibilidad. Para AWS, es una demostración de que su apuesta por procesadores propios puede atraer incluso a uno de los mayores consumidores de infraestructura de IA del mundo. Y para el sector, es otro indicio de que la próxima fase de la inteligencia artificial se decidirá tanto en los chips más visibles como en las capas de cómputo que trabajan detrás, casi siempre fuera del foco.
Preguntas frecuentes
¿Qué han acordado Meta y AWS?
Meta incorporará decenas de millones de núcleos AWS Graviton a su infraestructura de computación para apoyar cargas de trabajo de inteligencia artificial, incluidas funciones de IA agéntica.
¿Qué es AWS Graviton?
AWS Graviton es una familia de procesadores basados en Arm diseñados por Amazon Web Services para ejecutar cargas cloud con alto rendimiento, eficiencia energética y mejor control de costes.
¿Por qué Meta necesita CPU para inteligencia artificial?
Porque muchas cargas de IA agéntica, como razonamiento en tiempo real, generación de código, búsqueda y coordinación de tareas, dependen mucho de CPU, red y memoria, además de GPU.
¿Graviton sustituye a las GPU en inteligencia artificial?
No. Las GPU siguen siendo esenciales para entrenar y ejecutar muchos modelos. Graviton cubre otro tipo de cargas, especialmente las que requieren cómputo generalista eficiente a gran escala.