Intel y Google refuerzan su alianza para rediseñar la infraestructura de IA

Intel y Google han anunciado una ampliación de su colaboración a varios años para desarrollar la próxima generación de infraestructura cloud e Inteligencia Artificial, con un mensaje de fondo muy claro: la IA moderna no se sostiene solo sobre aceleradores, sino sobre sistemas heterogéneos donde la CPU y los procesadores de infraestructura vuelven a ganar protagonismo. El anuncio, realizado este 9 de abril, confirma que los procesadores Intel Xeon seguirán teniendo un papel relevante en la infraestructura de Google Cloud y que ambas compañías ampliarán además el codesarrollo de IPUs personalizadas basadas en ASIC para mejorar eficiencia, utilización y rendimiento a escala.

La alianza tiene bastante más calado del que sugiere un comunicado breve. Intel está intentando recolocar la CPU en el centro del debate sobre IA justo cuando el mercado empieza a asumir que los despliegues productivos, y especialmente la inferencia y los sistemas agénticos, no dependen solo de GPU. Google, por su parte, lleva años construyendo una infraestructura cada vez más personalizada, donde CPU, aceleradores y offloads especializados se combinan para exprimir rendimiento y coste en su nube. Esta ampliación del acuerdo encaja con esa lógica y refuerza la idea de que la siguiente fase de la IA se jugará tanto en la arquitectura del sistema como en el modelo.

Xeon se queda en la base del cloud de Google

Intel subraya que Google Cloud seguirá utilizando Xeon a lo largo de múltiples generaciones para cargas de IA, inferencia y computación general. En el anuncio, la compañía menciona explícitamente la continuidad de Xeon en la infraestructura global de Google y cita como ejemplos las instancias optimizadas de Google Cloud, entre ellas C4, ya disponibles con Intel Xeon 6. Google Cloud oficializó en julio de 2025 la disponibilidad general de las C4 basadas en Granite Rapids, describiéndolas como sus primeras VMs de ese tipo con Xeon 6 y situándolas como una plataforma importante para cargas con necesidades de rendimiento elevado.

Esto importa porque rompe una narrativa demasiado simple que en los últimos 2 años había dado por hecho que la CPU iba a perder relevancia estructural frente a GPU y TPU. Lo que tanto Intel como Google están defendiendo ahora es otra cosa: que a medida que la IA se mueve del entrenamiento puro a la inferencia, la coordinación de agentes, el preprocesado, la orquestación y el comportamiento general del sistema, la CPU vuelve a ser una pieza crítica del equilibrio total. Reuters resumía precisamente esa idea al señalar que el auge de las nuevas cargas de IA está elevando la demanda de CPU en tareas de inferencia y despliegue, no solo en entrenamiento.

Las IPU vuelven a escena como capa clave de eficiencia

La otra gran pata del acuerdo son las IPU. Intel y Google hablan de ampliar su codesarrollo de procesadores de infraestructura personalizados basados en ASIC para descargar de la CPU funciones de red, almacenamiento y seguridad. El objetivo es mejorar la utilización de los recursos del host, lograr un rendimiento más predecible y escalar mejor en entornos hiperescalables donde las cargas de IA conviven con enormes necesidades de tráfico, aislamiento y almacenamiento.

No es una idea nueva entre ambas compañías. Google Cloud ya presentó en 2022 las instancias C3 como las primeras de nube pública con un procesador Intel Xeon de cuarta generación junto a una custom Intel IPU desarrollada con Google. En aquel momento, la compañía explicaba que este hardware de offload permitía una computación más predecible y eficiente, además de acelerar red, almacenamiento y procesamiento de paquetes con menor latencia. La novedad ahora no es tanto la existencia de IPU, sino que Intel y Google las colocan en un plano estratégico mucho más visible dentro de la era de la IA heterogénea.

Ese cambio de tono es significativo. Durante años, estas piezas se presentaban como una optimización de infraestructura casi invisible para el cliente final. Hoy se explican como un componente central de la eficiencia de los sistemas de IA modernos. Y tiene sentido: cuando los costes de inferencia, red y movimiento de datos pesan cada vez más, cualquier capacidad de descargar trabajo repetitivo fuera de la CPU principal se convierte en una ventaja competitiva real.

El verdadero mensaje: la IA ya no se diseña alrededor de un solo chip

Quizá lo más interesante del anuncio es su lectura estratégica. Intel insiste en que “la IA no funciona solo sobre aceleradores, sino sobre sistemas”, mientras Google habla de CPU e infraestructura acelerada como una piedra angular de los sistemas de IA, desde la orquestación del entrenamiento hasta la inferencia y el despliegue. Traducido al lenguaje de mercado, ambas empresas están defendiendo que el futuro no será de arquitecturas monolíticas dominadas por una sola clase de procesador, sino de plataformas heterogéneas donde cada fase del trabajo cae en el silicio más adecuado.

Ese discurso también sirve a Intel para reposicionarse en pleno giro estratégico de la compañía. La empresa ha perdido parte del relato en el boom inicial de la IA dominado por NVIDIA, pero sigue teniendo una baza muy fuerte en CPU de centro de datos y en componentes de infraestructura. Asociarse con Google en una narrativa donde Xeon + IPU siguen siendo esenciales para la nube de IA le permite recordar al mercado que aún controla una parte del terreno que los aceleradores no cubren solos.

En el caso de Google, la alianza refuerza una estrategia de infraestructura cada vez más modular. La compañía ya combina TPU propias, sistemas Titanium, CPU personalizadas como Axion en otras familias y ahora sigue profundizando su relación con Intel en Xeon e IPU. Eso le da flexibilidad para optimizar distintas capas del stack cloud y evitar depender de una sola vía tecnológica para cada tipo de carga.

Mucha hoja de ruta y pocas cifras cerradas

Como ocurre con tantos anuncios de infraestructura, Intel y Google han dejado bastante espacio para la interpretación. No han detallado cuántas generaciones futuras de Xeon cubrirá este acuerdo, no han ofrecido cifras concretas de rendimiento ni ahorro, y tampoco han descrito públicamente qué nuevas IPU llegarán ni cuándo se materializarán exactamente. Lo que sí han hecho es fijar una dirección: seguir construyendo juntos una infraestructura donde CPU e IPU no son elementos secundarios, sino parte activa del diseño de sistemas de IA más eficientes y equilibrados.

Para un medio tecnológico, esa es la parte realmente relevante. Más que una simple renovación comercial, el movimiento confirma una tendencia de fondo: en la nueva fase de la IA, la discusión ya no es solo qué acelerador domina el entrenamiento, sino cómo se compone un sistema entero capaz de mover datos, coordinar procesos, inferir con coste razonable y mantener compatibilidad con el software real del centro de datos. Intel y Google quieren estar justo ahí. Y, a juzgar por este acuerdo, saben que esa batalla apenas está empezando.

vía: newsroom.intel

encuentra artículos

newsletter

Recibe toda la actualidad del sector tech y cloud en tu email de la mano de RevistaCloud.com.

Suscripción boletín

LO ÚLTIMO

Las últimas novedades de tecnología y cloud

Suscríbete gratis al boletín de Revista Cloud. Cada semana la actualidad en tu buzón.

Suscripción boletín
×