Intel y SambaNova rediseñan la inferencia para la nueva IA agéntica

La carrera de la Inteligencia Artificial ya no gira solo en torno al entrenamiento de modelos cada vez más grandes. También empieza a centrarse, y mucho, en cómo ejecutar esa IA de forma eficiente cuando entra en producción. En ese contexto, Intel y SambaNova han anunciado una nueva arquitectura conjunta pensada para cargas de IA agéntica, un tipo de despliegue en el que los modelos no se limitan a responder preguntas, sino que compilan código, llaman herramientas, consultan bases de datos y coordinan flujos de trabajo complejos.

La propuesta rompe con una idea que hasta hace poco parecía casi indiscutible en el mercado: que todo el futuro de la inferencia de IA debía construirse sobre GPU. Intel y SambaNova sostienen justo lo contrario. Su planteamiento parte de que las nuevas cargas agénticas exponen los límites de los stacks “GPU-only” y obligan a repartir mejor el trabajo entre distintos tipos de chip. El diseño anunciado combina GPU para la fase de prefill, RDUs de SambaNova para el decode y procesadores Intel Xeon 6 como CPU anfitriona y también como CPU de acción, encargada de ejecutar herramientas, orquestar tareas y validar resultados.

La idea central: cada fase de la inferencia en el chip adecuado

El anuncio tiene bastante lógica técnica. En inferencia moderna, y especialmente en agentes de código, no todo el trabajo es igual. La fase de prefill consume mucho cálculo paralelo porque transforma prompts largos en cachés clave-valor. Ahí las GPU siguen siendo la opción más natural. Pero una vez que el modelo entra en fase de decode, lo que importa más es la generación rápida y sostenida de tokens con baja latencia. Para esa parte, SambaNova quiere colocar sus SN50 RDU, sus aceleradores basados en arquitectura de flujo de datos reconfigurable.

La tercera pieza del sistema son los Intel Xeon 6, que no aparecen aquí como simple acompañamiento. Intel y SambaNova los sitúan como el plano de control del sistema y como la capa que ejecuta lo que podríamos llamar “trabajo real de agente”: compilación, ejecución de código, llamadas a APIs, acceso a herramientas, coordinación de sandboxes, reparto de cargas y comportamiento general del sistema. Es un papel mucho más ambicioso que el de mero host CPU, y refleja una idea que Intel lleva meses intentando vender con fuerza: que la IA del futuro va a necesitar sistemas más equilibrados y no solo más aceleradores.

Intel intenta recolocar la CPU en el centro de la conversación sobre IA

La operación también encaja con la estrategia más amplia de Intel alrededor de Xeon 6. La compañía lanzó la familia completa en febrero de 2025 y desde entonces la ha ido posicionando como la CPU de referencia para centros de datos modernos, especialmente en escenarios donde la IA no funciona sola, sino integrada con redes, almacenamiento, bases vectoriales y aplicaciones empresariales. En aquella presentación, Intel hablaba de Xeon 6 como el “CPU fundacional” para sistemas de IA y como un procesador que se empareja especialmente bien con GPU en nodos host.

Lo interesante es que ahora el discurso sube un escalón. Ya no se trata solo de acompañar a la GPU, sino de recuperar terreno funcional en la era de la IA agéntica. Reuters señalaba precisamente este 9 de abril que el auge de los agentes de IA está reforzando la demanda de CPU de propósito general, porque muchas de esas cargas necesitan manejar tareas pesadas fuera de la pura generación del modelo. Intel intenta aprovechar esa tendencia con dos mensajes muy claros: el software de centro de datos sigue construido mayoritariamente sobre x86, y buena parte del trabajo de producción sigue necesitando la madurez del ecosistema que corre sobre Xeon.

SambaNova busca diferenciarse en la parte más costosa de la inferencia

Para SambaNova, el movimiento es igual de estratégico. La compañía lleva tiempo defendiendo que la economía de la inferencia no se resolverá solo con GPU y que la fase de decode necesita hardware específico si se quiere reducir coste por token y mantener latencias competitivas. En su comunicado, presenta el SN50 RDU como una pieza diseñada para cambiar la “tokenomics” de la inferencia, es decir, la relación entre rendimiento, coste y escalabilidad en despliegues reales de modelos grandes.

SambaNova añade además un argumento comercial interesante: la arquitectura conjunta podrá desplegarse en centros de datos refrigerados por aire ya existentes, algo que puede resultar atractivo para empresas y cloud providers que quieren escalar IA agéntica sin rediseñar completamente su infraestructura física. Esa parte no garantiza por sí sola una adopción masiva, pero sí apunta a una ventaja práctica frente a despliegues mucho más intensivos en potencia y refrigeración.

Mucha promesa, pero también mucho por demostrar

Como ocurre con casi todos los anuncios de este tipo, hay una parte de hoja de ruta y otra de producto real. Intel y SambaNova aseguran que esta solución de inferencia heterogénea estará disponible para empresas, plataformas cloud y despliegues de IA soberana en la segunda mitad de 2026. También señalan que, bajo un acuerdo ya firmado, SambaNova estandarizará Xeon 6 como CPU anfitriona junto a sus RDU como base de inferencia para esta arquitectura. Eso es relevante porque sugiere una relación más profunda que una simple colaboración de marketing.

Aun así, todavía faltan muchas respuestas. Las comparativas de rendimiento que ofrece SambaNova —como más de un 50 % de mejora en compilación LLVM frente a CPU Arm de servidor o hasta un 70 % más de rendimiento en bases de datos vectoriales frente a competencia x86 disponible— proceden de mediciones propias del fabricante y no de benchmarks independientes ampliamente publicados. Eso no invalida la arquitectura, pero sí obliga a leer el anuncio como lo que es hoy: un blueprint con una tesis técnica potente, no una victoria ya consolidada en el mercado.

Lo que sí deja claro esta alianza es una tendencia más amplia: la IA agéntica está empujando al sector hacia sistemas más heterogéneos, donde prefill, decode, orquestación y ejecución de herramientas pueden acabar en chips distintos. Si esa idea se consolida, la conversación sobre infraestructura de IA dejará de ser simplemente “qué GPU comprar” y pasará a ser “cómo repartir mejor cada fase del trabajo”. Intel y SambaNova quieren colocarse justo en ese debate. Y eso, en 2026, ya es bastante importante.

Preguntas frecuentes

¿Qué han anunciado Intel y SambaNova exactamente?
Han anunciado una arquitectura heterogénea para IA agéntica que combina GPU para prefill, RDUs de SambaNova para decode y procesadores Intel Xeon 6 para orquestación, herramientas y ejecución de acciones.

¿Qué significa que Xeon 6 sea CPU host y “action CPU”?
Significa que no solo coordina el sistema, sino que también se encarga de tareas como compilar y ejecutar código, llamar APIs, consultar herramientas y validar resultados en flujos de IA agéntica.

¿Cuándo estará disponible esta solución?
Intel y SambaNova prevén que llegue a empresas, cloud providers y despliegues de IA soberana en la segunda mitad de 2026.

¿Por qué ya no bastan las GPU en algunos despliegues de IA?
Porque en la IA agéntica hay fases distintas con necesidades distintas. Las GPU siguen siendo muy útiles en prefill, pero decode, orquestación, ejecución de herramientas y tareas del ecosistema software pueden beneficiarse de CPU y aceleradores especializados.

vía: sambanova.ai

encuentra artículos

newsletter

Recibe toda la actualidad del sector tech y cloud en tu email de la mano de RevistaCloud.com.

Suscripción boletín

LO ÚLTIMO

Las últimas novedades de tecnología y cloud

Suscríbete gratis al boletín de Revista Cloud. Cada semana la actualidad en tu buzón.

Suscripción boletín
×