Akamai ha dado un paso importante en su estrategia de Inteligencia Artificial al presentar AI Grid Intelligent Orchestration, una nueva capa de orquestación para inferencia distribuida que, según la compañía, convierte a su red en la primera implementación a escala global del diseño de referencia NVIDIA AI Grid. La propuesta se apoya en la infraestructura de Akamai Inference Cloud y en el despliegue de miles de GPU NVIDIA RTX PRO 6000 Blackwell Server Edition para mover la inferencia más cerca del usuario, en lugar de concentrarla solo en grandes clústeres centrales.
El anuncio importa porque refleja un cambio de fondo en el mercado. Durante los últimos años, la conversación sobre IA giró sobre todo alrededor de grandes “AI factories” centralizadas, optimizadas para entrenamiento y modelos de frontera. Akamai no discute ese papel, pero sostiene que muchas cargas reales de inferencia —sobre todo las ligadas a vídeo en tiempo real, agentes de IA, personalización o IA física— necesitan otra cosa: baja latencia, cercanía al dato y una red capaz de decidir dónde ejecutar cada petición con el mejor equilibrio entre coste y rendimiento.
Del centro de datos central al edge distribuido
La tesis de Akamai es que la inferencia ya no puede depender siempre de un viaje de ida y vuelta hasta un gran clúster remoto. Su nueva arquitectura reparte el trabajo entre edge, regiones intermedias y nodos centrales, con un orquestador que actúa como intermediario en tiempo real para decidir dónde conviene ejecutar cada solicitud. La compañía explica que este control plane está pensado para optimizar lo que llama “tokenomics”, es decir, coste por token, tiempo hasta el primer token y throughput global.
En la práctica, eso significa aplicar técnicas como semantic caching, afinidad de modelo y enrutado inteligente para reservar las GPU más caras a las cargas que realmente las necesitan y derivar otras peticiones a recursos más ajustados. En la página oficial del producto, Akamai añade que su plataforma también combina inferencia, red y seguridad en una única capa distribuida, con controles específicos para modelos, agentes y APIs expuestas al edge.
La compañía sitúa este enfoque sobre una huella de más de 4.400 ubicaciones edge, una de las cifras más llamativas del anuncio. Akamai sostiene que ese alcance permite procesar solicitudes en el punto de contacto digital con el usuario y evitar la latencia añadida de una nube tradicional dependiente del origen. NVIDIA, por su parte, enmarcó esta iniciativa dentro de su visión de AI Grid, una referencia de arquitectura pensada para desplegar y orquestar IA entre múltiples sitios distribuidos.
Blackwell, seguridad y cargas pensadas para agentes
El corazón técnico del servicio está en las GPU NVIDIA RTX PRO 6000 Blackwell Server Edition. Akamai explica que su Inference Cloud está construida para inferencia de IA en edge y que utiliza estas GPU junto con BlueField DPUs para mejorar tiempo al primer token y tokens por segundo. La compañía llega a afirmar que, en sus pruebas, Blackwell ofrece hasta 1,63 veces más throughput de inferencia que H100 dentro de su propia nube, aunque ese dato debe leerse como benchmark interno del proveedor.
El mensaje comercial también encaja con el tipo de carga que domina 2026. Akamai habla abiertamente de agentic AI, IA física y experiencias hiperpersoanlizadas como motores de demanda. En su nota de producto menciona casos de uso como NPC con IA para videojuegos, motores de recomendación en tiempo real, detección de fraude, automatización, RAG, multiagentes y herramientas de productividad en tienda o en atención al cliente. NVIDIA, en paralelo, ha situado precisamente la IA distribuida y de baja latencia como uno de los grandes objetivos del nuevo AI Grid Reference Design.
Otro punto relevante es que Akamai intenta diferenciarse de la simple “GPU hosting”. En su documentación insiste en que no vende solo acceso a aceleradores, sino una plataforma de inferencia edge con routing inteligente, protección frente a abuso de modelos, controles de identidad, segmentación y seguridad específica para IA. Esa capa de seguridad puede ser importante en un momento en que muchas organizaciones empiezan a preocuparse no solo por el coste de servir modelos, sino por el riesgo de exponerlos a prompt injection, scraping, abuso de APIs o movimientos laterales.
Un movimiento con más ambición de la que parece
La compañía ya había anticipado esta ofensiva a finales de 2025, cuando lanzó Akamai Inference Cloud y la vinculó al crecimiento de la IA inferencial fuera del centro de datos central. Ahora intenta llevar esa apuesta a otra escala, y lo hace además con un dato financiero que ayuda a medir la seriedad del movimiento: Akamai reveló el 5 de marzo un contrato de servicios de cuatro años por 200 millones de dólares con una gran tecnológica estadounidense para un clúster de miles de GPU Blackwell alojado en un centro de datos diseñado para infraestructura de IA en el metro edge.
Ese acuerdo no convierte automáticamente a Akamai en rival directo de los hiperescalares, pero sí muestra que quiere jugar una partida distinta. En lugar de competir solo por el gran entrenamiento centralizado, intenta hacerse fuerte en la capa de inferencia distribuida donde la proximidad, la red y la orquestación pesan casi tanto como la GPU. Esa es probablemente la lectura más interesante del anuncio: Akamai no está diciendo que el futuro de la IA deje de estar en las “AI factories”, sino que esas fábricas necesitarán extenderse hacia fuera, hasta el edge, si quieren servir bien la siguiente ola de aplicaciones en tiempo real.
Queda, naturalmente, la parte más difícil: demostrar que esta malla distribuida puede sostener SLAs, costes y rendimiento a escala real fuera del discurso de producto. Pero el planteamiento tiene lógica industrial. Si la primera fase de la IA se construyó alrededor de clústeres masivos para entrenar modelos, la siguiente se jugará en cómo y dónde se sirven esos modelos. Y ahí Akamai cree que su vieja ventaja en distribución global puede convertirse en una ventaja nueva en inferencia.
Preguntas frecuentes
¿Qué ha anunciado exactamente Akamai?
Akamai ha presentado AI Grid Intelligent Orchestration, una capa de orquestación para inferencia distribuida dentro de Akamai Inference Cloud, apoyada en más de 4.400 ubicaciones edge y en miles de GPU NVIDIA RTX PRO 6000 Blackwell Server Edition.
¿Qué significa que sea la primera implementación global de NVIDIA AI Grid?
Significa que Akamai afirma haber operacionalizado a escala real el diseño de referencia NVIDIA AI Grid para desplegar y orquestar cargas de IA entre múltiples sitios distribuidos, en lugar de concentrarlas solo en unos pocos clústeres centrales.
¿Para qué tipos de aplicaciones está pensado este modelo?
Akamai habla de videojuegos con NPC de IA, detección de fraude, recomendación en tiempo real, doblaje y transcodificación de vídeo, retail, asistentes y agentes de IA que necesitan baja latencia y respuesta inmediata cerca del usuario.
¿Está disponible ya Akamai Inference Cloud?
Sí. Akamai indica que Inference Cloud está disponible hoy para clientes empresariales cualificados, con acceso bajo solicitud.
vía: akamai