Akamai lanza Inference Cloud con NVIDIA: inferencia de IA distribuida del core al borde para la era de los agentes y la Physical AI

Akamai presentó Inference Cloud, una plataforma pensada para llevar la inferencia de IA desde los centros de datos centrales hasta el borde de Internet, con el objetivo de ofrecer baja latencia, seguridad y escalabilidad global para aplicaciones de IA agéntica y Physical AI (robots, vehículos, ciudades inteligentes). La propuesta aprovecha infraestructura NVIDIA Blackwell y la red global distribuida de Akamai para acercar el cómputo a usuarios y dispositivos.

La tesis estratégica es clara: la próxima ola de aplicaciones —agentes que actúan, experiencias personalizadas y sistemas de decisión en tiempo real— necesita inferir “cerca” del usuario. Con Inference Cloud, Akamai traslada la toma de decisiones de IA a miles de ubicaciones y orquesta de forma inteligente dónde ejecutar cada tarea para mantener respuestas prácticamente instantáneas.

Qué hay bajo el capó: Blackwell en el borde y una red global

Inference Cloud combina servidores NVIDIA RTX PRO (con RTX PRO 6000 Blackwell Server Edition), DPUs NVIDIA BlueField-3 y software NVIDIA AI Enterprise sobre la infraestructura de nube distribuida y la red edge de Akamai, con más de 4.200 ubicaciones en todo el mundo. La hoja de ruta incorpora BlueField-4 para acelerar y securizar aún más el acceso a datos y las cargas de inferencia desde el core hasta el borde. El despliegue arranca en 20 ubicaciones iniciales, con expansión progresiva ya en marcha.

Casos de uso: de agentes en tiempo real a “IA física”

  • IA agéntica y experiencias personalizadas: extensión de “AI factories” al borde para comercio inteligente y asistentes capaces de negociar, comprar y optimizar en tiempo real según ubicación, comportamiento e intención del usuario.
  • Streaming inference para decisiones financieras: múltiples inferencias secuenciales típicas de agentes resueltas con latencias de milisegundos, útiles en detección de fraude, pagos seguros y automatización.
  • Physical AI: soporte a robots industriales, drones, infraestructura urbana y vehículos autónomos, donde la precisión temporal y la seguridad exigen procesar sensores y decidir a la velocidad del mundo físico.

Orquestación “core–edge”: dónde ejecutar cada tarea

El plano de control dirige dinámicamente cada petición al punto más eficiente:

  • Lo rutinario y muy sensible a latencia se resuelve en el borde —incluidos microservicios NIM de NVIDIA—.
  • Las tareas más complejas o de razonamiento se envían a AI factories centralizadas.

Todo ello se gestiona desde una plataforma unificada que abstrae la complejidad de operar cargas de IA distribuidas a escala planetaria.

Seguridad y cumplimiento: arquitectura distribuida, controles centralizados

Inference Cloud hereda el modelo de seguridad y las operaciones globales de Akamai, añadiendo DPUs BlueField como capa de aislamiento, cifrado y offload de tareas críticas. La combinación de edge + Blackwell + AI Enterprise apunta a sectores regulados que requieren trazabilidad, gobernanza y baja latencia sin concesiones.

Qué significa para el mercado

  • Menos latencia, más cercanía: para agentes y aplicaciones interactivas, situar la inferencia lo más cerca posible del usuario es crítico; una huella con >4.200 puntos ofrece ventaja en proximidad.
  • Escalado global: empezar en 20 sitios reduce el tiempo de salida al mercado y permite crecer por oleadas según la demanda real.
  • Portabilidad de modelos: apoyarse en NVIDIA AI Enterprise y NIM facilita migrar cargas entre borde y core sin reescribir la aplicación.

Preguntas frecuentes

¿Qué es exactamente Akamai Inference Cloud?
Una plataforma de inferencia distribuida que ejecuta IA en el borde y en el core, con hardware NVIDIA Blackwell, DPUs BlueField y software AI Enterprise, diseñada para latencias muy bajas y despliegues globales.

¿Cuántas ubicaciones tiene el edge de Akamai y dónde empieza el servicio?
La red edge supera las 4.200 ubicaciones; la disponibilidad inicial arranca en 20 emplazamientos, con un plan de expansión en curso.

¿Qué cargas se benefician más?
Agentes con múltiples inferencias por tarea, finanzas (fraude, pagos), ecommerce (experiencias personalizadas) y Physical AI (robots, vehículos, smart cities) que requieren decisiones en milisegundos.

¿Cómo decide la plataforma dónde ejecutar (borde vs. core)?
Mediante una capa de orquestación que enruta dinámicamente: lo sensible a latencia se resuelve en el borde; los workflows complejos van a AI factories centralizadas. Todo se administra desde una consola unificada.


Fuentes: Comunicado y materiales oficiales de Akamai sobre Akamai Inference Cloud (28/10/2025) y documentación de NVIDIA relacionada con Blackwell, NIM y BlueField.

encuentra artículos

newsletter

Recibe toda la actualidad del sector tech y cloud en tu email de la mano de RevistaCloud.com.

Suscripción boletín

LO ÚLTIMO

×