Akamai lanza AI Grid Intelligent Orchestration para la inferencia distribuida en 4.400 ubicaciones periféricas

Akamai Technologies (NASDAQ: AKAM) ha marcado un nuevo avance en el desarrollo de la inteligencia artificial al anunciar la primera implementación a escala mundial del diseño de referencia NVIDIA AI Grid. La iniciativa integra la infraestructura de IA de NVIDIA dentro de la red global de Akamai y utiliza sistemas de orquestación inteligente de cargas de trabajo para operar en toda su infraestructura. Con este enfoque, la compañía busca superar el modelo de fábricas de IA aisladas y avanzar hacia una red distribuida y unificada dedicada a la inferencia de inteligencia artificial.

Este movimiento representa un paso relevante en la evolución de Akamai Inference Cloud, la plataforma presentada por la empresa a finales del año pasado. Como primera compañía en poner en marcha una red basada en el concepto AI Grid, Akamai está desplegando miles de GPU NVIDIA RTX PRO 6000 Blackwell Server Edition, creando así una plataforma diseñada para que las empresas puedan ejecutar sistemas de IA física y agencial con la rapidez de la computación local y, al mismo tiempo, con la escala propia de una red global.

“Las fábricas de IA se han diseñado específicamente para el entrenamiento y las cargas de trabajo de modelos de vanguardia, y la infraestructura centralizada seguirá ofreciendo la mejor tokenómica para esos casos de uso”, afirma Adam Karon, director de operaciones y director general del Cloud Technology Group de Akamai. “Pero el vídeo en tiempo real, la IA física y las experiencias personalizadas altamente concurrentes exigen una inferencia en el punto de contacto, no un viaje de ida y vuelta a un clúster centralizado. Nuestra orquestación inteligente AI Grid ofrece a las fábricas de IA una forma de escalar la inferencia hacia el exterior, aprovechando la misma arquitectura distribuida que revolucionó la entrega de contenido para enrutar las cargas de trabajo de IA a través de 4.400 ubicaciones, al coste adecuado y en el momento adecuado”.

La arquitectura de “Tokenómica”

En el corazón de AI Grid se encuentra un coordinador inteligente que actúa como intermediario en tiempo real para las solicitudes de IA. Aplicando la experiencia de Akamai en la optimización del rendimiento de las aplicaciones a la IA, este plano de control sensible a la carga de trabajo optimiza la “tokenómica” mejorando radicalmente el coste por token, el tiempo hasta el primer token y el rendimiento.

Una de las principales características diferenciadoras de Akamai es la capacidad de los clientes para acceder a modelos ajustados o dispersos a través de su enorme presencia global, lo que ofrece una ventaja enorme en cuanto a costes y rendimiento para la long tail de cargas de trabajo de IA. Por ejemplo:

  • Rentabilidad a gran escala: las empresas pueden reducir drásticamente los costes de inferencia al asignar automáticamente las cargas de trabajo al nivel de computación adecuado. El coordinador aplica técnicas como el almacenamiento en caché semántico y el enrutamiento inteligente para dirigir las solicitudes a los recursos del tamaño adecuado, reservando los ciclos de GPU premium para las cargas de trabajo que los requieren. Todo ello se sustenta en Akamai Cloud, construido sobre una infraestructura de código abierto con generosas asignaciones de salida para soportar operaciones de IA con un uso intensivo de datos a gran escala.
  • Capacidad de respuesta en tiempo real: los estudios de videojuegos pueden ofrecer interacciones con personajes no jugador (NPC) impulsadas por IA que mantienen la inmersión del jugador en milisegundos. Las instituciones financieras pueden ejecutar recomendaciones personalizadas de detección de fraudes y marketing en el momento entre el inicio de sesión y la primera pantalla. Las emisoras pueden transcodificar y doblar contenidos en tiempo real para audiencias globales. Estos resultados son posibles gracias a la red periférica distribuida globalmente de Akamai, con más de 4400 ubicaciones con almacenamiento en caché integrado, computación periférica sin servidores y conectividad de alto rendimiento que procesa las solicitudes en el punto de contacto con el usuario, evitando el retraso de ida y vuelta de las nubes dependientes del origen.
  • IA de nivel de producción en el nucleo (Core): los grandes modelos de lenguaje, el entrenamiento continuo y las cargas de trabajo de inferencia multimodal requieren una computación sostenida y de alta densidad que solo una infraestructura dedicada puede ofrecer. Los clústeres de miles de GPU de Akamai, impulsados por las GPU NVIDIA RTX PRO 6000 Blackwell Server Edition, proporcionan la potencia concentrada para las cargas de trabajo de IA más pesadas, complementando el edge distribuido con una escala centralizada.

El continuo informático: desde el núcleo hasta el extremo (Core to Far-Edge)

Basado en NVIDIA AI Enterprise y aprovechando la arquitectura NVIDIA Blackwell y las DPU NVIDIA BlueField para redes y seguridad aceleradas por hardware, Akamai es capaz de gestionar complejos acuerdos de nivel de servicio (SLA) en ubicaciones periféricas y centrales:

  • El Edge (más de 4.400 ubicaciones): ofrece tiempos de respuesta rápidos para la IA física y los agentes autónomos. Aprovechará el almacenamiento en caché semántico y las capacidades sin servidor, como Akamai Functions (computación basada en WebAssembly) y EdgeWorkers, para ofrecer afinidad de modelos y un rendimiento estable en el punto de contacto con el usuario.
  • Akamai Cloud IaaS y clústeres de GPU dedicados: la infraestructura central de la nube pública permite la portabilidad y el ahorro de costes para cargas de trabajo a gran escala, mientras que los pods equipados con GPU NVIDIA RTX PRO 6000 Blackwell permiten un entrenamiento posterior de alta resistencia y una inferencia multimodal.

“Las nuevas aplicaciones nativas de IA exigen una latencia predecible y una mayor rentabilidad a escala planetaria”, asegura Chris Penrose, vicepresidente global de Desarrollo Empresarial y Telco en NVIDIA. “Al poner en marcha NVIDIA AI Grid, Akamai está creando el tejido conectivo para la IA generativa, agencial y física, trasladando la inteligencia directamente a los datos para dar paso a la próxima ola de aplicaciones en tiempo real”.

Impulsando la próxima ola de IA en tiempo real

Akamai ya está observando una fuerte adopción temprana de Akamai Inference Cloud en sectores que requieren un uso intensivo de recursos informáticos y son sensibles a la latencia:

  • Gaming: los estudios están implementando inferencias de menos de 50 milisegundos para los NPC impulsados por IA y las interacciones en tiempo real de los jugadores.
  • Servicios financieros: los bancos confían en la red para realizar un marketing hiperpersonalizado y ofrecer recomendaciones rápidas en los momentos críticos en los que los clientes inician sesión.
  • Medios de comunicación y vídeo: las emisoras utilizan la red distribuida para la          transcodificación impulsada por IA y el doblaje en tiempo real.
  • Comercio minorista: los minoristas están adoptando la red para aplicaciones de IA en las   tiendas y herramientas de productividad asociadas en el punto de venta.

Impulsada por la demanda de las empresas, la plataforma también ha sido validada por los principales proveedores de tecnología, incluyendo un acuerdo de servicio de cuatro años por valor de 200 millones de dólares para un clúster de miles de GPU en un centro de datos construido específicamente para la infraestructura de IA empresarial en el edge metropolitano.

Ampliación de las fábricas de IA de centralizadas a distribuidas

La primera ola de infraestructura de IA se caracterizó por enormes clústeres de GPU en unas pocas ubicaciones centralizadas, optimizadas para el entrenamiento. Sin embargo, a medida que la inferencia se convierte en la carga de trabajo dominante y las empresas de todos los sectores se centran en la creación de agentes de IA, ese modelo centralizado se enfrenta a las mismas limitaciones de ampliación que encontraron las generaciones anteriores de infraestructura de Internet con la distribución de medios, los juegos online, las transacciones financieras y las aplicaciones de microservicios complejos.

Akamai está resolviendo cada uno de esos retos mediante el mismo enfoque fundamental: redes distribuidas, orquestación inteligente y sistemas diseñados específicamente para reunir el contenido y el contexto lo más cerca posible del punto de contacto digital. El resultado ha sido una mejora de la experiencia del usuario y un mayor retorno de la inversión para las empresas que han adoptado el modelo. Akamai Inference Cloud aplica esa misma arquitectura probada a las fábricas de IA, lo que permite la próxima ola de escalado y crecimiento mediante la distribución de la computación densa desde el núcleo hasta el edge. Para las empresas, esto significa la capacidad de implementar agentes de IA que sean sensibles al contexto y adaptables en su capacidad de respuesta. Para la industria, representa un modelo de cómo las fábricas de IA evolucionan desde instalaciones aisladas a una utilidad distribuida a nivel mundial.

encuentra artículos

newsletter

Recibe toda la actualidad del sector tech y cloud en tu email de la mano de RevistaCloud.com.

Suscripción boletín

LO ÚLTIMO

Las últimas novedades de tecnología y cloud

Suscríbete gratis al boletín de Revista Cloud. Cada semana la actualidad en tu buzón.

Suscripción boletín
×