Akamai Inference Cloud transforma la IA desde el centro hasta el Edge con NVIDIA

Akamai Technologies, Inc. (NASDAQ: AKAM) ha presentado Akamai Inference Cloud, una nueva plataforma que revoluciona la forma y el lugar donde se aplica la inteligencia artificial, al extender los procesos de inferencia desde los centros de datos tradicionales hasta el borde (Edge) de Internet.

Esta solución permite ejecutar inferencias de IA avanzadas y autónomas directamente en el Edge, es decir, más cerca de los usuarios y sus dispositivos. A diferencia de las infraestructuras convencionales, Akamai Inference Cloud ha sido diseñada para ofrecer procesamiento de inteligencia artificial en tiempo real, con baja latencia y alcance global. El lanzamiento combina la amplia experiencia de Akamai en arquitecturas distribuidas con la tecnología de infraestructura de IA de NVIDIA Blackwell, redefiniendo la computación acelerada necesaria para liberar el verdadero potencial de la IA.

La creciente demanda de aplicaciones inteligentes de nueva generación —como experiencias digitales personalizadas, asistentes autónomos o sistemas de decisión en tiempo real— requiere que la inferencia se ejecute lo más cerca posible del usuario. Esto garantiza respuestas instantáneas y una gestión eficiente de las solicitudes en función del contexto local.

Diseñada para responder a estas necesidades, Akamai Inference Cloud actúa como una plataforma generativa y distribuida en el Edge, que acerca la potencia de la IA de NVIDIA al lugar donde se generan los datos y se toman las decisiones, ofreciendo así una infraestructura preparada para el futuro de la inteligencia artificial global.

“La próxima oleada de IA requiere la misma aproximación de usuario que permitió convertir a Internet en la plataforma global omnipresente que es hoy en día”, afirma el Dr. Tom Leighton, CEO y cofundador de Akamai. “Akamai ya resolvió este reto y volverá a hacerlo. Gracias a la infraestructura de IA de NVIDIA, Akamai Inference Cloud satisfará la creciente demanda de ampliar la capacidad y el rendimiento de la inferencia de IA, y llevará la toma de decisiones a miles de ubicaciones en todo el mundo, lo que permitirá respuestas más rápidas, inteligentes y seguras”.

“La inferencia se ha convertido en la fase más intensiva en términos de computación de la IA, ya que exige un razonamiento en tiempo real a escala planetaria”, asegura Jensen Huang, fundador y CEO de NVIDIA. “Juntos, NVIDIA y Akamai están acercando la inferencia a los usuarios de todo el mundo, lo que permite ofrecer una IA generativa más rápida y escalable, y abrir las puertas a la próxima generación de aplicaciones inteligentes”.

Está solución redefine dónde y cómo se utiliza la IA al acercar la inferencia de IA inteligente y autónoma a los usuarios y sus dispositivos. La plataforma combina servidores NVIDIA RTX PRO, equipados con GPU NVIDIA RTX PRO 6000 Blackwell Server Edition, DPU NVIDIA Bluefield-3 y el software NVIDIA AI Enterprise, con la infraestructura de cloud computing distribuida de Akamai y la red en el Edge global, que cuenta con más de 4200 ubicaciones en todo el mundo. Akamai Inference Cloud impulsará la visión de Akamai de un rendimiento de IA distribuido y altamente escalable en todo el mundo aprovechando las últimas tecnologías de NVIDIA, como la DPU NVIDIA Bluefield-4, anunciada recientemente, para acelerar y proteger aún más el acceso a los datos y las cargas de trabajo de inferencia de IA desde el núcleo hasta el Edge.

Esta asociación aporta, trazando nuevas fronteras de IA con Akamai Inference Cloud:

  • Extensión de las fábricas de IA empresarial al Edge para posibilitar los agentes de comercio inteligentes y las experiencias digitales personalizadas: Las fábricas de IA son potentes y coordinan el ciclo de vida de la IA, desde la ingesta de datos hasta la creación de inteligencia a escala. Akamai Inference Cloud amplía las fábricas de IA al Edge, descentralizando los datos y el procesamiento, y dirigiendo las solicitudes al mejor modelo mediante las ubicaciones en el Edge distribuidas masivamente de Akamai. Esto permitirá a los agentes inteligentes adaptarse instantáneamente a la ubicación, el comportamiento y la intención del usuario, y actuar de forma autónoma para negociar, formalizar y optimizar las transacciones en tiempo real.
  • Posibilidad de que los agentes y la inferencia de streaming proporcionen información financiera instantánea y tomen decisiones en tiempo real: Los agentes de IA requieren varias inferencias secuenciales para completar tareas complejas, lo que provoca retrasos que lastran la interacción de los usuarios. Los flujos de trabajo de la IA autónoma requieren varias llamadas de inferencia y, si cada llamada crea un retraso en la red, la experiencia parece lenta o demasiado tardía como para satisfacer los requisitos de latencia de máquina a máquina. La arquitectura nativa en el Edge de Internet de Akamai Inference Cloud ofrece respuestas prácticamente instantáneas, lo que permite a los agentes de IA trabajar con una capacidad de respuesta similar a la de las personas en flujos de trabajo de varios pasos. Esto puede resultar útil para detectar fraudes, agilizar los pagos seguros y permitir la toma de decisiones a gran velocidad para los sectores industriales.
  • Posibilidad de que la IA física en tiempo real funcione superando la capacidad de respuesta a nivel humano: Los sistemas físicos de IA, como los vehículos autónomos, los robots industriales y la infraestructura de ciudades inteligentes, requieren una toma de decisiones con una precisión de milisegundos para interactuar de modo seguro con el mundo físico. Akamai Inference Cloud se ha diseñado para permitir que la IA física procese datos de sensores, tome decisiones de seguridad y coordine acciones a la velocidad del mundo físico, lo que ayuda a transformarlo todo, desde plantas de fabricación y drones de distribución hasta robots quirúrgicos y redes de transporte autónomas, en sistemas inteligentes con capacidad de respuesta que pueden funcionar de forma segura junto con los seres humanos.
  • Aceleración del plazo de amortización: La organización de cargas de trabajo de IA complejas y distribuidas en varias regiones de la nube requiere conocimientos y equipos especializados. La capa de coordinación inteligente de Akamai Inference Cloud dirige automáticamente las tareas de IA a las ubicaciones óptimas. La inferencia rutinaria se ejecuta al instante en el Edge a través de los microservicios NIM de NVIDIA, mientras que el sofisticado razonamiento aprovecha las fábricas de IA centralizadas, todas ellas gestionadas a través de una plataforma unificada que elimina la complejidad de la infraestructura.

Akamai Inference Cloud está disponible en 20 ubicaciones iniciales en todo el mundo; además, existen planes para ampliar la implementación.

encuentra artículos

newsletter

Recibe toda la actualidad del sector tech y cloud en tu email de la mano de RevistaCloud.com.

Suscripción boletín

LO ÚLTIMO

×