Akamai apuesta por la era de la inferencia y desplegará miles de GPUs NVIDIA Blackwell en una plataforma de IA distribuida

Akamai, históricamente asociada al mundo del CDN y la entrega de contenidos, quiere que en 2026 se la empiece a leer con otras siglas: GPU, inferencia e Inteligencia Artificial distribuida. La compañía ha anunciado la adquisición de miles de GPUs NVIDIA Blackwell con el objetivo de crear una de las plataformas de IA más ampliamente distribuidas del mundo, integrada dentro de su infraestructura cloud y su red global.

El movimiento llega en un momento en el que el mercado empieza a asumir una realidad incómoda: la primera ola de la IA se centró en entrenar modelos en grandes “fábricas” centralizadas, pero el cuello de botella del negocio está girando hacia otro lado. La inferencia (usar el modelo en producción) importa tanto como el entrenamiento, y en producción la latencia, el coste del tráfico y la localización de los datos pesan más que el “benchmark” de moda.

Del “entrenar en un sitio” al “responder en cualquier sitio”

La propuesta de Akamai se apoya en una idea que hasta hace poco sonaba más a arquitectura de red que a IA: tratar el planeta como un backplane de baja latencia. En lugar de concentrar la ejecución en un puñado de regiones gigantes, la compañía plantea una plataforma unificada que enruta cargas de inferencia hacia recursos de cómputo optimizados dentro de su propia huella distribuida.

Ese enfoque pretende atacar dos problemas clásicos de la nube centralizada cuando se intenta escalar IA en producción:

  • Latencia: cuando la respuesta tiene que ocurrir “en tiempo real” (o lo más parecido posible), la distancia física vuelve a importar.
  • Costes de salida de datos (egress): mover datos hacia y desde centros de datos centralizados puede encarecer el uso, especialmente cuando hay mucho volumen o requisitos de soberanía.

Akamai refuerza el argumento con un dato citado en su anuncio: el MIT Technology Review habría señalado que el 56 % de las organizaciones identifican la latencia como la principal barrera para desplegar IA a escala. Con esa premisa, la empresa intenta posicionarse como “sistema nervioso descentralizado” para llevar modelos del laboratorio al mundo real, allí donde “vive” el dato y donde se calcula el retorno.

Qué va a desplegar exactamente: Blackwell para inferencia, afinado local y post-training

Akamai no ha revelado el número exacto de aceleradoras, pero sí ha insistido en que se trata de “miles” y que los chips ya han sido adquiridos. La plataforma está pensada para cubrir varias fases del ciclo de vida del modelo, no solo servir respuestas:

  • Inferencia de alto rendimiento y predecible, ejecutada en clústeres dedicados de GPU para respuestas rápidas.
  • Fine-tuning localizado, para optimizar modelos cerca del dato, con implicaciones claras para privacidad y cumplimiento regional.
  • Post-training, para adaptar modelos fundacionales con datos propietarios y mejorar precisión en tareas específicas.

En cuanto a la “cocina” técnica, Akamai describe una combinación que se alinea con el tipo de infraestructura que NVIDIA está empujando para la era Blackwell: servidores NVIDIA RTX PRO con GPUs NVIDIA RTX PRO 6.000 Blackwell Server Edition, junto a NVIDIA BlueField-3 DPUs, integradas en la nube distribuida de Akamai.

4.400 ubicaciones: la ventaja “no obvia” frente a los hiperescalares

Akamai insiste en un número que, en su caso, no es marketing vacío: su red global supera las 4.400 ubicaciones. En la práctica, esa capilaridad es la que permite vender un relato que los hiperescalares llevan años persiguiendo con “edge regions”, pero con una diferencia importante: Akamai parte de una infraestructura históricamente diseñada para estar cerca del usuario final.

La compañía encuadra esta estrategia como un paso más en su transición de “CDN + seguridad” a “cloud distribuida”. No es un giro improvisado: en 2022 cerró la compra de Linode por aproximadamente 900 millones de dólares, una operación que se interpretó como el gran movimiento para construir una base de computación generalista sobre la que sumar servicios de mayor valor.

Y aquí entra la IA: Akamai defiende que el mercado ha llegado al punto en el que el gran salto no será solo “tener el mejor modelo”, sino hacer que el modelo funcione con latencia mínima y costes razonables en entornos reales. En ese contexto, la empresa sitúa su plataforma como un “grid” global de cómputo de IA optimizado para inferencia.

Un paso más tras Inference Cloud: más GPUs, más presión por ROI

El anuncio también conecta con iniciativas anteriores. Akamai ya había presentado su Inference Cloud y, más adelante, una expansión con infraestructura NVIDIA orientada a llevar inferencia más cerca del usuario. En su comunicación, la compañía llegó a afirmar mejoras de latencia de hasta 2,5 veces y ahorros de hasta 86 % en costes de inferencia frente a infraestructura tradicional de hiperescalares, comparativas que, como siempre, dependen del tipo de carga, ubicación y patrón de tráfico.

La lectura de mercado es clara: las empresas quieren IA en producción, pero quieren también gobernanza, costes predecibles y respuesta rápida. Akamai afirma estar viendo “fuerte demanda” en su despliegue inicial con RTX PRO 6.000 Blackwell Server Edition y promete seguir añadiendo capacidad GPU como parte de su estrategia cloud.

La batalla que se abre: el edge como plataforma de IA

En el fondo, el movimiento de Akamai no compite solo por GPU. Compite por arquitectura: por la idea de que la IA operativa, la IA agéntica y la llamada “IA física” (robots, logística, industria, salud) van a necesitar decisiones con latencias muy bajas y con datos que, por coste o regulación, no siempre pueden viajar a una región centralizada.

En ese escenario, Akamai busca convertirse en una alternativa real para un segmento concreto del mercado: inferencia distribuida a escala, afinado local y despliegues que priorizan proximidad y cumplimiento. Si funciona, será otro síntoma de 2026: la IA deja de ser solo un problema de modelos y se convierte, de lleno, en un problema de infraestructura.


Preguntas frecuentes

¿Qué significa “inferencia” en Inteligencia Artificial y por qué es tan importante en 2026?
La inferencia es usar un modelo ya entrenado para responder en producción. En 2026 importa especialmente porque es donde se generan experiencias reales (y ROI), y donde la latencia y el coste del tráfico penalizan más.

¿Qué ventaja tiene una plataforma de IA distribuida frente a una nube centralizada?
Reduce la distancia entre el cómputo y el usuario o el dato, lo que puede recortar latencia y costes de salida de datos. También facilita cumplir requisitos de residencia de datos cuando el procesamiento puede hacerse más cerca.

¿Qué GPUs va a usar Akamai y para qué tipo de cargas?
Akamai ha anunciado el despliegue de miles de GPUs NVIDIA Blackwell, en servidores RTX PRO con GPUs RTX PRO 6.000 Blackwell Server Edition, orientadas a inferencia, fine-tuning localizado y post-training.

¿Akamai deja de ser un CDN para convertirse en cloud de IA?
No abandona su ADN, lo aprovecha. Su red global, nacida para distribución de contenidos, es precisamente la base para acercar computación a miles de ubicaciones y ejecutar inferencia con baja latencia.

vía: akamai

encuentra artículos

newsletter

Recibe toda la actualidad del sector tech y cloud en tu email de la mano de RevistaCloud.com.

Suscripción boletín

LO ÚLTIMO

Las últimas novedades de tecnología y cloud

Suscríbete gratis al boletín de Revista Cloud. Cada semana la actualidad en tu buzón.

Suscripción boletín
×