El mercado mundial de servicios de infraestructura cloud sigue creciendo con una regularidad que, hace apenas dos años, parecía difícil de sostener. El gasto global alcanzó US$ 102,6 mil millones en el tercer trimestre de 2025, lo que supone un aumento interanual del 25%. Es, además, el quinto trimestre consecutivo con crecimientos por encima del 20%, una señal de que la demanda no solo resiste, sino que se está reconfigurando alrededor de un fenómeno que ya condiciona presupuestos, planificación y estrategia: la Inteligencia Artificial pasando de las pruebas a los despliegues a escala.
El dato tiene una lectura que va más allá del volumen: el crecimiento se mantiene “estable” mientras las empresas dejan atrás la fase de experimentación. En la práctica, la nube ya no se mide únicamente por la potencia bruta o por el catálogo de modelos, sino por su capacidad para sostener aplicaciones empresariales con múltiples modelos, operaciones fiables y agentes funcionando en entornos reales, con continuidad de negocio y cumplimiento normativo.
Los hiperescalares concentran el 66% del gasto… pero el foco cambia
En ese tercer trimestre de 2025, AWS, Microsoft Azure y Google Cloud mantuvieron su orden en el ranking y, en conjunto, concentraron el 66% del gasto global en servicios de infraestructura cloud. Entre los tres registraron un crecimiento interanual del 29%, consolidando una realidad conocida: el núcleo del mercado sigue en manos de los grandes hiperescalares.
La novedad está en el tipo de competencia. La investigación sitúa el debate en un cambio de prioridades: menos obsesión por mejoras incrementales de rendimiento de modelos “por sí mismas” y más presión por ofrecer capacidades de plataforma que permitan desplegar y operar Inteligencia Artificial de forma robusta, especialmente cuando se trata de aplicaciones que combinan varios modelos, herramientas y agentes coordinados.
Aquí entra un concepto que empieza a sonar con fuerza en comités de dirección: multi-modelo como requisito de producción. La idea es sencilla: si el negocio depende de una carga generativa, la organización quiere poder cambiar de modelo por coste, por latencia, por control de riesgo o por disponibilidad. En otras palabras, la resiliencia ya no es solo infraestructura; también es estrategia de modelos.
AWS acelera hasta el 20% y firma su mejor trimestre desde 2022
AWS lideró el mercado con una cuota del 32% y un crecimiento interanual del 20%, su mejor desempeño desde 2022. Dos factores explican parte de esa aceleración: la mejora de restricciones de suministro de cómputo y la demanda adicional asociada a su relación con Anthropic.
Un indicador de la intensidad del momento es el backlog (cartera de pedidos) reportado por AWS al cierre del trimestre: US$ 200 mil millones. Es un dato que sugiere visibilidad de demanda a futuro y presión continuada sobre capacidad.
En el terreno de plataforma, AWS está empujando con Amazon Bedrock, que ha ido ampliando tanto la elección de modelos como las herramientas para operar en entorno corporativo. El informe menciona soporte para Claude 4.5, 18 modelos open-weight gestionados y mejoras en capacidades como Guardrails y automatización de datos. El mensaje es coherente con la tendencia: no se trata solo de “tener modelos”, sino de ponerles cinturón de seguridad, control y mecanismos de operación.
En paralelo, AWS utilizó re:Invent 2025 para reforzar su stack empresarial de extremo a extremo, desde modelos hasta agentes y automatización, con el anuncio de la familia Nova 2, Nova Act y Nova Forge, entre otros. Y, mientras tanto, siguió ampliando huella regional con la puesta en marcha de la región Asia Pacific (New Zealand) en septiembre, con tres zonas de disponibilidad, un movimiento ligado a residencia de datos y cargas sensibles a latencia.
Azure crece un 40% y pone el acento en Foundry y en la orquestación de agentes
Microsoft Azure mantuvo la segunda posición con un 22% de cuota y un crecimiento interanual del 40%, una cifra que refleja el peso de la demanda empresarial por Inteligencia Artificial. En octubre, Microsoft renovó su alianza con OpenAI, reforzando el vínculo de desarrollo y despliegue sobre Azure.
La pieza de plataforma que más se repite en el relato es Azure AI Foundry, que sigue ampliando su ecosistema de modelos. El informe destaca que da soporte a modelos de frontera como Claude Opus 4.5, Claude Sonnet 4.5 y Haiku 4.5, y que el servicio supera los 80.000 clientes con acceso a más de 11.000 modelos. Es un mensaje dirigido a un comprador muy concreto: el que ya ha entendido que su estrategia no puede depender de un único proveedor de modelos.
Pero el paso decisivo, en términos de “producción”, está en los agentes. En octubre, Microsoft presentó Microsoft Agent Framework, pensado para construir y orquestar sistemas multiagente. El informe cita casos de uso como KPMG, que lo estaría aplicando para mejorar procesos de auditoría, un ejemplo de cómo las grandes consultoras están intentando convertir la Inteligencia Artificial en una ventaja operativa, no solo en demostraciones.
La expansión de Azure también sigue el mapa de infraestructura: Microsoft anunció planes en noviembre para ampliar su región cloud en Malasia y lanzar una nueva región de centros de datos en India en 2026. Cuando el mercado se mueve hacia cargas de IA en producción, la geografía vuelve a mandar: soberanía del dato, latencia y capacidad local.
Google Cloud sube al 11% y presume de backlog al alza y tracción en IA empresarial
Google Cloud se mantuvo como tercer actor global, con un 11% de cuota y crecimiento interanual del 36%. Según el informe, el avance está impulsado sobre todo por su oferta de Inteligencia Artificial empresarial, con ingresos trimestrales de “varios miles de millones de dólares” en este segmento.
También destaca el salto de backlog: a 30 de septiembre, Google Cloud reportó US$ 157,7 mil millones, frente a US$ 108,2 mil millones del trimestre anterior. En mercados de infraestructura, el backlog suele ser una brújula más útil que el ruido semanal: indica contratos firmados y demanda comprometida.
En producto, Google continúa expandiendo Vertex AI Model Garden, añadiendo nuevos modelos, incluidas variantes multimodales de la serie Gemini 2.5, además de Kimi K2 Thinking y DeepSeek-V3.2. Y, en octubre de 2025, lanzó Gemini Enterprise, una plataforma que combina la familia Gemini con agentes empresariales, herramientas no-code y un paquete de seguridad y gobernanza, un punto crítico cuando se trata de operar Inteligencia Artificial fuera del laboratorio.
Del “benchmark” al “runbook”: operar agentes en el mundo real es más difícil de lo esperado
La investigación apunta a una realidad que muchos equipos ya han descubierto a golpes: desplegar agentes en producción no es solo una cuestión de modelos más capaces. Falta estandarización, faltan “bloques de construcción” para asegurar continuidad, experiencia de cliente y cumplimiento a la vez. Por eso los hiperescalares están elevando la inversión en capacidades de “build and run”, es decir, en herramientas para construir, desplegar y operar agentes de manera repetible.
En esa dirección se citan lanzamientos como AWS AgentCore y el Agent Framework de Microsoft, que buscan convertir lo agéntico en algo gobernable: políticas, observabilidad, control de costes y operaciones consistentes. El cambio de etapa se nota en el lenguaje: ya no basta con “probar”, ahora hay que operar.
Qué se entiende por “infraestructura cloud” en estas cifras
El informe utiliza una definición amplia de servicios de infraestructura cloud que incluye bare metal como servicio, IaaS, PaaS, contenedores como servicio y serverless, siempre que estén alojados por terceros y se consuman a través de Internet. Este matiz importa porque coloca en la misma cesta componentes que, para el cliente, forman parte del mismo objetivo: ejecutar cargas críticas con elasticidad, seguridad y un modelo operativo claro.
El resultado, en resumen, es un mercado que crece porque la demanda ya no es aspiracional: es operativa. La Inteligencia Artificial empieza a comportarse como una carga empresarial más… solo que mucho más exigente en cómputo, datos y gobierno.
Preguntas frecuentes
¿Por qué el soporte multi-modelo se está convirtiendo en un requisito para despliegues de Inteligencia Artificial en producción?
Porque las empresas buscan resiliencia, control de costes y flexibilidad: poder cambiar de modelo por precio, rendimiento, cumplimiento o disponibilidad reduce riesgo operativo y dependencia de un único proveedor.
¿Qué significa que el mercado cloud pase de “experimentación” a “producción” en 2025?
Significa que las inversiones se orientan menos a pilotos y más a despliegues estables: gobernanza, observabilidad, continuidad de negocio, seguridad y operación de agentes y aplicaciones generativas a escala.
¿Qué es el backlog de los hiperescalares y por qué se usa como indicador de demanda?
Es la cartera de pedidos comprometidos (contratos ya firmados o ingresos futuros asegurados). Cuando sube, suele indicar visibilidad de crecimiento y demanda sostenida, incluso si el trimestre tiene ruido coyuntural.
¿Qué servicios se incluyen al medir “infraestructura cloud” en este tipo de informes?
Normalmente se agrupan bare metal como servicio, IaaS, PaaS, servicios gestionados de contenedores (CaaS) y serverless alojados por terceros y consumidos por Internet.
vía: omdia