AWS, Microsoft Azure y Google Cloud refuerzan su liderazgo con chips propios y expansión global, mientras las empresas aceleran su migración al cloud para desplegar IA generativa
El gasto mundial en servicios de infraestructura en la nube alcanzó los 90.900 millones de dólares en el primer trimestre de 2025, lo que representa un crecimiento interanual del 21 %, según los últimos datos de Canalys (ahora parte de Omdia). Este aumento está directamente relacionado con la adopción masiva de aplicaciones de Inteligencia Artificial, que ha convertido a la nube en un componente estratégico para empresas de todos los sectores.
El auge de la IA generativa está redefiniendo las prioridades tecnológicas de las organizaciones, que aceleran sus procesos de migración al cloud y priorizan la eficiencia en costes de inferencia, la fase crítica donde se ejecutan los modelos de IA entrenados. A medida que los modelos se despliegan a gran escala, los proveedores de nube invierten agresivamente en infraestructura optimizada, incluyendo chips propios y servicios especializados.
Los gigantes del cloud siguen dominando el mercado
El podio del mercado se mantiene sin cambios. Amazon Web Services (AWS), Microsoft Azure y Google Cloud concentran el 65 % del gasto global, con un crecimiento conjunto del 24 % respecto al mismo periodo de 2024. Sin embargo, el ritmo de crecimiento ha sido desigual:
- Microsoft Azure creció un 33 % interanual, alcanzando el 23 % de cuota de mercado. Su plataforma Azure AI Foundry, que ya usan más de 70.000 empresas, procesó más de 100 billones de tokens en el trimestre. Además, Microsoft mejoró en un 30 % el rendimiento energético de sus soluciones de IA y redujo en más del 50 % el coste por token.
- Google Cloud conservó un 10 % del mercado y creció un 31 %, pese a ligeras restricciones de capacidad. Su modelo Gemini 2.5 Pro ha liderado benchmarks en el entorno generativo, y la adopción de su API Gemini y Google AI Studio ha aumentado más del 200 % desde enero.
- AWS, aunque sigue liderando con un 32 % de cuota, desaceleró su crecimiento al 17 %, debido a limitaciones de suministro. Para competir con NVIDIA, Amazon ha reforzado su oferta con el chip Trainium 2, que ofrece una mejora de 30 a 40 % en relación coste-rendimiento. Además, ha expandido su servicio Bedrock con modelos como Claude 3.7 y Llama 4, y ha anunciado una inversión de 4.000 millones de dólares para abrir una nueva región cloud en Chile en 2026.
IA como motor y reto económico
El informe subraya que la transición de la IA desde el ámbito de la investigación hacia despliegues empresariales masivos pone el foco en los costes de inferencia, mucho más críticos que el entrenamiento inicial. “A diferencia del entrenamiento, que es una inversión única, la inferencia es un coste operativo recurrente”, explica Rachel Brindley, directora sénior de Canalys.
Además, muchos servicios de IA operan bajo modelos de pago por uso (por tokens o llamadas API), lo que dificulta la previsión de costes a medida que el uso escala. “Esto obliga a las empresas a limitar la complejidad de los modelos o restringir su uso a casos de alto valor”, añade Yi Zhang, analista de Canalys.
La respuesta: chips propios y eficiencia
Para afrontar estos desafíos, los hiperescaladores están apostando por chips diseñados específicamente para IA, como Trainium (AWS) y TPU (Google). Estos aceleradores, junto con nuevas familias de instancias cloud, buscan reducir los costes totales y mejorar la eficiencia energética.
En paralelo, la expansión de centros de datos continúa a ritmo acelerado. Microsoft abrió nuevas instalaciones en 10 países solo en el primer trimestre, mientras que Google ha sumado su región cloud número 42 en Suecia y destinará 7.000 millones de dólares a su centro de datos en Iowa.
Conclusión
El primer trimestre de 2025 confirma que la nube ya no es solo una plataforma de computación, sino la infraestructura crítica para la era de la inteligencia artificial. El gasto global crece a doble dígito, impulsado por la urgencia empresarial de modernizarse y no quedarse atrás en la carrera tecnológica. A medida que los modelos de IA se vuelven más complejos y su uso más extendido, la batalla por la eficiencia de la inferencia será tan decisiva como la de la capacidad de cómputo. Los gigantes del cloud ya lo saben y han puesto toda su maquinaria a trabajar.
Fuente: canalys