Amazon está dispuesta a llevar la carrera por la infraestructura de Inteligencia Artificial a un nuevo nivel. Según la información publicada en las últimas semanas, la compañía prevé elevar su gasto de capital (capex) hasta los 200.000 millones de dólares en 2026, una cifra que apunta principalmente a ampliar centros de datos de AWS, reforzar redes y seguir empujando su apuesta por chips propios para IA. El movimiento refleja una realidad cada vez más incómoda para el sector: en la nube, el gran cuello de botella ya no es solo el software, sino la capacidad física disponible.
La señal que envía Amazon es clara. Las empresas están pasando de probar casos de uso a operar IA en producción, y ese salto multiplica el consumo de cómputo, almacenamiento, redes y —sobre todo— energía. No se trata solo de “tener GPU”: hacen falta racks completos, refrigeración, fibra, equipos de conmutación, contratos de electricidad y una planificación que se mide en años. En ese escenario, Amazon apuesta por construir antes de que la demanda desborde el sistema.
De 131.000 a 200.000 millones: el capex como termómetro de la fiebre de la IA
Reuters sitúa el punto de partida en 131.000 millones de dólares de capex en 2025 y el salto en 2026 hasta 200.000 millones, un incremento de más del 50%. Esa aceleración explica por qué Wall Street mira cada anuncio de inversión con una mezcla de fascinación y nerviosismo: el mercado quiere crecimiento, pero también exige que el gasto se convierta en ingresos sostenibles.
En la llamada con inversores citada por Reuters, Andy Jassy defendió que AWS sigue creciendo con fuerza y recordó un detalle importante: comparar porcentajes sin mirar la base puede distorsionar la película. En el último trimestre reportado, AWS aumentó ingresos hasta 35.600 millones de dólares, con un 24% interanual, mientras que Google Cloud crecía más rápido en porcentaje sobre una base menor y Azure mantenía un ritmo elevado. En otras palabras: AWS no es el que más acelera, pero compite desde una pista mucho más larga.
Tabla — Capex de Amazon y crecimiento de AWS (referencias públicas recientes)
| Indicador | Dato |
|---|---|
| Capex 2025 (Amazon) | 131.000 millones $ |
| Capex 2026 (Amazon, previsto) | 200.000 millones $ |
| Variación aproximada | +52,7% |
| Ingresos AWS (trimestre citado) | 35.600 millones $ |
| Crecimiento interanual AWS (trimestre citado) | +24% |
La “nube para IA” cambia las reglas: más energía, más red, más chips
Durante años, la expansión cloud se explicó como una migración: sacar servidores de on-premise y llevarlos a un proveedor. La IA ha alterado ese guion. Entrenar y servir modelos modernos eleva de forma drástica el consumo de cómputo y red, y obliga a redimensionar todo lo que hay alrededor: desde la topología del data center hasta el diseño térmico.
Amazon, además, ha intentado no depender únicamente del silicio externo. Sus chips Trainium e Inferentia —orientados a entrenamiento e inferencia— forman parte de una estrategia para optimizar costes y disponibilidad en un mercado donde el hardware especializado se ha convertido en recurso escaso. En este punto, el capex ya no es solo “más edificios”: también es más ingeniería de plataforma, más capacidad de red de baja latencia, y más inversión en componentes que acortan el camino entre datos y decisión.
Una carrera de hiperescalares que se mide en cientos de miles de millones
Amazon no está sola. Bridgewater estima que Alphabet, Amazon, Meta y Microsoft podrían invertir en conjunto alrededor de 650.000 millones de dólares en infraestructura de IA en 2026, frente a 410.000 millones en 2025. El análisis describe una fase más arriesgada: la demanda de cómputo sigue superando a la oferta, y el sector acelera el gasto para intentar ponerse al día.
Esa dinámica tiene un efecto dominó. A mayor inversión, mayor presión sobre cadenas de suministro, suelos industriales, permisos, disponibilidad de potencia y precios energéticos. Y, por el otro lado, más dependencia: si una empresa construye su operación alrededor de IA en la nube, la disponibilidad de capacidad y la resiliencia dejan de ser “detalles técnicos” y pasan a convertirse en requisitos de negocio.
Qué puede significar para las empresas: capacidad, plazos y estrategia de proveedor
Para el cliente corporativo, el anuncio tiene una lectura práctica: Amazon cree que la demanda seguirá creciendo y está intentando evitar que AWS se convierta en un embudo. Si la inversión se traduce en más capacidad efectiva, las organizaciones deberían ver:
- Menos fricción para escalar proyectos de IA (del piloto a producción) sin chocar con límites de infraestructura.
- Más opciones de arquitectura, especialmente si AWS amplía la disponibilidad y madurez de su hardware propio para IA.
- Una nube cada vez más “plataforma de automatización”, no solo alojamiento: la infraestructura se vuelve parte del producto.
Pero también hay una advertencia implícita: si la industria se equivoca en el ritmo de adopción o en la rentabilidad futura, el coste de mantener esa infraestructura puede tensionar márgenes y precios. Por eso el debate ya no es únicamente tecnológico, sino financiero y operativo.
Al final, la gran transformación de 2026 no es que “la nube haga IA”. Es que la IA está obligando a la nube a comportarse como una industria pesada: con inversiones de escala casi eléctrica, planificación a largo plazo y una batalla silenciosa por los recursos físicos que hacen posible el software.
Preguntas frecuentes
¿Qué significa “capex” en AWS y por qué importa para proyectos de IA generativa?
El capex es el gasto en infraestructura (centros de datos, servidores, red, chips, etc.). En IA generativa es crítico porque determina cuánta capacidad real existe para entrenar y ejecutar modelos a escala.
¿Cómo afectan los chips Trainium e Inferentia de AWS a los costes de IA en la nube?
Son hardware diseñado por Amazon para optimizar entrenamiento e inferencia. Si se adoptan ampliamente, pueden ayudar a mejorar disponibilidad y ajustar costes frente a alternativas basadas en terceros, según el tipo de carga y el software utilizado.
¿Puede esta expansión reducir los problemas de “falta de capacidad” de GPU en la nube?
Ese es el objetivo: ampliar centros de datos y plataforma debería aliviar parte de la presión. Aun así, la demanda está creciendo muy rápido y el equilibrio oferta-demanda puede seguir siendo ajustado en picos.
¿Qué deberían tener en cuenta CIOs y equipos de plataforma al planificar IA para 2026–2027?
Conviene diseñar con resiliencia: estrategia multi-región, observabilidad de costes, planes de contingencia de capacidad, y una evaluación realista de dependencias (modelo, datos, red, latencia y compromisos de proveedor).