OpenAI mueve ficha: del “todo Azure” al multicloud de gran calibre con AWS, Google y Oracle

La batalla de la Inteligencia Artificial ya no se libra solo en los laboratorios de modelos. Se decide —cada vez más— en los contratos de infraestructura. En apenas unos meses, OpenAI ha pasado de apoyarse casi por completo en Microsoft Azure a desplegar una estrategia multicloud sin precedentes, con acuerdos de enorme envergadura con Amazon Web Services (AWS), Google Cloud y Oracle. El resultado es un mapa de poder que se mueve, y rápido: la empresa detrás de ChatGPT asegura capacidad de cómputo en varios frentes y obliga a reconfigurar el equilibrio entre los grandes hiperescaladores.

El último movimiento, anunciado el 3 de noviembre de 2025, fue el más sonado: un contrato a siete años con AWS valorado en 38.000 millones de dólares para ejecutar y escalar cargas de entrenamiento, inferencia y —clave— IA agéntica. No es solo “más nube”: el compromiso incluye cientos de miles de GPU de NVIDIA (series GB200 y GB300) interconectadas en Amazon EC2 UltraServers, y la opción de escalar a decenas de millones de CPU para las partes lógicas y secuenciales que demandan los agentes. La capacidad empieza a desplegarse de inmediato, con el objetivo de tener el grueso antes de que acabe 2026 y margen de crecimiento hacia 2027.

Pero el giro de OpenAI no se explica sin los otros pilares del multicloud. Microsoft sigue siendo socio estructural —con inversión y derechos—; Google se sumó en junio para ampliar capacidad; y Oracle ya colabora desde 2024 y, según la prensa económica, habría cerrado un acuerdo monumental para la segunda mitad de la década. A continuación, las piezas de este puzle y lo que significan para la guerra de la IA.


Microsoft: de proveedor casi exclusivo a accionista de referencia… con multicloud permitido

Durante años, Azure fue la casa de OpenAI. En octubre de 2025, tras la recapitalización y el cambio de estructura legal de la compañía, Microsoft pasó a ostentar alrededor del 27 % de OpenAI (vía participación en su nueva PBC), consolidando un vínculo financiero que convive —y esto es nuevo— con la apertura a otros proveedores de nube. Ese mismo marco incluyó un compromiso adicional de consumo en Azure de 250.000 millones de dólares, al tiempo que caducaba el derecho de tanteo que otorgaba a Microsoft prioridad sobre nuevas cargas. Traducido: Microsoft sigue dentro, y fuerte, pero OpenAI se reservó la libertad de diversificar.

Esa diversificación responde a necesidades físicas (energía, espacio, suministro de chips, latencias intercontinentales) y a necesidades financieras: con modelos que crecen y un plan de negocio que aspira a escalar servicios y agentes a gran ritmo, atarse a un único proveedor aumenta el riesgo.


AWS: 38.000 millones para poner la infraestructura en el centro

El acuerdo con AWS marcó un punto de inflexión: OpenAI utilizará inmediatamente la infraestructura de Amazon para entrenamiento, inferencia y agentes. El componente técnico importa:

  • GPU a gran escala: GB200 y GB300 de NVIDIA en clusters UltraServers, con redes internas pensadas para latencia baja y rendimiento sostenido.
  • CPU masiva: capacidad para tens of millions of CPUs, que no es una cifra de marketing, sino la pista de que OpenAI va a orquestar agentes en enjambres, con estados, colas y políticas.
  • Calendario: despliegue desde ya, objetivo fin de 2026 y expansión en 2027+.

Para AWS, el movimiento es estratégico: durante meses se le percibió “por detrás” en la conversación de IA frente a Microsoft y Google; con Anthropic ya en casa y ahora OpenAI, se convierte en la “Suiza” del cómputo de frontera: la autopista por la que circulan varios de los mejores modelos del mundo. Para NVIDIA, la señal es inequívoca: sigue siendo piedra angular del sector; OpenAI pide sus GPU, no las alternativas propias del proveedor.


Google Cloud: capacidad adicional para una demanda que no para

En junio de 2025, otros medios adelantaron que OpenAI incorporaría Google Cloud para ampliar capacidad. No hubo megacifra pública ni un despliegue de titulares, pero el gesto fue significativo: dos rivales directos en modelos (Google con Gemini) y en productos (ChatGPT vs. competidores) colaboran porque la física manda. Si la IA de frontera exige megavatios y silicio a ritmo de récord, sumar centros de datos repartidos por el mundo recorta latencias, añade redundancia y alivia riesgos de suministro.

Desde la óptica de Google, ganar carga de OpenAI es una validación de su infraestructura de IA (redes, almacenamiento de alto rendimiento, seguridad) y un jalón más en su discurso de “nube lista para IA”. Desde la óptica de OpenAI, es asegurar que ninguna región o proveedor se convierte en punto único de fallo cuando la demanda sube de golpe.


Oracle: del “Azure sobre OCI” al gran contrato de la segunda mitad de la década

Oracle fue el primer tercero en salir en la foto junto a Microsoft para extender Azure AI sobre Oracle Cloud Infrastructure (OCI), un esquema anunciado en junio de 2024: más capacidad para Azure, alojada en OCI, con latencias bajas gracias a las interconexiones propietarias entre ambas nubes. Un año después, en septiembre de 2025, The Wall Street Journal y otros medios especializados apuntaron a un acuerdo histórico entre Oracle y OpenAI para la segunda mitad de la década: unos 300.000 millones de dólares en cinco años con 4,5 GW de capacidad de centros de datos, a partir de 2027. Oracle no entró en detalles, OpenAI no lo desmintió, y la cifra —aunque por confirmar en su desglose— encaja con la carrera por asegurar energía, suelo y redes a gran escala.

Hay aquí una clave que a menudo se pasa por alto: los contratos de multicloud ya no son solo “otra región” o “mejor precio”. Son lotes de energía, permisos y obras. Aseguran gigavatios, subestaciones, cables, sistemas de refrigeración y contratación local. Quien llegue tarde, no entrena ni infiere por muy buen modelo que tenga.


Por qué OpenAI se pasa al multicloud (y por qué esto cambia el sector)

  1. Riesgo operativo: si un proveedor sufre un cuello de botella (chips, permisos, energía), el programa no se detiene. Se redirige.
  2. Cobertura y latencia: inferencias y agentes con usuarios globales piden proximidad; dispersar capacidad reduce colas y errores.
  3. Negociación de costes: compromisos multianuales con varios proveedores afinando precio y prioridad.
  4. Gobernanza: con reguladores mirando el oligopolio IA+nube, repartir cargas rebaja riesgos de concentración.

Para los hiperescaladores, el mensaje es doble. Microsoft mantiene un cliente e inversor clave, pero ya no está solo. AWS recupera protagonismo y acelera su narrativa de “columna vertebral de la IA”. Google entra en la foto de capacidad y Oracle se posiciona para el siguiente tramo (2027+). Para NVIDIA, todos los caminos llevan —de momento— a sus GPU: la demanda crecerá donde haya chips y energía.


¿Y los números? La física y la contabilidad

Quien mire solo la línea de ingresos de OpenAI —del orden de 13.000 millones de dólares al año— frente a un capex comprometido que, sumando todos los acuerdos, algunos analistas elevan por encima del billón (anglosajón), verá una aparente disonancia. No lo es tanto si se entiende el modelo financiero que ya popularizó la nube generalista en la última década:

  • Contratos de consumo garantizado a varios años.
  • Inversión de proveedor (centros de datos, energía, redes, chips) respaldada por esos compromisos.
  • Precio y prioridad para el cliente, que monetiza producto (ChatGPT, API, agentes, verticales).

El riesgo no desaparece —ni para el proveedor, ni para el cliente—, pero se reparte sobre un calendario y varias geografías.


Qué implica para empresas y desarrolladores

Más capacidad disponible en AWS, Azure, Google y OCI para cargas de IA “listas para escalar”. Veremos nuevas instancias y servicios gestionados que hereden las mejoras de red y almacenamiento desplegadas para OpenAI. La IA agéntica ganará terreno porque, por fin, habrá CPU y memoria cerca del dato para organizar flujos complejos con SLOs razonables. Y el precio por token tenderá a estabilizar si la competencia por alojar a los grandes reduce tensiones.

Para equipos técnicos, la lección es táctica: diseñar arquitecturas portables, multimodelo y multiagente; cuidar gobernanza (quién pregunta, con qué datos, qué devuelve, cómo se audita); y medir desde el día uno TTFT, p95/p99 y coste por interacción. El vendor lock-in no desaparece, pero se negocia mejor con dos o tres asientos en la mesa.


Lo que falta por ver en 2026

  • Energía y permisos: ¿serán capaces los proveedores de levantar gigavatios al ritmo pactado?
  • Redes y latencia: ¿hasta dónde llegarán las redes internas para clústeres multimillonarios en tokens/s sin cuellos?
  • Regulación: FTC y Comisión Europea miran ya el oligopolio IA+nube; habrá remedios y condiciones.
  • Economía de agentes: si la IA agéntica cumple su promesa, veremos cadenas de valor reescritas; si no, será otra capa de “asistentes” más cara.

Preguntas frecuentes

¿Sigue Microsoft siendo el proveedor principal de OpenAI?
Sigue siendo un socio clave: invierte (≈ 27 % tras la recapitalización) y OpenAI ha ampliado su compromiso de consumo en Azure (≈ 250.000 millones de dólares). Pero OpenAI ya no depende en exclusiva de Azure: puede llevar nuevas cargas a AWS, Google Cloud u Oracle.

¿Qué aporta el acuerdo de 38.000 millones con AWS que no tuviera Azure?
Entrega inmediata de grandes clústeres GPU (GB200/GB300) en UltraServers, redes internas para latencias bajas y capacidad de escalar CPU a gran escala para agentes. Es, sobre todo, diversificación: más capacidad, más geografías y precio negociado.

¿OpenAI usa también Google Cloud?
Sí. En junio de 2025, OpenAI incorporó Google Cloud para ampliar capacidad, según avanzó Reuters. No se comunicaron cifras como en AWS, pero la colaboración forma parte de la estrategia multicloud.

¿Qué pasa con Oracle? ¿Realidad o rumores?
OpenAI ya colabora con Oracle desde 2024 en el esquema Azure sobre OCI (más capacidad de Azure alojada en Oracle). Además, WSJ y otros medios informaron en septiembre de 2025 de un acuerdo de 300.000 millones a cinco años a partir de 2027. Oracle no detalló el contrato; de confirmarse, sería uno de los mayores de la historia de la nube.

encuentra artículos

newsletter

Recibe toda la actualidad del sector tech y cloud en tu email de la mano de RevistaCloud.com.

Suscripción boletín

LO ÚLTIMO

×