Stargate se atasca y OpenAI redibuja su mapa de “compute”: más nube, más socios y menos certezas

OpenAI vive una paradoja propia de la carrera de la Inteligencia Artificial: cuanto más crece su demanda, más depende de una infraestructura que no controla del todo. La compañía que popularizó ChatGPT prometió —junto a Oracle y SoftBank— un salto histórico en capacidad de centros de datos bajo el paraguas de Stargate, pero el mercado del “compute” se ha convertido en una guerra de potencia eléctrica, suelo industrial y chips que no espera a nadie.

La promesa era mayúscula: Stargate nació como una iniciativa para invertir hasta 500.000 millones de dólares en cuatro años y levantar una red de infraestructura capaz de aportar 10 GW de capacidad para IA en Estados Unidos, anunciada públicamente en enero de 2.025.

Un megaprojecto, varias realidades

En el plano oficial, OpenAI ha ido presentando Stargate como una expansión acelerada: en septiembre de 2.025 anunció cinco nuevos emplazamientos de centros de datos en EE. UU., con el objetivo de acercarse a casi 7 GW y mantener el calendario hacia los 10 GW.

Sin embargo, la versión que circula en la trastienda del sector apunta a otra cosa: The Information ha publicado que el proyecto, como “joint venture” con gobernanza y estructura propia, habría sufrido bloqueos internos y fricciones sobre liderazgo y responsabilidades financieras, empujando a OpenAI a buscar alternativas en paralelo.

Esa tensión —entre el anuncio público y la complejidad real de ejecutar infraestructuras de esta escala— explica por qué Stargate, más que una obra lineal, parece un “paraguas” bajo el que se agrupan acuerdos bilaterales, socios locales, proveedores de energía y constructoras especializadas.

La salida: “control sin propiedad” y una nube más plural

La fotografía que se dibuja en 2.026 es clara: OpenAI está ampliando proveedores para no depender de un único suministro. En los últimos meses, la compañía ha reforzado su presencia en AWS con un acuerdo de varios años, al tiempo que mantiene alianzas con Oracle y suma capacidad de terceros como Google Cloud.

Este giro tiene implicaciones directas para clientes y socios: la IA ya no se apoya solo en “un gran datacenter”, sino en una malla de infraestructura distribuida, donde cada proveedor aporta algo distinto (acceso a chips, ubicaciones, capacidad de red, energía y velocidad de despliegue).

La propia Reuters ya informó en 2.025 de un movimiento poco habitual: OpenAI incorporó a Google Cloud como proveedor en un contexto de demanda creciente, después de que Azure dejara de ser su infraestructura exclusiva.

El cuello de botella: electricidad, suelo y GPU

Detrás del relato de “más nube” hay una realidad física: la carrera de la IA es también una carrera por la energía y por el hardware. En Texas, por ejemplo, SB Energy (vinculada a SoftBank) planteó una instalación de 1,2 GW relacionada con Stargate, un recordatorio de que estas cifras ya se miden en escala de red eléctrica, no de racks.

Y mientras tanto, los hiperescalares aceleran inversiones: el propio debate de mercado se ha desplazado a cuánto puede gastar el sector en IA en un solo año. Un informe citado por Reuters situaba en torno a 650.000 millones de dólares la inversión conjunta prevista de grandes tecnológicas en infraestructura de IA durante 2.026.

No solo NVIDIA: OpenAI busca “plan B” (y plan C) de chips

La presión no es solo de centros de datos, sino de silicio. OpenAI ha empezado a diversificar su dependencia de NVIDIA para ciertos escenarios, especialmente en inferencia, explorando alternativas con otros fabricantes y arquitecturas.

En enero de 2.026, OpenAI anunció una alianza con Cerebras para sumar 750 MW de computación enfocada a baja latencia, con despliegue por fases a partir de 2.026.

Además, Reuters informó a comienzos de febrero de 2.026 de que OpenAI estaba buscando alternativas a algunos chips recientes de NVIDIA para determinadas necesidades, explorando acuerdos con AMD, Cerebras y Groq, entre otros.

Esta estrategia tiene lectura industrial: cuando el cuello de botella es global, asegurar suministro implica no casarse con una sola ruta tecnológica. También ayuda a rebajar riesgos de calendario: si una generación de GPU se retrasa, o si un proveedor prioriza a otros clientes, la operación no se paraliza por completo.

La factura: el “compute” se come el futuro

La consecuencia lógica es el coste. Reuters publicó recientemente que OpenAI proyecta gastar alrededor de 600.000 millones de dólares en “compute” hasta 2.030.

En otras palabras: aunque Stargate naciera como la gran respuesta estructural, la realidad inmediata pasa por comprar capacidad donde exista, cerrando acuerdos con proveedores que sí tienen músculo financiero y ritmo de construcción, aunque eso signifique más complejidad operativa y menos control directo.

Qué significa para el mercado (y por qué importa a Europa)

Para el ecosistema tecnológico, esto consolida un mensaje incómodo: la ventaja competitiva en IA no depende solo de modelos y talento, sino de contratos de energía, permisos, ubicación y hardware. Y eso, en 2.026, ya se está traduciendo en decisiones de negocio: alianzas, precompras, inversión cruzada y acuerdos “a varios carriles” para evitar quedarse fuera.

También deja una derivada geopolítica: si la infraestructura se concentra en pocos actores capaces de levantar gigavatios de capacidad, el equilibrio entre innovación y dependencia se vuelve más frágil. En la práctica, la “soberanía” de la IA no se decide únicamente con leyes o estrategia industrial: se decide con centros de datos que se puedan construir, alimentar y llenar de chips.


Preguntas frecuentes

¿Qué es el proyecto Stargate de OpenAI y qué capacidad pretende alcanzar?
Stargate es una iniciativa anunciada en 2.025 para impulsar infraestructura de IA a gran escala en EE. UU., con el objetivo final de llegar a 10 GW de capacidad y una inversión total planteada de hasta 500.000 millones de dólares.

¿Por qué OpenAI usa AWS y Google Cloud si compiten en Inteligencia Artificial?
Porque el factor limitante es el “compute”: para entrenar y operar modelos a gran escala, OpenAI necesita capacidad y suministro de chips en múltiples nubes. Diversificar reduce riesgos de disponibilidad y acelera plazos.

¿Qué aporta el acuerdo de OpenAI con Cerebras a ChatGPT y a la inferencia?
Aporta capacidad de computación enfocada en latencia baja y alta disponibilidad para inferencia, con un plan de despliegue ligado a 750 MW de infraestructura, útil para cargas donde la velocidad de respuesta es crítica.

¿Qué impacto tiene el gasto masivo en centros de datos sobre empresas que quieren adoptar IA?
Puede mejorar el acceso a capacidad a medio plazo, pero también tensiona precios, plazos y disponibilidad en el corto. Para muchas organizaciones, el éxito de sus proyectos de IA dependerá de si pueden reservar recursos de nube a tiempo.

vía: digitimes

encuentra artículos

newsletter

Recibe toda la actualidad del sector tech y cloud en tu email de la mano de RevistaCloud.com.

Suscripción boletín

LO ÚLTIMO

Las últimas novedades de tecnología y cloud

Suscríbete gratis al boletín de Revista Cloud. Cada semana la actualidad en tu buzón.

Suscripción boletín
×