Oracle se endeuda por 18.000 millones de dólares para acelerar su despliegue de centros de datos de IA

Oracle ha dado un golpe de timón financiero para sostener su ambición en la nube de inteligencia artificial (IA). La compañía fundada por Larry Ellison ha ejecutado una colocación de bonos por 18.000 millones de dólares, según una comunicación registrada ante el regulador estadounidense, con el objetivo explícito de financiar inversiones de capital (capex) asociadas a un despliegue masivo de centros de datos y suministro de capacidad computacional para clientes de IA. La emisión incluye vencimientos escalonados: el primer tramo expira en 2030 y otros se extienden hasta 2065, de acuerdo con la documentación y las crónicas especializadas.

El movimiento llega en un momento en el que Oracle se ha convertido en pieza central del nuevo “boom” de la IA, particularmente por su alianza con OpenAI dentro del proyecto Stargate, una plataforma de infraestructura que promete gigavatios de capacidad de cómputo para sostener modelos generativos de última generación. En los últimos días, OpenAI, Oracle y SoftBank han anunciado cinco nuevos emplazamientos de centros de datos en EE. UU., además de la expansión del campus de Abilene (Texas). Con los nuevos sitios —Shackelford County (Texas), Doña Ana County (Nuevo México), Milam County (Texas), Lordstown (Ohio) y una localización no desvelada en el Medio Oeste— Stargate roza ya los 7 GW de capacidad planificada y supera los 400.000 millones de dólares de inversión comprometida para los próximos años, según los anuncios oficiales y reportes de agencias.

Una apuesta a décadas vista

La emisión de deuda revela dos ideas-fuerza. Primero, que Oracle quiere competir como proveedor “de facto” de capacidad de computación para los grandes actores de la IA, y que para ello necesita un colchón financiero con recorrido de décadas, de ahí la amortización hasta 2065. Segundo, que la ventana de oportunidad es ahora: la carrera por levantar centros de datos es intensiva en capital, dependiente de cadenas de suministro de hardware (GPUs, memoria HBM, redes, almacenamiento) y condicionada por la disponibilidad de energía y de permisos en localizaciones con red eléctrica robusta.

La compañía ya venía dejando pistas. En su última conferencia con analistas, Safra Catz —ex CEO y hoy presidenta— subrayó que Oracle había firmado contratos “significativos” con “quién es quién en IA”, y que tres de esos acuerdos eran multimillonarios en el primer trimestre de 2025. Ese tono se ha traducido en cifras de vértigo: Oracle comunicó 455.000 millones de dólares en “remaining performance obligations” (RPO) —obligaciones de desempeño pendientes—, un dato que sacudió a Wall Street y llegó a impulsar temporalmente a Larry Ellison al primer puesto de las mayores fortunas del mundo, por el revalorizado valor de sus acciones.

El engranaje Stargate: gigavatios, geografías y socios

Stargate se ha convertido en el gran aglutinador de centros de datos para IA en territorio estadounidense. La hoja de ruta presentada por OpenAI y sus socios apunta a 10 GW de capacidad —una cifra propia de un sistema eléctrico regional— y a una inversión total que, según diferentes reportes y comunicados, podría alcanzar los 500.000 millones de dólares cuando el proyecto esté completamente ejecutado. La expansión de cinco nuevos emplazamientos anunciada esta semana sitúa el objetivo por encima de los 6,5–7 GW en el corto plazo, con Abilene (Texas) como buque insignia y un ritmo de obra que busca anticipar la demanda de entrenamiento y “serving” de modelos.

Para Oracle, el encaje es doble. Por un lado, aporta capacidad OCI (Oracle Cloud Infrastructure) tanto en instalaciones propias como en centros de datos de terceros —incluidos Microsoft y Google—, un modelo “cloud everywhere” que le permite colocar hardware cerca de la demanda real, en vez de obligar a los clientes a mover cargas a regiones alejadas. Por otro, firma contratos a largo plazo de uso de esa capacidad con operadores de IA (OpenAI entre ellos), encadenando visibilidad de ingresos con economías de escala en compras de TI.

El contrato de 300.000 millones y el debate sobre la sostenibilidad

Uno de los titulares más llamativos del curso ha sido el presunto contrato de 300.000 millones de dólares entre OpenAI y Oracle para servicios cloud a cinco años, adelantado por medios financieros. Aunque esta cifra ha sido objeto de debate y escepticismo —por la envergadura del compromiso y por las necesidades de financiación históricas de OpenAI—, sirve como indicador del orden de magnitud al que se mueve la carrera de infraestructura de IA. El propio ecosistema ha visto acuerdos adicionales (CoreWeave, Nvidia) que engrasan la cadena de suministro de chips y capacidad, componiendo un rompecabezas financiero que algunos analistas consideran circular y potencialmente tensionado.

En paralelo, firmas de análisis y medios especializados han pedido “reality checks”: si bien la demanda de IA es tangible —y creciente—, monetizar a ese ritmo no es trivial. Los plazos de construcción de centros de datos, los cuellos de botella de suministro de GPUs y memorias avanzadas, y la interconexión eléctrica necesaria para sostener plantas de 300–600 MW por campus introducen riesgos operativos y financieros. Incluso con deuda a 40 años, el desfase temporal entre inversión y caja puede estresar balances si los flujos comprometidos no se materializan en tiempo y forma.

Por qué la deuda ahora

La macro explica parte del timing. El mercado de bonos corporativos vive un momento de fuerte demanda por emisiones “grado inversión” asociadas a historias de crecimiento. Según varias crónicas, Oracle inicialmente barajó levantar 15.000 millones y acabó ampliando la operación hasta 18.000 millones ante el apetito de los inversores, un síntoma de confianza en la tesis de la IA y en la capacidad de Oracle para cerrar contratos a largo plazo.

La otra parte de la ecuación está en la escala del capex. Un campus de IA “puntero” con centenares de megavatios requiere miles de millones en obra civil, energía, refrigeración, redes de alta velocidad, seguridad física y, cómo no, silicio (GPUs, interconexión NVLink/Infiniband, almacenamiento de alto rendimiento, memoria HBM). Financiar esa oleada de compras sin diluir capital y manteniendo coste de capital competitivo justifica salir al mercado de deuda, casando plazos (bonos a 2030–2065) con vida útil de activos (30–40 años) y contratos.

Energía, la variable estratégica

Nada de lo anterior funciona sin energía abundante, disponible y predecible en precio. Los anuncios de Stargate se mueven hacia nodos de red donde es factible asegurar gigavatios con combinaciones de generación tradicional, renovables, acuerdos “sleeved” y almacenamiento. Esta semana, los socios del proyecto han puesto números: hasta 25.000 empleos in situ en la fase de construcción y operación de los nuevos campus, y un empuje agregado que refuerza cadenas de proveedores locales. Pero el principal cuello de botella sigue siendo la conexión al grid, con tiempos de espera que pueden ir de 3 a 7 años si no existe infraestructura previa.

Para los estados y condados elegidos, la conciliación entre impacto económico y consumo eléctrico se ha convertido en un debate público. Algunas jurisdicciones exigen compromisos de eficiencia energética (PUE, reutilización de calor, refrigeración líquida, baterías BESS) y programas de formación para atraer y retener talento técnico. Oracle, acostumbrada a operar en centros de terceros además de los propios, podría modular su despliegue y acelerar la entrada en servicio utilizando colocation y acuerdos de “build-to-suit” para no depender solo de greenfields.

¿Cómo encaja Oracle con Microsoft, Google y otros hiperescalares?

Aunque se la percibe como competidora, Oracle actúa también como proveedor de infraestructura para Microsoft y otros hiperescalares. La estrategia “OCI colocada en casa ajena” reduce fricción comercial: el cliente puede consumir Oracle Database, Exadata y servicios OCI donde están sus cargas —incluso en centros de datos de Azure o Google—, mientras Oracle monetiza su hardware y suma RPO. El enfoque, poco ortodoxo para un “cloud puro”, mezcla colocation y cloud con acuerdos de interoperabilidad que hace cinco años eran raros y hoy son parte del paisaje de la IA.

Los riesgos: ejecución, costes y “carril izquierdo” regulatorio

El riesgo de ejecución es el más obvio: levantar varios gigavatios en pocos años implica obras simultáneas en múltiples estados, decenas de proveedores y miles de subcontratas. Cualquier retraso en subestaciones, líneas de transmisión, equipos de refrigeración o GPU puede desalinear el plan y encarecer el proyecto.

El riesgo financiero no es menor. Aunque el apalancamiento de Oracle ha funcionado históricamente como palanca de retornos para el accionista, un entorno de tipos volátil y contratos front-loaded (pagos adelantados, hitos) pueden estresar la caja si la demanda de IA —o su preciose normaliza antes de lo previsto. Algunos analistas ven señales de exuberancia en el ecosistema (contratos interconectados entre proveedores de chips, nubes y “AI labs”), con “financiación circular” que podría llamar la atención de autoridades antimonopolio en EE. UU. y la UE.

En lo regulatorio, la IA generativa vive bajo lupa. No solo por privacidad y derechos de autor, sino por seguridad y resiliencia de infraestructuras críticas. Los megacampus de IA compiten por capacidad eléctrica con industria, hogares y renovables, ubicando a operadores y utilities en el centro del debate energético.

¿Qué cambia para el mercado?

A corto plazo, la emisión de 18.000 millones da a Oracle munición para asegurar terrenos, potencia, chips y contratos EPC. A medio plazo, si Stargate mantiene el ritmo y los clientes de IA consumen lo comprometido, Oracle consolidará su papel como “casero” de la IA —un “landlord” que alquila cómputo y servicios gestionados a los laboratorios y corporaciones que no quieren —o no pueden— construir por su cuenta a esa escala. A largo plazo, el retorno dependerá de la elasticidad de precios del cómputo de IA, de la eficiencia energética alcanzada (menor PUE, refrigeración líquida, recuperación de calor) y de la evolución del hardware (nuevas generaciones de GPUs, NPUs, memoria HBM, interconexión óptica).

Lo que ya es incuestionable es que Oracle ha elegido el carril rápido. Con bonos hasta 2065, contratos multibillonarios y campus de cientos de megavatios, su apuesta no es coyuntural: se juega estar en el núcleo físico de la economía de la IA durante las próximas décadas. La pregunta —para Oracle, para OpenAI y para el resto del ecosistema— es si la curva de ingresos seguirá calzando con la curva de inversión al ritmo que hoy exigen los gigavatios.


Preguntas frecuentes

1) ¿Qué significa que Oracle tenga 455.000 millones de dólares en “remaining performance obligations” y por qué es relevante para los centros de datos de IA?
Las RPO representan ingresos comprometidos en contratos firmados pero todavía no reconocidos. Para el despliegue de IA, indican visibilidad a largo plazo de demanda de cómputo y servicios cloud. En la práctica, sirven para respaldar emisiones de deuda y planes de inversión plurianuales en centros de datos, al mostrar que la capacidad construida tiene consumo comprometido.

2) ¿Dónde estarán los nuevos centros de datos de Stargate y qué capacidad sumarán a corto plazo?
OpenAI, Oracle y SoftBank han confirmado cinco emplazamientos: Shackelford County (Texas), Doña Ana County (Nuevo México), Milam County (Texas), Lordstown (Ohio) y un sitio en el Medio Oeste aún por desvelar. Junto con Abilene (Texas) y proyectos paralelos, la capacidad planificada roza los 7 GW, con el objetivo de alcanzar 10 GW en la plataforma Stargate.

3) ¿Cómo encaja la emisión de 18.000 millones de dólares con los plazos y costes de los megacentros de datos de IA?
Los bonos permiten a Oracle precomprar energía, terreno, obra y hardware (GPUs, redes, almacenamiento) a gran escala. Al tener vencimientos hasta 2065, se alinean con la vida útil de los activos físicos y con contratos de varios años con clientes de IA, reduciendo el riesgo de refinanciación en el núcleo del ciclo inversor.

4) ¿Es realista un contrato de 300.000 millones de dólares entre OpenAI y Oracle? ¿Qué opinan los analistas?
Medios financieros han informado de un acuerdo de 300.000 millones a cinco años; sin embargo, la magnitud ha sido cuestionada por su exigencia de financiación y por la incertidumbre sobre la monetización de la IA a ese ritmo. En paralelo, OpenAI ha firmado acuerdos adicionales (p. ej., con CoreWeave) y el ecosistema muestra interdependencias financieras que algunos ven tensionadas. La lectura de consenso: el orden de magnitud es elevado y la ejecución será determinante.

5) ¿Qué riesgos regulatorios y de energía afronta un despliegue de 5–10 GW de IA en EE. UU.?
Los permisos eléctricos, la capacidad de transmisión, los PPA y las exigencias ambientales (eficiencia, agua, ruido, calor residual) pueden retrasar o encarecer proyectos. Además, el consumo eléctrico de la IA compite con otros usos del sistema, situando a los megacentros en el centro del debate público sobre sostenibilidad y prioridades del grid.

6) ¿En qué se diferencia la estrategia de Oracle frente a la de otros hiperescalares?
Oracle no solo compite: también coloca su hardware y servicios en centros de datos ajenos (Azure, Google), con una estrategia interoperable que combina colocation y nube. Esto le permite llegar antes a mercados donde otros ya operan y cerrar contratos de IA sin esperar a construir todas las regiones desde cero.

7) ¿Cuál es el impacto en empleo y en la economía local de los nuevos campus de IA?
Los socios de Stargate han estimado miles de empleos directos durante construcción y operación —hasta 25.000 in situ en los nuevos proyectos anunciados—, además de efectos tractores sobre proveedores, formación técnica y recaudación fiscal. El impacto definitivo dependerá de los incentivos estatales y del calendario de conexión a la red eléctrica.

8) ¿Qué tecnologías de eficiencia serán decisivas para contener costes operativos (OPEX) en los campus de IA?
La industria avanza hacia refrigeración líquida directa, inmersión, PUE por debajo de 1,2, recuperación de calor y almacenamiento BESS para gestionar picos. Estas inversiones reducen OPEX, mejoran la densidad por rack y alargan la vida útil de la infraestructura ante GPUs cada vez más calientes y densas. (Tendencia ampliamente reflejada en la literatura técnica y en informes sectoriales).

vía: datacenterdynamics

encuentra artículos

newsletter

Recibe toda la actualidad del sector tech y cloud en tu email de la mano de RevistaCloud.com.

Suscripción boletín

LO ÚLTIMO

×