OpenAI no está construyendo una empresa. Está levantando una civilización de silicio. Así lo sugiere la última declaración pública de Sam Altman, su director ejecutivo, quien ha anunciado que la compañía superará el millón de GPUs en funcionamiento antes de que acabe 2025. Un logro impresionante que, sin embargo, Altman despachó en redes sociales con una mezcla de orgullo y ambición desbordada: “Muy orgulloso del equipo, pero ahora tienen que ver cómo multiplicar eso por 100, lol”.
La frase suena casual. Pero en el universo de Altman —y de OpenAI— nada es casual. En este momento, la empresa que creó ChatGPT está posicionándose como la mayor fuerza computacional del planeta, con una infraestructura que no solo redefine lo que una empresa tecnológica puede llegar a ser, sino que plantea preguntas profundas sobre energía, gobernanza y poder digital.
La era del millón de GPUs
Para quienes no están familiarizados, una GPU (unidad de procesamiento gráfico) es el componente clave en la carrera de la inteligencia artificial. Son las piezas que permiten entrenar modelos como GPT-4, DALL·E o Codex. Y mientras empresas como xAI de Elon Musk apenas rozan las 200.000 GPUs, OpenAI está a punto de quintuplicar ese número.
¿La razón? El límite ya no es el algoritmo, sino el hardware. Altman lo sabe. De hecho, en febrero reconoció que tuvieron que ralentizar el despliegue de GPT‑4.5 por falta de GPUs. Desde entonces, OpenAI se ha lanzado a una expansión sin precedentes, con nuevos centros de datos, acuerdos estratégicos con Microsoft, Oracle, y posiblemente Google, y un proyecto logístico que parece más una infraestructura nacional que un negocio privado.
El monstruo de Texas
Uno de los emblemas de esta expansión es su mega data center en Texas, el mayor del mundo para IA, que ya consume 300 megavatios y apunta a llegar a 1 gigavatio en 2026. Es decir, lo suficiente para alimentar a una ciudad entera. Este crecimiento ha desbordado a los operadores eléctricos locales, que ya advierten sobre los desafíos técnicos de estabilizar una red que alimente semejante bestia digital.
En otras palabras, estamos ante una IA que consume tanto como la industria pesada, con una huella de carbono y un impacto en infraestructuras que no puede ignorarse.
¿100 millones de GPUs?
La idea de escalar de 1 a 100 millones de GPUs parece absurda… y sin embargo, es justo eso lo que Altman ha planteado. El cálculo económico da vértigo: unos 3 billones de dólares solo en hardware. Pero la ambición no es construir exactamente eso, sino encontrar caminos alternativos: chips personalizados, arquitecturas más eficientes, almacenamiento óptico, silicio fotónico. Todo lo que permita escalar sin explotar.
No se trata de gastar más, sino de pensar diferente. El objetivo es AGI, inteligencia artificial general, un sistema que piense como un ser humano. Y si para ello hay que replantear el modelo energético global, OpenAI parece dispuesta.
La computación como ventaja competitiva
En este nuevo escenario, la infraestructura es la verdadera diferenciación. Ya no basta con tener el mejor modelo; hay que tener la capacidad de entrenarlo, desplegarlo y escalarlo más rápido que el resto. OpenAI, con este millón de GPUs, establece un nuevo estándar que deja atrás a buena parte del sector.
Y no está sola. Meta, Amazon, Google y hasta Apple trabajan en chips propios y centros de datos especializados. La guerra del talento se ha trasladado al terreno físico: quién controla la energía, los materiales, el silicio, el ensamblaje.
¿Un futuro insostenible?
Lo que inquieta es que todo esto está ocurriendo sin un debate amplio sobre las consecuencias. ¿Quién gestiona estos recursos? ¿Qué pasa si una empresa tiene más capacidad de cómputo que muchos países? ¿Dónde quedan la transparencia, la regulación o el acceso equitativo?
Sam Altman, con su tono informal, sigue empujando la frontera. Pero lo que está en juego es mucho más que una cifra redonda. El millón de GPUs de OpenAI marca el inicio de una nueva fase de la historia tecnológica. Una donde la infraestructura se convierte en poder. Y donde la IA, lejos de ser etérea, se mide en toneladas de metal, megavatios y metros cúbicos de aire acondicionado.
La verdadera pregunta ya no es si podemos construir una IA más poderosa.
Es si podemos —y debemos— sostenerla.
we will cross well over 1 million GPUs brought online by the end of this year!
— Sam Altman (@sama) July 20, 2025
very proud of the team but now they better get to work figuring out how to 100x that lol
Fuente: Noticias inteligencia artificial