Musk agita la carrera de la IA con una idea de ciencia ficción: centros de datos en órbita… y un nuevo cuello de botella

Elon Musk vuelve a poner sobre la mesa una propuesta que parece salida de una novela: llevar parte de la infraestructura de Inteligencia Artificial al espacio. No como una metáfora, sino como un plan que, en su relato, terminaría siendo “económicamente convincente” en cuestión de pocos años. La razón que esgrime no es tecnológica, sino eléctrica: la expansión actual de la IA estaría chocando contra un límite muy terrenal —la energía disponible y la capacidad real de las redes para alimentar nuevos centros de datos—.

La idea ha ganado tracción en los últimos días por dos vías. Por un lado, Musk defendió en una entrevista extensa que el “factor limitante” de la industria está cambiando: primero será la energía y, una vez superada, pasarán a ser los chips. Por otro, SpaceX ha pedido autorización a la FCC estadounidense para desplegar una constelación gigantesca de satélites pensados para operar como “centros de datos” solares en órbita, una cifra que llega a mencionar hasta 1.000.000 de unidades en el papel.

En la entrevista, Musk plantea un horizonte agresivo: “en 36 meses, pero probablemente más cerca de 30”, el lugar más barato para instalar IA sería el espacio. En su razonamiento, la Tierra ofrece demasiadas fricciones para crecer al ritmo que exigen los modelos: permisos, conexión a red, cuellos de botella industriales, y un sistema eléctrico que no se amplía al compás de la demanda. Lo resume con una imagen que pretende ser contundente: Estados Unidos consume en promedio alrededor de 0,5 teravatios; hablar de 1 teravatio sería duplicar ese consumo. En ese escenario, pregunta implícitamente, ¿cuántas centrales y cuántos centros de datos habría que construir para sostener la ola?

El argumento de Musk se apoya en un debate cada vez menos teórico. La Agencia Internacional de la Energía (IEA) estima que el consumo eléctrico global de los centros de datos podría más que duplicarse hasta rondar los 945 TWh en 2030, con un crecimiento cercano al 15% anual entre 2024 y 2030, impulsado en gran medida por la IA. Dicho de otro modo: aunque la industria sea capaz de fabricar más aceleradores y más servidores, encenderlos y mantenerlos operativos empieza a ser el problema.

Elon Musk – "In 36 months, the cheapest place to put AI will be space”

Ahí entra el “escape orbital”. En el espacio, sostiene Musk, el suministro energético sería más sencillo gracias a la energía solar casi constante. No habría noches ni meteorología, y el sistema podría escalar con menos dependencia del territorio, del agua y de la red eléctrica. Pero esa promesa se encuentra con un obstáculo que los ingenieros repiten como un mantra: el calor.

En la Tierra, un centro de datos expulsa calor con aire, agua y grandes sistemas de refrigeración basados en convección. En el vacío, no hay convección: el calor solo puede disiparse por radiación, lo que obliga a radiadores grandes, pesados y caros. La Associated Press recogía el escepticismo de expertos que advierten de que un chip sin refrigeración adecuada en el espacio puede sobrecalentarse rápidamente, justo en el entorno donde, paradójicamente, “todo parece frío”. Musk, en su entrevista, intenta adelantarse a esa crítica con una receta concreta: diseñar chips más tolerantes a la radiación y capaces de operar a mayor temperatura. Incluso sostiene que, en redes neuronales enormes, los “bit flips” aleatorios por radiación serían menos dramáticos que en programas heurísticos tradicionales, por la resiliencia estadística de modelos con billones de parámetros. El enfoque, sin embargo, no elimina lo esencial: el calor hay que sacarlo de alguna manera.

La discusión no se queda en lo conceptual. Reuters informaba de que el CEO de AWS, Matt Garman, rebajó el entusiasmo y calificó los centros de datos orbitales como algo “bastante lejos” de ser una realidad económica, citando las dificultades logísticas y los costes de lanzamiento. La misma cobertura mencionaba que otros actores exploran ideas similares, lo que sugiere que el sector, al menos, está mirando el problema desde ángulos cada vez más extremos.

En paralelo, ya hay señales de “primeros experimentos” que alimentan la narrativa: Starcloud ha publicitado el despliegue de una GPU NVIDIA H100 en órbita como parte de un satélite (Starcloud-1), reivindicándolo como un hito de computación de alto rendimiento fuera de la Tierra. El salto entre esa demostración —por relevante que sea— y una infraestructura de cientos de gigavatios en órbita, como sugiere Musk, es abismal. Pero ilustra algo importante: la industria empieza a probar el terreno.

Donde Musk parece más contundente es al describir el “siguiente muro” si el de la energía se rompe: el suministro de semiconductores. En la entrevista detalla que Tesla está reservando capacidad en múltiples frentes —TSMC en Taiwán y en Arizona, además de Samsung en Corea y Texas— y recuerda que levantar una fábrica y llegar a producción a gran volumen con buenos rendimientos puede llevar alrededor de cinco años. Por eso insiste en la idea de una “TeraFab”: una megafábrica que no solo fabrique lógica, sino también memoria y empaquetado avanzado, con una ambición que llega a mencionar del orden de más de un millón de obleas al mes.

Ese énfasis en la cadena de suministro no es casual. Musk está intentando convertir a Tesla en algo más que un fabricante de coches: su apuesta por humanoides como Optimus depende de componentes, actuadores y know-how industrial que hoy se concentran en Asia. Un artículo reciente describía cómo proveedores chinos se han ido posicionando como piezas clave del ecosistema de componentes para robots humanoides vinculados al proyecto. Es una pista de la tensión central de este nuevo ciclo: incluso quienes quieren “reindustrializar” en casa necesitan una red global para construir el futuro.

En resumen, el debate sobre centros de datos en órbita funciona como un síntoma: la carrera de la IA ya no se decide solo en modelos y algoritmos, sino en electricidad, refrigeración, permisos, cohetes y fábricas de chips. Lo que Musk pone encima de la mesa —con su mezcla habitual de provocación y ambición— es una pregunta incómoda para toda la industria: ¿y si el límite real de la IA no es la computación… sino la capacidad de sostenerla?

Preguntas frecuentes

¿Qué es un “centro de datos orbital” y en qué se diferencia de un satélite normal?
Un centro de datos orbital sería una plataforma en órbita diseñada para procesar y almacenar datos (incluida IA) usando energía solar, con comunicaciones hacia la Tierra. A diferencia de un satélite convencional, priorizaría potencia de cálculo y disipación térmica.

¿Por qué el suministro eléctrico se ha convertido en el gran freno de la IA?
Porque la demanda de centros de datos crece más rápido que la expansión de redes y generación eléctrica. Además, conectar nuevas instalaciones puede requerir obras, permisos y plazos incompatibles con el ritmo de inversión en IA.

¿Cuál es el principal reto técnico de ejecutar IA en el espacio?
La refrigeración. En el vacío no hay aire ni agua para evacuar calor por convección; hay que radiarlo mediante superficies y diseños que añaden masa, complejidad y coste.

¿Qué es una “TeraFab” y por qué Musk la menciona como solución?
Es la idea de una megafábrica para producir chips a una escala sin precedentes, incluyendo lógica, memoria y empaquetado. El objetivo sería romper el cuello de botella de fabricación de semiconductores si la demanda de aceleradores sigue disparándose.

encuentra artículos

newsletter

Recibe toda la actualidad del sector tech y cloud en tu email de la mano de RevistaCloud.com.

Suscripción boletín

LO ÚLTIMO

Las últimas novedades de tecnología y cloud

Suscríbete gratis al boletín de Revista Cloud. Cada semana la actualidad en tu buzón.

Suscripción boletín
×