El acuerdo entre Anthropic y SpaceX para usar toda la capacidad de Colossus 1 parece, a primera vista, una contradicción difícil de explicar. Elon Musk ha criticado durante años a algunos de sus rivales en inteligencia artificial y xAI compite directamente con Anthropic en la carrera por los modelos de frontera. Sin embargo, el movimiento tiene una lógica industrial mucho más clara si se mira desde la infraestructura: Colossus 1 puede ser menos atractivo como clúster de entrenamiento para xAI, pero muy valioso como plataforma de inferencia para Claude.
Anthropic ha confirmado un acuerdo con SpaceX para utilizar toda la capacidad de cómputo del centro de datos Colossus 1. Según la compañía, esto le dará más de 300 MW de nueva capacidad y más de 220.000 GPU NVIDIA disponibles en el plazo de un mes. El objetivo inmediato es aumentar los límites de uso de Claude Code, eliminar restricciones en horas punta para planes Pro y Max, y elevar los límites de API para modelos Claude Opus.
Un clúster enorme, pero no necesariamente ideal para entrenar
Colossus 1 es uno de los mayores clústeres de IA conocidos. xAI lo describe como una infraestructura con más de 220.000 GPU NVIDIA, incluyendo H100, H200 y GB200. Esa mezcla de generaciones es importante. Para muchos usos puede ser una ventaja, porque aporta una enorme cantidad de capacidad disponible. Para entrenamiento distribuido de modelos de frontera, sin embargo, una arquitectura heterogénea puede convertirse en un problema.
El entrenamiento a gran escala exige sincronización muy fina. Miles o decenas de miles de GPU deben avanzar juntas en cada paso. Si una parte del clúster va más rápido y otra más lento, las GPU más potentes esperan a las más lentas. Este fenómeno, conocido como straggler effect, reduce la utilización real del sistema. La cifra que más ha llamado la atención en los últimos días es el supuesto 11 % de MFU, Model FLOPs Utilization, atribuido a xAI por The Information y recogido por Data Center Dynamics. Ese porcentaje estaría muy por debajo de los niveles superiores al 40 % que se suelen citar para otros grandes laboratorios.
Conviene tratar ese dato con cautela, porque no procede de una auditoría técnica pública completa. Aun así, encaja con una dificultad conocida: entrenar modelos enormes no consiste solo en comprar GPU. También hace falta una pila de software, red, topología, scheduling, refrigeración, energía y depuración extremadamente afinadas. Un clúster de 220.000 GPU puede ser impresionante en términos brutos y, al mismo tiempo, difícil de aprovechar si mezcla hardware con características distintas.
La propia noticia oficial de xAI señala que Colossus 1 está diseñado para entrenamiento, fine-tuning, inferencia y computación de alto rendimiento, pero Elon Musk añadió en X, según Reuters, que SpaceX había movido sus esfuerzos de entrenamiento de IA a Colossus 2. Ese detalle es la clave: si xAI ya ha desplazado su entrenamiento principal a otro clúster, Colossus 1 deja de ser el centro de su carrera técnica y puede convertirse en un activo rentable.
Inference no exige la misma sincronización que training
La diferencia entre entrenamiento e inferencia explica buena parte del acuerdo. El entrenamiento de un modelo de frontera exige que enormes cantidades de GPU trabajen sincronizadas durante semanas o meses. La inferencia, en cambio, puede dividir muchas peticiones entre grupos de GPU de forma más flexible. No elimina todos los retos, pero tolera mejor cierta heterogeneidad.
Para Anthropic, que está viendo crecer el uso de Claude Code y sus modelos Opus, lo urgente no es necesariamente entrenar el próximo modelo en Colossus 1. Lo urgente es atender más usuarios, más sesiones de programación, más peticiones de API y más carga empresarial. En ese contexto, 220.000 GPU adicionales pueden convertirse en capacidad útil de forma rápida, aunque el clúster no sea perfecto para entrenamiento distribuido extremo.
Esto también explica por qué Anthropic puede aprovechar un activo que para xAI quizá no era ideal en su función original. Un clúster mixto de H100, H200 y GB200 puede sufrir penalizaciones en cargas que requieren sincronización global, pero puede ser mucho más rentable si se asigna a inferencia, servicios de Claude, ejecución de agentes, colas de usuarios y capacidad API.
Además, Anthropic accede a toda la capacidad como un único gran cliente. Eso reduce algunos problemas propios de la multitenencia, como latencias imprevisibles, interferencias entre cargas y gestión comercial fragmentada. Desde el punto de vista de SpaceX/xAI, también simplifica la operación: un solo contrato enorme, una carga clara y un uso intensivo de un activo que ya estaba construido.
La jugada financiera de Musk
El acuerdo también tiene una lectura financiera. Reuters señala que el pacto da a SpaceX un cliente de primer nivel en un momento en el que la compañía prepara su salida a bolsa y quiere convencer a los inversores de sus ambiciones en IA. La infraestructura de cómputo deja de ser solo un coste gigantesco para entrenar Grok y empieza a parecer una línea de negocio.
Esta idea es importante. Un laboratorio de IA que quema miles de millones al año para entrenar modelos tiene una narrativa financiera complicada. Una compañía capaz de alquilar capacidad de centro de datos a terceros y generar ingresos recurrentes se parece más a una plataforma de infraestructura. No es casual que algunos análisis hablen ya de un modelo “neo-cloud”: propietarios de grandes clústeres que alquilan capacidad a laboratorios, startups y empresas que no pueden construir centros de datos a esa escala.
Las cifras exactas de rentabilidad del contrato no se han hecho públicas. Algunos análisis de mercado han estimado ingresos potenciales de varios miles de millones de dólares al año si se valora el uso de GPU por hora a precios elevados, pero esas cuentas dependen de supuestos no confirmados: tarifa real por GPU, nivel de utilización, duración contractual, costes energéticos, depreciación, mantenimiento, red y personal operativo. Lo prudente es leerlas como escenarios, no como datos cerrados.
Aun así, el cambio de naturaleza del activo sí es evidente. Colossus 1 pudo ser un clúster problemático para entrenamiento de frontera si su utilización efectiva era baja. Al arrendarlo a Anthropic para inferencia y capacidad de producto, SpaceX/xAI transforma esa infraestructura en flujo de caja. La misma granja de GPU que podía parecer un dolor operativo se convierte en un argumento de negocio.
Anthropic compra tiempo y capacidad
Para Anthropic, el acuerdo resuelve un problema igual de urgente. La compañía necesita capacidad para sostener el crecimiento de Claude, especialmente Claude Code. En su anuncio, Anthropic explicó que el acuerdo con SpaceX se suma a otros compromisos de cómputo: hasta 5 GW con Amazon, un acuerdo de 5 GW con Google y Broadcom que empezaría a llegar en 2027, 30.000 millones de dólares de capacidad en Azure con Microsoft y NVIDIA, y una inversión de 50.000 millones de dólares en infraestructura estadounidense con Fluidstack.
La lectura es clara: Anthropic no quiere depender de un único proveedor ni de un único tipo de hardware. Entrena y ejecuta Claude en AWS Trainium, Google TPU y GPU NVIDIA. Esa diversificación se ha convertido en una cuestión estratégica para cualquier laboratorio de IA de frontera. La demanda de usuarios crece, los límites de uso afectan a la experiencia de producto y la disponibilidad de cómputo decide quién puede vender más.
El acuerdo con SpaceX llega además con un mensaje comercial inmediato: más límites para Claude Code y más capacidad para usuarios de pago. No es una promesa abstracta de infraestructura a largo plazo, sino una mejora visible para clientes que estaban topándose con restricciones de uso.
Orbital AI: la parte más futurista del acuerdo
El pacto incluye otro elemento llamativo: Anthropic ha expresado interés en colaborar con SpaceX para desarrollar múltiples gigavatios de capacidad de cómputo orbital. La idea de centros de datos en el espacio suena extrema, pero refleja un problema muy terrenal: la energía, el suelo, la refrigeración y los permisos se están convirtiendo en límites físicos para la expansión de la IA.
Reuters recoge que Anthropic ve interés en esa posibilidad y que SpaceX quiere convertir el cómputo orbital en una de sus grandes narrativas de futuro. xAI, en su comunicado, plantea que SpaceX es una de las pocas organizaciones con cadencia de lanzamiento, economía de masa a órbita y experiencia en constelaciones suficientes para intentar que el cómputo espacial pase de concepto de investigación a programa de ingeniería.
A corto plazo, no obstante, el negocio real está en Memphis, no en órbita. Colossus 1 aporta capacidad inmediata a Anthropic y permite a SpaceX/xAI mostrar que sus centros de datos pueden generar ingresos más allá del uso interno. La parte orbital sirve para reforzar la ambición de largo plazo, pero la infraestructura terrestre sigue siendo la que sostiene el acuerdo.
La operación deja una lección clara sobre la nueva economía de la inteligencia artificial. La ventaja ya no depende solo de tener el mejor modelo. Depende de tener acceso a energía, GPU, red, refrigeración, software de entrenamiento, capacidad de inferencia y clientes dispuestos a pagar. En ese tablero, un clúster imperfecto puede ser un mal activo para una tarea y un excelente activo para otra.
Musk no ha regalado Colossus 1 a un rival. Ha convertido un clúster posiblemente menos eficiente para training en una fuente de capacidad para inference, justo donde Anthropic necesitaba oxígeno. xAI mantiene su foco en Colossus 2 para entrenar nuevos modelos, mientras SpaceX monetiza Colossus 1 con un cliente de primer nivel. Es una rotación de activos, no una rendición.
Preguntas frecuentes
¿Qué ha acordado Anthropic con SpaceX?
Anthropic usará toda la capacidad de cómputo de Colossus 1, con más de 300 MW y más de 220.000 GPU NVIDIA disponibles en el plazo de un mes, para aumentar capacidad de Claude.
¿Por qué xAI cede capacidad a un competidor?
Porque, según Elon Musk, SpaceX ya ha movido sus esfuerzos de entrenamiento a Colossus 2. Colossus 1 puede ser más rentable como capacidad alquilada para inferencia que como clúster principal de entrenamiento.
¿Por qué un clúster mixto es problemático para entrenar IA?
El entrenamiento distribuido exige que muchas GPU avancen sincronizadas. Si unas son más rápidas que otras o hay retrasos de red, las más potentes pueden quedarse esperando, reduciendo la utilización real.
¿Por qué Anthropic sí puede aprovechar Colossus 1?
La inferencia tolera mejor la heterogeneidad que el entrenamiento. Muchas peticiones pueden distribuirse entre grupos de GPU, lo que hace más útil un clúster mixto para servir usuarios y APIs.
Why did xAI hand over a 220,000-GPU cluster to Anthropic?
— Jukan (@jukan05) May 9, 2026
The technical backdrop to xAI's decision to hand Colossus 1 over to Anthropic in its entirety is more interesting than it appears. xAI deployed more than 220,000 NVIDIA GPUs at its Colossus 1 data center in Memphis. Of… https://t.co/dE9O3RZr4B