Anthropic ha movido una pieza importante en la carrera por la infraestructura de Inteligencia Artificial. La compañía ha firmado un acuerdo con SpaceX para usar toda la capacidad de cómputo del centro de datos Colossus 1, una instalación que le dará acceso a más de 300 MW y a más de 220.000 GPU NVIDIA en el plazo de un mes. La consecuencia para los usuarios llega de forma inmediata: Claude Code y la API de Claude Opus tendrán límites de uso mucho más altos.
La noticia resume muy bien el momento que vive el sector. Durante meses, la competición entre laboratorios de IA se ha contado a través de modelos más capaces, ventanas de contexto más grandes y mejores benchmarks. Pero el cuello de botella real está cada vez más en otro sitio: energía, GPU, centros de datos, red, refrigeración y capacidad para servir millones de peticiones sin degradar la experiencia. En otras palabras, la IA generativa ya no compite solo con inteligencia. Compite con megavatios.
Claude Code tendrá más margen para trabajar
Anthropic ha anunciado tres cambios inmediatos para sus clientes más intensivos. El primero es que duplica los límites de uso de Claude Code en ventanas de cinco horas para los planes Pro, Max, Team y Enterprise por asiento. El segundo elimina la reducción de límites en horas punta para Claude Code en los planes Pro y Max. El tercero eleva de forma considerable los límites de la API para modelos Claude Opus.
Los nuevos límites de la API muestran hasta qué punto Anthropic necesitaba más capacidad. En el Tier 1, los tokens máximos de entrada por minuto pasan de 30.000 a 500.000, mientras que los de salida suben de 8.000 a 80.000. En el Tier 2, la entrada pasa de 450.000 a 2 millones de tokens por minuto y la salida de 90.000 a 200.000. En el Tier 3, el límite de entrada se eleva de 800.000 a 5 millones y el de salida de 160.000 a 400.000. En el Tier 4, el techo alcanza 10 millones de tokens de entrada por minuto y 800.000 de salida.
Para un usuario ocasional, estas cifras pueden sonar lejanas. Para equipos que trabajan con agentes, repositorios grandes, análisis documental, generación de código, revisión de contratos o automatizaciones empresariales, son decisivas. Un agente de programación no hace una única consulta. Lee archivos, propone cambios, revisa errores, ejecuta pasos, vuelve a consultar contexto y genera respuestas largas. Cada una de esas acciones consume tokens y capacidad de inferencia.
Por eso los límites se han convertido en una parte importante de la experiencia de producto. Cuando un desarrollador se queda sin margen a mitad de una sesión de trabajo, la herramienta deja de ser una ayuda fluida y pasa a ser una restricción operativa. Anthropic está intentando reducir esa sensación justo cuando Claude Code gana peso entre perfiles técnicos.
SpaceX entra en la infraestructura de Claude
El acuerdo con SpaceX tiene una lectura técnica y otra estratégica. La técnica es directa: Anthropic obtiene acceso inmediato a una gran bolsa de capacidad de GPU. La estratégica es más interesante: una empresa conocida por cohetes, satélites y conectividad se convierte en proveedor relevante de infraestructura para uno de los laboratorios de IA más avanzados.
Reuters sitúa Colossus 1 en Memphis, Tennessee, y señala que el centro cuenta con más de 220.000 procesadores NVIDIA, incluidos modelos H100, H200 y GB200. La operación ayuda a Anthropic a aliviar una presión evidente: la demanda de Claude Pro, Claude Max, Claude Code y la API crece más rápido que la capacidad disponible para atenderla con comodidad.
Anthropic no depende de una única arquitectura. La empresa recuerda que entrena y ejecuta Claude sobre AWS Trainium, Google TPUs y GPU NVIDIA. Esa diversificación es importante en un mercado donde cualquier proveedor de modelos que dependa de un solo tipo de chip o de un único socio puede quedarse atrapado por disponibilidad, precio o prioridades comerciales de terceros.
Aun así, el volumen de Colossus 1 es lo que convierte el anuncio en algo más que una mejora de servicio. Más de 300 MW es una magnitud de centro de datos de IA a gran escala. No se trata de añadir unas pocas máquinas para absorber picos, sino de incorporar un bloque completo de infraestructura para elevar límites, reducir restricciones y preparar cargas más intensivas.
La carrera ya se mide en gigavatios
El acuerdo con SpaceX no llega aislado. Anthropic lo presenta junto a otros compromisos de cómputo de gran tamaño: un acuerdo de hasta 5 GW con Amazon, con casi 1 GW de nueva capacidad prevista para finales de 2026; otro de 5 GW con Google y Broadcom que empezará a entrar en servicio en 2027; una alianza con Microsoft y NVIDIA que incluye 30.000 millones de dólares en capacidad Azure; y una inversión de 50.000 millones de dólares en infraestructura estadounidense de IA junto a Fluidstack.
La escala impresiona porque muestra hacia dónde va el mercado. Hace no tanto, un centro de datos de decenas de megavatios ya parecía una instalación enorme. La IA ha llevado la conversación a cientos de megavatios y acuerdos de varios gigavatios. Esta evolución no solo afecta a los laboratorios. Impacta en redes eléctricas, disponibilidad de GPU, construcción de centros de datos, permisos, refrigeración, suministro de transformadores y planificación territorial.
El consumo de inferencia es una parte cada vez más relevante del problema. Entrenar modelos fundacionales sigue siendo carísimo, pero servir esos modelos a millones de usuarios y agentes también consume mucha capacidad. Si además los agentes ejecutan tareas largas, mantienen contexto, consultan herramientas y generan respuestas extensas, el coste operativo se dispara. La subida de límites de Claude es una buena noticia para usuarios, pero también confirma que el uso real de IA está creciendo a un ritmo que exige más infraestructura.
Anthropic intenta anticipar algunas críticas. La compañía afirma que se ha comprometido a cubrir cualquier subida del precio de la electricidad de consumidores causada por sus centros de datos en Estados Unidos. También estudia extender ese compromiso a otros países donde despliegue nueva capacidad. Este punto será cada vez más sensible. La aceptación social de los centros de datos de IA dependerá de si las comunidades perciben beneficios claros o solo más presión sobre la red eléctrica.
Infraestructura regional para empresas reguladas
La expansión no será solo estadounidense. Anthropic señala que sus clientes empresariales, sobre todo en sectores regulados como finanzas, salud y administraciones públicas, necesitan infraestructura regional para cumplir requisitos de residencia de datos y cumplimiento normativo. La colaboración con Amazon incluye capacidad adicional de inferencia en Asia y Europa.
Este detalle importa mucho en el mercado empresarial. Las compañías pueden estar interesadas en Claude, pero no todas pueden enviar datos sensibles a cualquier región. Banca, aseguradoras, hospitales, organismos públicos o empresas con información estratégica necesitan garantías sobre dónde se procesan los datos, quién opera la infraestructura y bajo qué marco legal se ofrece el servicio.
Anthropic afirma que será selectiva con los países donde añadirá capacidad y que priorizará democracias con marcos legales y regulatorios capaces de sostener inversiones de esta escala, además de cadenas de suministro seguras para hardware, redes e instalaciones. La infraestructura de IA se está convirtiendo así en una cuestión tecnológica, económica y geopolítica al mismo tiempo.
El interés expresado por Anthropic en colaborar con SpaceX para desarrollar varios gigavatios de capacidad orbital de IA añade una nota futurista al anuncio. Conviene tomarlo con prudencia: desplegar cómputo en órbita plantea retos enormes de coste, mantenimiento, energía, radiación, refrigeración, comunicaciones y reposición de hardware. Pero el simple hecho de que una compañía como Anthropic lo mencione muestra hasta qué punto los laboratorios están explorando alternativas al centro de datos terrestre tradicional.
Lo inmediato, en cualquier caso, es más concreto: Claude tendrá más límites, menos restricciones en Claude Code y más capacidad para clientes que consumen grandes volúmenes de tokens. Para Anthropic, la jugada tiene sentido. Si quiere competir con OpenAI, Google, xAI, Meta y otros actores, necesita que sus mejores modelos no se queden atrapados por falta de GPU.
La próxima fase de la IA no la ganará solo quien tenga el modelo más brillante. La ganará quien pueda hacerlo disponible, estable, rápido y con capacidad suficiente para millones de usuarios y empresas. Anthropic acaba de comprar una parte importante de ese margen.
Preguntas frecuentes
¿Qué ha anunciado Anthropic con SpaceX?
Anthropic ha firmado un acuerdo para usar toda la capacidad de cómputo del centro de datos Colossus 1 de SpaceX, con más de 300 MW y más de 220.000 GPU NVIDIA disponibles en el plazo de un mes.
¿Qué mejora para los usuarios de Claude Code?
Claude Code duplica sus límites de uso en ventanas de cinco horas para planes Pro, Max, Team y Enterprise por asiento. Además, desaparece la reducción de límites en horas punta para Pro y Max.
¿Qué cambia en la API de Claude Opus?
Anthropic eleva mucho los límites de tokens por minuto. En el Tier 4, por ejemplo, los tokens máximos de entrada pasan de 2 millones a 10 millones por minuto y los de salida suben de 400.000 a 800.000.
¿Por qué los laboratorios de IA necesitan tantos megavatios?
Porque entrenar y servir modelos avanzados exige GPU, energía, refrigeración y red a gran escala. Además, los agentes y herramientas como Claude Code generan muchas llamadas encadenadas y consumen más tokens que un uso conversacional simple.
fuente: Noticias inteligencia artificial