Anthropic ha puesto sobre la mesa una de las jugadas más relevantes del año en infraestructura de IA. La compañía ha firmado un acuerdo con Google y Broadcom para asegurarse múltiples gigavatios de capacidad de TPUs de nueva generación, una potencia de cómputo que empezará a entrar en servicio a partir de 2027 y que se destinará al entrenamiento y servicio de futuros modelos Claude. No es un anuncio menor: en un mercado cada vez más condicionado por la disponibilidad real de chips, energía y centros de datos, asegurar capacidad a varios años vista empieza a ser tan estratégico como lanzar un modelo nuevo.
El anuncio llega acompañado de otra cifra que ayuda a explicar la urgencia de este movimiento. Anthropic asegura que su run-rate revenue ya ha superado los 30.000 millones de dólares, frente a unos 9.000 millones al cierre de 2025. También afirma que ya tiene más de 1.000 clientes empresariales que gastan más de 1 millón de dólares al año en términos anualizados, el doble de los más de 500 que mencionó en febrero, cuando presentó su Serie G. Conviene matizar que el run-rate es una proyección anualizada a partir del ritmo actual del negocio, no ingresos cerrados ya ejecutados, pero aun así refleja una aceleración comercial muy fuerte.
La batalla ya no es solo por modelos, sino por megavatios
Durante los dos últimos años, la conversación pública sobre IA se ha centrado en benchmarks, razonamiento, agentes y ventanas de contexto. Pero debajo de esa capa de producto se está consolidando otra guerra mucho más física: la del suministro. Entrenar y servir modelos de frontera exige acceso estable a aceleradores, interconexión de alto rendimiento, refrigeración y, sobre todo, electricidad. Cuando Anthropic habla de múltiples gigavatios, lo que está diciendo en realidad es que el próximo salto competitivo de Claude no dependerá únicamente del software, sino de haber reservado ya la infraestructura energética e industrial necesaria para seguir escalando.
Ese movimiento es especialmente relevante porque diversifica el mapa de hardware de Anthropic. La propia empresa explica que Claude se entrena y se ejecuta hoy sobre AWS Trainium, Google TPUs y GPUs de NVIDIA, con la idea de asignar cada carga al chip más adecuado. En la práctica, esto reduce dependencia de una sola cadena de suministro y da a Anthropic una flexibilidad poco común en un momento en que el acceso a aceleradores de última generación sigue siendo uno de los grandes cuellos de botella del sector.
El acuerdo con Google y Broadcom no implica, además, una ruptura con Amazon. Anthropic deja claro que AWS sigue siendo su principal proveedor cloud y su socio principal de entrenamiento, y que la empresa continuará trabajando con Amazon en Project Rainier. Lo que está construyendo no es un reemplazo, sino una arquitectura de suministro más amplia: AWS como socio central, TPUs de Google para ganar escala y previsibilidad, y NVIDIA como otra pieza crítica dentro del mix de cómputo. Desde un punto de vista técnico y operativo, esa mezcla tiene mucho sentido: permite optimizar costes, disponibilidad y tipos de carga sin quedar atrapado en un único proveedor.
Claude refuerza su posición multicloud
Hay otro detalle importante en este anuncio que va más allá de los chips. Anthropic sostiene que Claude sigue siendo el único modelo frontier disponible en las tres mayores plataformas cloud: Amazon Web Services, Google Cloud y Microsoft Azure. Más allá de la carga comercial que tiene la palabra frontier, sí está documentado que Claude se ofrece en Amazon Bedrock, que los modelos de Anthropic están disponibles como modelos gestionados en Vertex AI y que Microsoft Foundry ya integra modelos Claude en Azure. Esa presencia simultánea en los tres grandes entornos le da a Anthropic una posición singular en el mercado empresarial.
Para un medio técnico, este punto es probablemente más importante que el titular financiero. Estar presente de forma oficial en Bedrock, Vertex AI y Foundry no solo amplía la distribución de Claude; también reduce fricción de adopción para grandes cuentas que ya operan en distintos entornos y necesitan llevar el modelo a sus propios perímetros de cumplimiento, redes privadas, herramientas de observabilidad y flujos internos. En otras palabras, Anthropic no solo está vendiendo IA; está intentando convertirse en una capa interoperable dentro de la infraestructura empresarial existente.
Google Cloud, por ejemplo, documenta Claude en Vertex AI como un servicio gestionado y serverless, sin necesidad de aprovisionar infraestructura para consumir la API. AWS hace algo similar en Bedrock, donde posiciona Claude como una familia de modelos para razonamiento, visión, generación de código y flujos empresariales. Microsoft, por su parte, no se ha quedado en el anuncio inicial: ya ha publicado documentación de uso de modelos Claude en Foundry y hasta guías específicas para configurar Claude Code sobre su infraestructura. Eso indica que la estrategia multicloud de Anthropic no es solo una promesa de marketing, sino una integración bastante tangible.
Más que crecimiento: una reserva industrial para la siguiente fase
El verdadero calado del anuncio está en el calendario. Anthropic no está firmando para resolver solo la demanda inmediata de 2026, sino para reservarse capacidad futura a partir de 2027. Ese matiz cambia por completo la lectura. La compañía no quiere limitarse a escalar Claude con el inventario que haya disponible en cada momento, sino blindarse para la próxima fase del mercado, cuando servir modelos más capaces y agentes más complejos exigirá todavía más inferencia, más entrenamiento y más elasticidad de infraestructura.
La propia Anthropic presenta este acuerdo como su mayor compromiso de cómputo hasta la fecha. También subraya que la inmensa mayoría de la nueva capacidad estará en Estados Unidos, enlazándolo con el compromiso anunciado en noviembre de 2025 de invertir 50.000 millones de dólares en infraestructura de computación estadounidense. En la práctica, eso sitúa a la empresa no solo como desarrolladora de modelos, sino como actor que ya empieza a jugar en el terreno de la planificación industrial a gran escala.
Desde una óptica más fría, esto también es una maniobra defensiva. La IA de frontera se está volviendo cada vez más dependiente de contratos a largo plazo, integración vertical y control de capacidad. Quien llegue tarde al reparto de energía, silicio y espacio en centros de datos tendrá más difícil mantener el ritmo, por muy bueno que sea su modelo. Anthropic parece haber decidido que no quiere improvisar ese problema dentro de un año, sino resolverlo ahora. Y ahí está el valor real del anuncio: menos fuegos artificiales y más reserva estratégica de infraestructura.
En un momento en que gran parte del sector sigue midiendo la carrera de la IA en lanzamientos, demos y tablas comparativas, Anthropic está recordando algo mucho más incómodo y mucho más real: la próxima generación de modelos no se decidirá solo en los laboratorios, sino también en contratos eléctricos, fábricas de chips y planificación de capacidad a escala de gigavatios. Claude seguirá compitiendo por calidad de modelo, sí, pero este acuerdo deja claro que Anthropic quiere competir también en la capa que más cuesta replicar: la infraestructura.
Preguntas frecuentes
¿Qué significa que Anthropic haya firmado “múltiples gigavatios” de capacidad TPU?
Significa que ha reservado una gran cantidad de infraestructura de cómputo basada en TPUs de nueva generación, medida por la potencia eléctrica asociada al despliegue. Es una forma de expresar la escala industrial del acuerdo, no solo el número de chips.
¿Anthropic ya ha ingresado 30.000 millones de dólares?
No exactamente. La empresa habla de run-rate revenue, es decir, de ingresos anualizados según el ritmo actual del negocio. Es un indicador de escala comercial, pero no equivale a la facturación cerrada de un ejercicio completo.
¿Claude está realmente disponible en AWS, Google Cloud y Azure?
Sí. AWS documenta modelos Claude en Amazon Bedrock, Google Cloud los ofrece en Vertex AI y Microsoft los integra en Foundry. Esa presencia oficial en las tres grandes nubes es uno de los argumentos estratégicos de Anthropic.
¿Por qué este acuerdo importa tanto para el futuro de Claude?
Porque asegura capacidad de cómputo para 2027 y más allá en un momento en que el acceso a chips, energía y centros de datos es uno de los factores que más condicionan el desarrollo de modelos de frontera. Sin infraestructura garantizada, escalar la IA avanzada se vuelve mucho más difícil.