El Pentágono acelera la “IA en producción”: Claude, ChatGPT, Gemini y Grok compiten por el corazón (y el control) de la defensa de EE. UU.

La inteligencia artificial generativa ya no es un experimento dentro del Departamento de Defensa de Estados Unidos: es infraestructura. En apenas unos meses, la administración militar ha pasado de pilotos limitados a un escenario de multi-proveedor, donde varios modelos comerciales conviven (o compiten) por entrar en redes no clasificadas y, sobre todo, por abrirse camino en el terreno más delicado: los sistemas clasificados.

Ese salto se está produciendo con una tensión de fondo que trasciende la tecnología. El Pentágono presiona para que las empresas acepten un principio amplio: disponibilidad del modelo para “todos los usos legales”. Y la industria responde con líneas rojas muy diferentes sobre vigilancia, uso de datos y autonomía letal. El pulso con Anthropic —que ha terminado con la compañía marcada como “riesgo para la cadena de suministro”— es el síntoma más visible de esta nueva etapa.

Dos planos de despliegue: GenAI.mil para lo no clasificado y la carrera por lo clasificado

La arquitectura actual se entiende mejor si se separan dos capas.

  1. Entorno no clasificado (GenAI.mil)
    OpenAI ha anunciado el despliegue de una versión personalizada de ChatGPT en GenAI.mil, descrita como una plataforma “segura” para trabajo no clasificado utilizada por 3.000.000 de personas (personal civil y militar). OpenAI sostiene que los datos procesados en ese entorno permanecen aislados y no se emplean para entrenar modelos públicos o comerciales.
  2. Entorno clasificado (la gran batalla)
    Aquí el acceso es más restringido y el listón técnico y procedimental es más alto. Hasta ahora, varios reportes han señalado que Claude (Anthropic) era el modelo con mayor presencia o integración en determinados flujos clasificados a través de terceros, mientras el Pentágono busca ampliar opciones con otros proveedores.

El tablero actual: qué IA usa hoy la defensa de EE. UU.

A nivel de proveedor, el Pentágono ha apostado por una estrategia de contratos y adopción escalable. En julio de 2025, el Departamento de Defensa adjudicó contratos de hasta 200.000.000 de dólares a varios laboratorios (Anthropic, OpenAI, Google y xAI) para acelerar la adopción de “frontier AI” y flujos “agénticos” en su ecosistema digital.

Sobre esa base, la “foto” de 2026 se puede resumir así:

Comparativa rápida de modelos y despliegues

Proveedor / modeloDónde está entrandoQué aporta (según lo reportado)Fricción principal
Anthropic – ClaudeIntegraciones ligadas a trabajo sensible y disputa por su continuidadSe le atribuye ventaja en tareas delicadas y uso en entornos de máxima sensibilidadNegativa a levantar límites sobre vigilancia doméstica y autonomía letal; choque político y etiqueta de “riesgo”
OpenAI – ChatGPTGenAI.mil (no clasificado) y acuerdos para ampliar presencia“ChatGPT a escala” para tareas administrativas, análisis y apoyo interno; versión customParte de sus restricciones se han relajado para el entorno DoD, manteniendo algunas salvaguardas
Google – GeminiDisponible en el ecosistema no clasificado (según prensa especializada) y en conversaciones de expansiónAlternativa de gran escala con foco en productividad y asistenciaOpacidad sobre condiciones exactas y limitaciones en uso sensible
xAI – GrokAcuerdo para uso en sistemas clasificados (según Axios) y presencia en plataforma del DoD (según prensa sectorial)Entrada rápida apoyada en contrato y acuerdos; candidato para cubrir huecosDudas sobre equivalencia real frente a Claude en trabajo clasificado

(La tabla resume lo publicado por varios medios y comunicados recientes; los detalles operativos pueden variar según misión, red y contratista.)

Claude: del “modelo clave” al veto con efecto dominó

El caso Anthropic concentra la dimensión política del debate. Según Axios, el Departamento de Defensa exigía que Claude quedara habilitado para “todos los usos legales”, incluyendo escenarios que Anthropic consideraba inaceptables. Tras semanas de presión, el Pentágono declaró a la empresa “riesgo para la cadena de suministro” y abrió un periodo de retirada, obligando a contratistas a certificar que no usan Claude en ciertos flujos.

El conflicto es técnicamente relevante por el coste de sustitución: en flujos sensibles, cambiar de modelo no es “migrar de API”. Implica revalidar prompts, cadenas de herramientas, controles de acceso, trazabilidad y resultados bajo estándares internos. De ahí que varias fuentes hayan descrito el “desenredo” como un proceso complejo, especialmente si el modelo estaba incrustado en plataformas de terceros.

A esto se suma un factor incómodo: Reuters informó de que Claude habría sido utilizado a través de Palantir en una operación militar altamente sensible, citando un reporte del Wall Street Journal, aunque Reuters añadió que no pudo verificarlo de forma independiente.

ChatGPT en GenAI.mil: “IA de oficina” a escala DoD

OpenAI ha enmarcado su despliegue como un paso práctico: ChatGPT para tareas no clasificadas (resúmenes, análisis de documentación interna, borradores de materiales de contratación, checklists de cumplimiento y apoyo a planificación). Su mensaje pivota sobre dos garantías: entorno cloud autorizado y separación de datos respecto a modelos públicos.

En paralelo, Reuters describió que, como parte del acuerdo para operar en el entorno del Pentágono, OpenAI aceptó eliminar “muchas” de sus restricciones habituales, aunque manteniendo algunas barreras. El matiz es clave: el debate ya no es si hay guardrails, sino quién decide su alcance cuando la herramienta se compra para uso militar.

Gemini y Grok: alternativas que ganan sitio, pero con preguntas abiertas

Sobre Google Gemini, Reuters apuntó que Google, al igual que xAI, había alcanzado acuerdos previos en esta línea de despliegue para el entorno del Pentágono. Y medios del sector han indicado su presencia en la plataforma corporativa del DoD junto a otros modelos.

En cuanto a Grok (xAI), Axios informó de un acuerdo para permitir su uso en sistemas clasificados, un movimiento que cobra peso tras la crisis con Anthropic. Sin embargo, incluso dentro de esas informaciones aparece una cautela: sustituir a Claude “tal cual” no es inmediato, porque no solo cuenta la potencia del modelo, sino su rendimiento, controles, integración y validación en contextos clasificados.

La pregunta que queda: ¿modelo “para todo” o IA con límites negociados?

El choque deja una conclusión tecnológica y otra política.

  • La tecnológica: Defensa está construyendo un stack real de IA con múltiples modelos, una capa corporativa (GenAI.mil) y una presión clara por meter estos sistemas en redes clasificadas con menos fricción.
  • La política: el Gobierno quiere que la IA se comporte como un “componente de cadena de suministro” bajo su control, mientras algunas empresas intentan mantener límites de uso que, en su opinión, evitan abusos de alto impacto.

Lo que hoy está en disputa no es solo qué modelo es mejor en benchmark, sino quién define el perímetro de seguridad cuando el cliente es el actor con más poder del ecosistema.

Fuente: Defensa de EEUU pone en el punto de mira a Anthropic.

encuentra artículos

newsletter

Recibe toda la actualidad del sector tech y cloud en tu email de la mano de RevistaCloud.com.

Suscripción boletín

LO ÚLTIMO

Las últimas novedades de tecnología y cloud

Suscríbete gratis al boletín de Revista Cloud. Cada semana la actualidad en tu buzón.

Suscripción boletín
×