El Pentágono lleva la IA de OpenAI, Google y NVIDIA a redes clasificadas

El Departamento de Guerra de Estados Unidos ha firmado acuerdos con ocho grandes compañías tecnológicas para desplegar capacidades avanzadas de inteligencia artificial en sus redes clasificadas. La lista oficial incluye a SpaceX, OpenAI, Google, NVIDIA, Reflection, Microsoft, Amazon Web Services y Oracle, un grupo que combina modelos fundacionales, infraestructura cloud, chips, servicios empresariales y capacidades de despliegue a gran escala.

El anuncio marca un paso más en la integración de la IA generativa y agéntica dentro de los entornos militares estadounidenses. No se trata solo de permitir que soldados o analistas usen chatbots en tareas administrativas. El objetivo declarado es incorporar estas tecnologías en redes de alto nivel de seguridad, conocidas como Impact Level 6 e Impact Level 7, para apoyar operaciones, inteligencia y procesos internos en entornos clasificados.

La expresión utilizada por el propio Departamento es clara: avanzar hacia una fuerza militar “AI-first”. Traducido a un lenguaje menos institucional, Washington quiere que la inteligencia artificial forme parte de la forma cotidiana de sintetizar información, entender situaciones complejas, acelerar análisis y ayudar a la toma de decisiones en contextos donde la velocidad y la precisión importan.

GenAI.mil ya tiene 1,3 millones de usuarios

El comunicado oficial sitúa estos acuerdos dentro de GenAI.mil, la plataforma de IA del Departamento de Guerra. Según la información publicada, más de 1,3 millones de personas del Departamento ya han usado la plataforma en solo cinco meses, con decenas de millones de prompts y cientos de miles de agentes desplegados.

La cifra muestra que la adopción interna no es marginal. Militares, personal civil y contratistas están usando estas herramientas para reducir tareas que antes podían llevar meses a días, según la versión del Departamento. No se detallan todos los casos de uso, pero el texto habla de síntesis de datos, mejora de la comprensión situacional y apoyo a decisiones en entornos operativos complejos.

EmpresaPapel probable dentro del acuerdo
OpenAIModelos avanzados de IA generativa y capacidades agénticas
GoogleModelos, cloud, infraestructura y herramientas de IA
MicrosoftCloud, productividad, seguridad e integración empresarial
AWSInfraestructura cloud clasificada y servicios de IA
OracleCloud para entornos clasificados y software empresarial
NVIDIAHardware, aceleración de IA y software asociado
SpaceXInfraestructura tecnológica y posibles capacidades conectadas a comunicaciones
ReflectionModelos de IA y capacidades emergentes para defensa

La presencia de Oracle fue confirmada también por la propia compañía, que anunció un acuerdo específico para desplegar capacidades de IA en redes cloud clasificadas del Departamento. Oracle subraya en su comunicado la necesidad de evitar el bloqueo de proveedor y de mantener el control sobre datos, arquitectura y dirección tecnológica a largo plazo.

El Pentágono insiste en esa misma idea: quiere una arquitectura que impida depender de un único proveedor. La diversidad de socios no es casual. La administración estadounidense busca acceso a varios modelos, varias nubes, varios chips y varias capas de software para evitar que una tecnología concreta condicione toda su estrategia militar de IA.

IA para decidir antes, pero no sin riesgos

El uso militar de la inteligencia artificial no es nuevo, pero la entrada de modelos generativos y agentes en redes clasificadas eleva el debate. Hasta ahora, muchas aplicaciones de IA en defensa se centraban en visión por computador, mantenimiento predictivo, análisis de señales, logística, ciberseguridad o sistemas autónomos concretos. La nueva oleada añade interfaces de lenguaje natural, agentes capaces de consultar herramientas, resumir documentación y asistir a equipos humanos en flujos mucho más amplios.

El potencial es evidente. En una operación militar, la información llega de satélites, drones, sensores, inteligencia humana, comunicaciones, informes, bases de datos y sistemas aliados. Un sistema de IA puede ayudar a ordenar ese volumen de datos, encontrar patrones, resumir escenarios y acelerar la preparación de informes. También puede servir en logística, planificación, soporte legal, ciberdefensa, mantenimiento o gestión administrativa.

Pero el riesgo también es evidente. Los modelos pueden equivocarse, inferir de forma incorrecta, apoyarse en datos incompletos o presentar una respuesta con una seguridad que no merece. En un contexto civil, un error puede ser molesto o caro. En un contexto militar, puede contribuir a una mala decisión operativa.

Uno de los peligros más citados es el sesgo de automatización: la tendencia humana a aceptar la recomendación de un sistema porque parece más rápido, más completo o más técnico. Si una IA resume mal una situación o prioriza una amenaza inexistente, el operador humano debe tener criterio, formación y autoridad para cuestionarla. La promesa de “decisión superior” solo tiene sentido si la IA ayuda a pensar mejor, no si sustituye el juicio humano por una salida estadística opaca.

Por eso la frase “lawful operational use”, uso operativo legal, es importante. Las compañías participantes aceptan desplegar capacidades dentro de límites jurídicos y operativos definidos por el Departamento. El problema es que esa expresión deja abiertas muchas preguntas: qué tareas concretas quedan permitidas, qué nivel de autonomía tendrán los agentes, cómo se auditan sus decisiones, quién revisa los errores y qué salvaguardas impiden su uso en vigilancia masiva, selección de objetivos o sistemas armados autónomos.

La ausencia de Anthropic alimenta el debate

La gran ausencia es Anthropic, creadora de Claude. Varios medios estadounidenses han señalado que la compañía quedó fuera de estos acuerdos tras una disputa con el Departamento por las condiciones de uso y las salvaguardas en entornos militares. La controversia gira en torno a límites relacionados con vigilancia, armas autónomas y usos de alto riesgo.

Este punto es relevante porque Anthropic había ganado presencia en el sector público y de defensa estadounidense, especialmente en colaboración con socios como AWS y Palantir. Su exclusión, si se mantiene, muestra que el debate no es solo técnico. También es político, ético y contractual. Los modelos de IA no llegan al Pentágono como una herramienta neutral; llegan con políticas de uso, restricciones, auditorías, acuerdos de responsabilidad y presión de la administración.

Para OpenAI, Google, Microsoft, AWS, Oracle, NVIDIA y el resto de socios, la oportunidad es enorme. El mercado de defensa ofrece contratos largos, entornos de alto valor y un papel central en la estrategia nacional de IA. Pero también implica exposición reputacional. La participación en redes clasificadas militares puede generar críticas internas, protestas de empleados, presión de organizaciones civiles y escrutinio internacional.

Google ya vivió esa tensión con Project Maven, el programa de análisis de imágenes con IA para drones que provocó protestas internas y llevó a la compañía a revisar sus principios de IA. La diferencia ahora es que la IA generativa se ha convertido en una prioridad transversal para gobiernos y ejércitos. La presión por no quedarse atrás frente a China, Rusia u otros actores hace mucho más difícil que las grandes tecnológicas se mantengan al margen.

Un cambio profundo en la relación entre Silicon Valley y defensa

El anuncio también confirma la normalización de una relación que durante años fue incómoda. Tras la guerra de Irak y los debates sobre vigilancia, una parte de Silicon Valley intentó marcar distancia con el complejo militar. Esa distancia se ha ido reduciendo con la ciberseguridad, la nube gubernamental, la guerra en Ucrania, la competencia con China y la carrera por la IA.

Hoy, los principales proveedores de cloud, chips y modelos quieren estar presentes en defensa. Microsoft, AWS y Oracle llevan años compitiendo por cargas clasificadas. NVIDIA se ha convertido en proveedor esencial de la infraestructura de IA. OpenAI ha abierto productos y acuerdos para el sector público. Google vuelve a ocupar un papel relevante. SpaceX ya es pieza importante en comunicaciones espaciales, lanzamientos y servicios de conectividad. Reflection representa la entrada de nuevos actores nativos de IA con ambición geopolítica.

La novedad no es solo que el Pentágono use IA. Es que quiere hacerlo en redes clasificadas y con un catálogo amplio de proveedores comerciales. Eso puede acelerar la adopción, pero también complica la gobernanza. Cada modelo tiene capacidades distintas, cada nube tiene controles propios, cada proveedor trae sus políticas y cada integración introduce dependencias técnicas.

Para los aliados de Estados Unidos, el movimiento será observado con atención. Si el Pentágono demuestra que puede desplegar IA generativa de forma segura en entornos clasificados, otros países intentarán replicarlo. Si se producen errores, filtraciones, decisiones cuestionables o uso indebido, el debate regulatorio se endurecerá.

La inteligencia artificial está entrando en una fase menos visible que la de los chatbots públicos, pero mucho más sensible: la de los sistemas cerrados, clasificados y operativos. Allí no se medirá por respuestas ingeniosas, sino por fiabilidad, trazabilidad, control de acceso, resistencia a ataques, cumplimiento legal y capacidad para ayudar a humanos bajo presión.

El Pentágono ha decidido que la IA será parte de su infraestructura básica. La pregunta ya no es si los ejércitos usarán modelos generativos, sino bajo qué límites, con qué transparencia y con qué responsabilidad cuando esas herramientas influyan en decisiones que pueden tener consecuencias reales.

Preguntas frecuentes

¿Qué ha anunciado el Departamento de Guerra de Estados Unidos?
Ha firmado acuerdos con SpaceX, OpenAI, Google, NVIDIA, Reflection, Microsoft, AWS y Oracle para desplegar capacidades de IA en redes clasificadas del Departamento.

¿Qué son los entornos IL6 e IL7?
Son niveles de impacto usados en redes y sistemas del Departamento para manejar información altamente sensible o clasificada. El anuncio se refiere a la integración de IA en esos entornos.

¿La IA tomará decisiones militares por sí sola?
El comunicado habla de apoyo a síntesis de datos, comprensión situacional y toma de decisiones, no de sustituir la responsabilidad humana. Aun así, el riesgo de dependencia excesiva o sesgo de automatización sigue siendo una preocupación.

¿Por qué no aparece Anthropic en la lista?
Varios medios han señalado una disputa entre Anthropic y el Departamento por salvaguardas y condiciones de uso en contextos militares. Su ausencia es una de las partes más relevantes del anuncio.

vía: war.gov

encuentra artículos

newsletter

Recibe toda la actualidad del sector tech y cloud en tu email de la mano de RevistaCloud.com.

Suscripción boletín

LO ÚLTIMO

Las últimas novedades de tecnología y cloud

Suscríbete gratis al boletín de Revista Cloud. Cada semana la actualidad en tu buzón.

Suscripción boletín
×