Estados Unidos ha decidido convertir la destilación de modelos de Inteligencia Artificial en un frente político, industrial y estratégico. El mensaje de Washington ya no se limita a la competencia comercial entre laboratorios: la Casa Blanca y varias compañías estadounidenses sostienen que empresas chinas, con DeepSeek en el centro del foco, estarían extrayendo capacidades de modelos frontera desarrollados en Estados Unidos para acelerar sus propios sistemas a menor coste.
La ofensiva se apoya, sobre todo, en dos movimientos. Por un lado, el memorando de la Casa Blanca firmado por Michael Kratsios el 23 de abril de 2026, que acusa a “entidades extranjeras, principalmente chinas”, de campañas a escala industrial para destilar modelos estadounidenses. Por otro, la presión pública ejercida por OpenAI y Anthropic, que en febrero llevaron al terreno político y mediático sus propias acusaciones contra DeepSeek y otros laboratorios chinos.
La cuestión importa porque no va solo de propiedad intelectual. En el discurso estadounidense, la destilación ilícita ya se presenta como un problema de seguridad nacional, de ventaja tecnológica y de control geopolítico sobre la próxima generación de modelos.
Antes de entrar en el fondo, conviene recordar un matiz importante: la destilación es una técnica legítima y ampliamente usada en IA. Sirve para entrenar modelos más pequeños y baratos a partir de las salidas de otros más potentes. El conflicto no está en la técnica en sí, sino en su uso presuntamente no autorizado sobre modelos cerrados de terceros. Anthropic lo dice de forma explícita: la destilación es normal cuando un laboratorio la aplica sobre sus propios modelos, pero pasa a ser problemática cuando se usa para adquirir capacidades ajenas sin permiso y a gran escala.
OpenAI y Anthropic sitúan a DeepSeek en el centro de sus acusaciones
OpenAI formalizó su posición en un documento remitido el 12 de febrero de 2026 al Comité Selecto de la Cámara de Representantes sobre competencia estratégica con China. En ese texto, la compañía afirma que DeepSeek debe entenderse en el contexto de “esfuerzos continuados” para aprovecharse de las capacidades desarrolladas por OpenAI y otros laboratorios estadounidenses. También sostiene haber detectado actividad compatible con intentos persistentes de destilar sus modelos, incluso mediante métodos ofuscados.
El documento va más allá y asegura que cuentas asociadas a empleados de DeepSeek habrían desarrollado métodos para sortear las restricciones de acceso de OpenAI, recurriendo a routers de terceros y a otras fórmulas destinadas a ocultar el origen de las peticiones. OpenAI afirma además que DeepSeek habría desarrollado código para acceder a modelos estadounidenses y obtener salidas útiles para procesos de destilación programática. Todo ello, según la compañía, formaría parte de un ecosistema cada vez más sofisticado de extracción de capacidades.
Anthropic endureció todavía más el relato unos días después. En una nota publicada el 23 de febrero de 2026, la empresa aseguró haber identificado campañas “a escala industrial” de tres laboratorios chinos: DeepSeek, Moonshot y MiniMax. Según su versión, esas campañas generaron más de 16 millones de intercambios con Claude a través de unas 24.000 cuentas fraudulentas, en violación de sus condiciones de uso y de sus restricciones regionales.
En el caso concreto de DeepSeek, Anthropic habla de más de 150.000 intercambios orientados a extraer capacidades de razonamiento, tareas de evaluación para refuerzo y alternativas “seguras para censura” en consultas políticamente sensibles. La empresa afirma haber atribuido estas campañas con “alta confianza” a laboratorios concretos mediante correlación de IP, metadatos de petición e indicadores de infraestructura.
La Casa Blanca lo transforma en doctrina estratégica
Lo verdaderamente nuevo es que estas acusaciones ya no se están quedando en el terreno corporativo. El memorando de la Casa Blanca del 23 de abril sostiene que actores extranjeros, sobre todo chinos, están empleando campañas industriales de destilación contra sistemas frontera estadounidenses y que eso amenaza directamente la ventaja competitiva que Washington intenta preservar mediante infraestructura, chips y controles de exportación.
Ese giro encaja bastante bien con la línea de Anthropic, que en su nota vincula la destilación ilícita con la erosión de los export controls. Su argumento es que, si laboratorios extranjeros pueden extraer capacidades de modelos estadounidenses, parte del efecto buscado por las restricciones de chips se diluye, porque esos actores acortan distancias sin asumir el coste completo del entrenamiento y la seguridad. Anthropic llega incluso a plantear que modelos destilados de forma ilícita podrían perder salvaguardas importantes y alimentar usos militares, de vigilancia o ciberofensivos.
OpenAI, por su parte, también presenta la cuestión en esos términos. Su escrito al Congreso vincula directamente la protección frente a la destilación con la necesidad de frenar lo que llama “IA autocrática” y con el mantenimiento del liderazgo estadounidense en infraestructuras, chips, energía y centros de datos.
Lo que está en juego no es solo DeepSeek
El caso DeepSeek es importante, pero probablemente no sea lo único que preocupa a Washington. Lo que se está discutiendo de fondo es si los modelos cerrados pueden seguir compitiendo en un mercado donde parte de sus capacidades podrían ser absorbidas por actores externos mediante grandes volúmenes de consultas, cuentas distribuidas y extracción sistemática de patrones útiles para entrenar competidores.
Para el sector tecnológico, eso abre varias preguntas incómodas. Una es técnica: hasta qué punto se puede impedir que un modelo muy consultado termine filtrando comportamientos imitables. Otra es legal: dónde empieza exactamente la infracción cuando la técnica usada es conocida y el resultado no copia pesos, sino capacidades funcionales. Y una tercera es política: si Estados Unidos va a intentar convertir ese tipo de prácticas en un nuevo campo de sanciones, restricciones de acceso y presión diplomática.
Por ahora, lo que existe en dominio público son memorandos oficiales y acusaciones directas de empresas afectadas. Eso ya es suficiente para entender la magnitud del choque. La destilación, que durante años fue una técnica más dentro del arsenal normal de la IA, empieza a tratarse como un campo de batalla de la rivalidad tecnológica entre Estados Unidos y China. Y ahí DeepSeek se ha convertido en el símbolo más visible de una pelea mucho más grande.
Preguntas frecuentes
¿Qué es la destilación de modelos en Inteligencia Artificial?
Es una técnica para entrenar modelos más pequeños o más baratos usando las salidas de modelos más potentes. La industria la considera legítima cuando se aplica sobre modelos propios, pero se vuelve polémica cuando se usa sin autorización sobre sistemas de terceros.
¿Qué acusa OpenAI exactamente a DeepSeek?
OpenAI afirma que DeepSeek mantiene esfuerzos continuados para aprovechar capacidades desarrolladas por OpenAI y otros laboratorios estadounidenses, y asegura haber detectado actividad compatible con intentos persistentes de destilar esos modelos mediante métodos ofuscados.
¿Qué cifras ha dado Anthropic sobre estas campañas?
Anthropic sostiene que DeepSeek, Moonshot y MiniMax generaron más de 16 millones de intercambios con Claude mediante unas 24.000 cuentas fraudulentas. En el caso de DeepSeek, habla de más de 150.000 intercambios.
¿Por qué la Casa Blanca trata esto como un asunto de seguridad nacional?
Porque Washington considera que la destilación no autorizada puede erosionar la ventaja tecnológica estadounidense, debilitar el efecto de los controles de exportación y facilitar que rivales estratégicos adquieran capacidades avanzadas sin asumir su coste completo de desarrollo y seguridad.