La Inteligencia Artificial aplicada a ciberseguridad acaba de entrar en una nueva fase. Ya no se trata solo de asistentes que redactan reglas, resumen incidentes o ayudan a interpretar alertas. Ahora los grandes laboratorios de IA quieren ofrecer modelos específicamente ajustados para trabajo defensivo, con menos fricción para tareas sensibles y con capacidades que rozan áreas tradicionalmente reservadas a proveedores especializados de seguridad. Esa es la lectura de fondo tras el lanzamiento de GPT-5.4-Cyber por parte de OpenAI y del despliegue restringido de Claude Mythos Preview dentro de Project Glasswing por parte de Anthropic.
OpenAI anunció el 14 de abril la ampliación de su programa Trusted Access for Cyber (TAC) a miles de defensores individuales verificados y cientos de equipos, además de una variante de GPT-5.4 entrenada para ser más permisiva en usos legítimos de ciberseguridad. Anthropic, por su parte, presentó el 7 de abril un modelo de acceso cerrado, solo por invitación, al que describe como especialmente capaz en tareas de seguridad ofensiva y defensiva, hasta el punto de no abrirlo al público general. Las dos compañías están entrando en el mismo mercado, pero con estrategias de despliegue claramente distintas.
OpenAI quiere acceso verificado a escala; Anthropic prefiere un perímetro mucho más estrecho
En el caso de OpenAI, el mensaje es nítido: no quiere reservar la ciberdefensa avanzada a un grupo demasiado pequeño. GPT-5.4-Cyber se desplegará primero para proveedores de seguridad, organizaciones y grupos de investigación verificados, y TAC se convierte en la infraestructura de confianza que decide quién puede acceder a niveles más permisivos del modelo. OpenAI defiende que el riesgo en ciberseguridad no depende solo del modelo, sino también del usuario, de las señales de confianza y del entorno en el que opera. Esa idea le permite justificar una estrategia de acceso más amplia, pero apoyada en verificación de identidad y controles adicionales.
Anthropic ha elegido casi el camino contrario. Claude Mythos Preview sigue dentro de una vista previa de investigación cerrada, articulada a través de Project Glasswing, una iniciativa que reúne a compañías como Apple, Google, Microsoft, NVIDIA, Palo Alto Networks y CrowdStrike para asegurar software crítico. En la práctica, Anthropic está presentando Mythos como una capacidad demasiado delicada para una apertura amplia, al menos por ahora. Eso le da un tono más excepcional y más cercano a un programa de acceso de alta sensibilidad que a un producto que quiera escalar rápidamente entre equipos de seguridad de todos los tamaños.
Para un medio tecnológico, esa diferencia es fundamental. OpenAI parece querer construir un mercado amplio de defensores verificados. Anthropic, en cambio, se comporta más como si estuviera gestionando una capacidad de frontera cuyo despliegue debe seguir muy controlado. Ninguna de las dos posturas elimina el problema central del sector: cuanto más útil es un modelo para encontrar y corregir vulnerabilidades, más valor puede tener también para quien quiera explotarlas.
Qué significa esto para CrowdStrike, Palo Alto, Microsoft y el resto del sector
La gran cuestión empresarial no es si OpenAI y Anthropic pueden ayudar a los equipos de seguridad. Eso ya parece claro. La pregunta de verdad es cuánto amenazan a las compañías de ciberseguridad que viven de vender plataformas, analistas asistidos, detección, respuesta y servicios gestionados.
A corto plazo, la respuesta no parece ser una sustitución frontal. De hecho, tanto CrowdStrike como Palo Alto Networks y Microsoft llevan tiempo empujando sus propias capas de IA aplicada a operaciones de seguridad. CrowdStrike posiciona Charlotte AI como un analista agéntico capaz de automatizar triage, reducir falsos positivos y coordinar agentes y humanos dentro de Falcon. Palo Alto Networks está empujando Prisma AIRS 3.0 como una plataforma para dar visibilidad, gobernanza y seguridad al ciclo completo de IA y agentes autónomos. Microsoft, por su parte, presenta Security Copilot como una solución de IA para incident response, hunting, inteligencia y posture management apoyada en más de 100 billones de señales diarias y en su ecosistema de productos.
Eso quiere decir que los grandes vendors no están mirando este movimiento desde fuera. Ya están dentro. De hecho, la presencia de CrowdStrike y Palo Alto Networks como socios de lanzamiento en Glasswing sugiere que Anthropic no está intentando eliminar a estos actores, sino colaborar con ellos en la capa más sensible del mercado. Lo mismo ocurre con OpenAI: su TAC está diseñado para dar acceso, entre otros, a proveedores y equipos defensivos, no para reemplazarlos de un plumazo.
Pero eso no significa que no haya riesgo para sus negocios. Sí lo hay, y probablemente en tres áreas muy concretas.
La primera es la commoditización del trabajo de bajo y medio valor. Si modelos como GPT-5.4-Cyber o Mythos reducen drásticamente el coste de tareas como revisión inicial de binarios, análisis preliminar de vulnerabilidades, ayuda en ingeniería inversa o generación de hipótesis técnicas, una parte del valor que hoy capturan herramientas o servicios especializados puede comprimirse. Esa presión afectaría sobre todo a proveedores que venden automatización limitada, productos de appsec poco diferenciados o servicios donde una parte importante del trabajo sigue siendo repetitiva y manual. Esta es una inferencia razonable a partir de las capacidades que OpenAI y Anthropic están destacando para sus modelos y del tipo de tareas que los vendors ya automatizan con sus copilotos.
La segunda es la desintermediación parcial. Si un gran laboratorio de IA consigue ofrecer modelos ciberpermisivos con acceso verificado y APIs suficientemente usables, algunas empresas podrían preguntarse si necesitan comprar cierta capa de análisis a un proveedor de seguridad o si prefieren integrar directamente el modelo dentro de su propio SOC, pipeline de AppSec o tooling interno. No sería una sustitución completa, porque seguirían faltando datos, telemetría, reglas, correlación e integración operativa, pero sí podría erosionar parte del margen de algunas categorías de software de seguridad que viven más del análisis que del control del entorno. Esta comparación se apoya en el hecho de que OpenAI ya está ampliando TAC y Anthropic ya está ofreciendo Mythos a un conjunto de actores seleccionados.
La tercera es la presión competitiva sobre el relato de producto. Durante los dos últimos años, muchas empresas de seguridad han vendido la idea de que su principal valor diferencial en IA estaba en combinar modelos con datos propios, señales exclusivas y workflows integrados. Eso sigue siendo cierto en parte, pero la entrada de OpenAI y Anthropic hace más difícil sostener que la capa de “inteligencia” solo puede venir del vendor tradicional. Si los mejores modelos cibernéticos empiezan a vivir fuera de las compañías de seguridad y estas tienen que integrarlos o adaptarse a ellos, parte de su narrativa pasa de “lideramos la IA de seguridad” a “la empaquetamos mejor que nadie”. Y ese cambio puede parecer sutil, pero comercialmente no lo es.
El negocio no desaparece, pero sí cambia de sitio
Aun así, los riesgos para los vendors no deben sobredimensionarse. Ni OpenAI ni Anthropic tienen hoy la posición de plataforma que sí poseen CrowdStrike, Microsoft, Palo Alto Networks o Google en el día a día de un SOC. Los grandes proveedores de seguridad siguen controlando algo mucho más difícil de replicar que un modelo: la telemetría, la integración con productos, la orquestación de respuesta, el cumplimiento, el servicio gestionado y la relación operativa con el cliente. OpenAI puede ofrecer un mejor modelo para ciertas tareas. Anthropic puede ofrecer una capacidad más potente y más restringida. Pero ninguna de las dos empresas reemplaza por sí sola un EDR, un SIEM, un XDR, un MDR o una operación de respuesta ante incidentes. Esa conclusión se sostiene en la propia oferta pública de los vendors, que sigue centrada en plataforma, datos y automatización integrada, no solo en el modelo.
Por eso, el cambio más probable no es que los grandes laboratorios de IA destruyan el negocio de la ciberseguridad, sino que fuercen una nueva redistribución del valor. La parte más generalista, repetitiva o basada en “copilots” poco profundos estará más expuesta. La parte que combine IA con telemetría, enforcement, red, identidad y respuesta seguirá teniendo mucho peso. En ese sentido, OpenAI y Anthropic no están matando a los vendors de seguridad; les están empujando a demostrar que su verdadero negocio no era solo poner un chatbot encima del SOC, sino integrar la IA en la capa donde se toman decisiones reales.
Preguntas frecuentes
¿Qué diferencia hay entre GPT-5.4-Cyber y Claude Mythos Preview?
GPT-5.4-Cyber forma parte de una estrategia de acceso verificado más amplia a través de TAC y OpenAI quiere extenderlo a miles de defensores verificados. Claude Mythos Preview sigue en una vista previa de investigación cerrada y de acceso por invitación dentro de Project Glasswing.
¿Estos modelos amenazan a empresas como CrowdStrike o Palo Alto Networks?
A corto plazo, más que sustituirlas por completo, amenazan partes concretas de su negocio: automatización básica, análisis repetitivo y herramientas poco diferenciadas. Pero los grandes vendors siguen controlando telemetría, integración, orquestación y respuesta operativa.
¿Por qué CrowdStrike y Palo Alto aparecen también en Project Glasswing?
Porque Anthropic ha lanzado Glasswing con un grupo de socios que incluye a CrowdStrike y Palo Alto Networks, lo que indica que los grandes vendors de seguridad buscan participar en estas capacidades avanzadas en lugar de quedarse fuera.
¿Puede una empresa usar directamente estos modelos y prescindir de parte de su stack de seguridad?
En algunos análisis o workflows concretos podría integrar modelos más capaces y reducir dependencia de ciertas herramientas puntuales, pero hoy no sustituyen plataformas completas de seguridad, MDR, EDR, SIEM o respuesta a incidentes.