Zscaler pone el foco en la “huella de IA” empresarial con una nueva suite de seguridad

La carrera por desplegar Inteligencia Artificial generativa y, sobre todo, Inteligencia Artificial agéntica en la empresa tiene un problema poco glamuroso: la seguridad va por detrás. Con cada nuevo copiloto, cada API de modelos, cada agente que automatiza tareas y cada integración en SaaS, el perímetro tradicional se difumina un poco más… y la visibilidad se complica.

Ese es el punto de partida del anuncio que Zscaler hizo público el 27 de enero de 2026: una batería de innovaciones agrupadas en su AI Security Suite, orientada a que los equipos de TI y seguridad puedan descubrir, clasificar y gobernar el uso real de la IA en la organización, sin frenar la adopción.

El nuevo agujero: IA por todas partes… y nadie la ve entera

En el comunicado, la compañía reconoce un patrón que cada administrador y CISO identifica al vuelo: la empresa no suele tener un inventario completo de qué herramientas de IA se están usando (GenAI “sombra”, entornos de desarrollo, IA embebida en SaaS, modelos, agentes e infraestructura). Eso impide medir exposición, acceso a datos y riesgo con precisión.

A esa falta de mapa se suma un segundo problema: el tráfico y los flujos de la IA no se comportan como el tráfico web clásico. Según Zscaler, los patrones “no humanos” y los nuevos protocolos dificultan aplicar políticas y controles con herramientas tradicionales.

En paralelo, Zscaler liga el anuncio a un dato llamativo incluido en su ThreatLabz 2026 AI Security Report: la firma afirma que, en sus análisis, “la mayoría” de sistemas de IA empresariales podrían comprometerse en 16 minutos, con fallos críticos en el 100 % de los sistemas estudiados.

Tres frentes: inventario, acceso seguro y protección del ciclo de vida

La suite se estructura alrededor de tres casos de uso que, en la práctica, cubren el “antes, durante y después” de adoptar IA:

  • AI Asset Management: inventario de aplicaciones, modelos, agentes, infraestructura y uso, con el objetivo de detectar shadow AI y priorizar riesgos en función de qué datos toca cada servicio.
  • Secure Access to AI: controles Zero Trust para habilitar servicios aprobados, con inspección en línea y clasificación de prompts para reducir fugas de datos o usos indebidos sin matar la productividad.
  • Secure AI Infrastructure and Apps: protección del desarrollo de IA “de build a runtime”, incluyendo red teaming automatizado, endurecimiento de prompts y guardarraíles en ejecución.

Dicho de forma más “de trinchera”: Zscaler intenta convertir el caos de herramientas, APIs, extensiones y agentes en algo que se parezca a un CMDB vivo de IA, con relaciones, dependencias y contexto de datos.

MCP, agentes y la seguridad que llega tarde

Uno de los detalles más relevantes para perfiles de sistemas es que Zscaler incluye explícitamente en el inventario elementos como servidores MCP, agentes y modelos, además de la infraestructura subyacente. En la práctica, esto apunta a un escenario emergente: empresas que empiezan a desplegar “capas” para que agentes y herramientas se conecten a recursos internos y externos de forma programática.

En ese contexto, la compañía también menciona la expansión de capacidades con un MCP gateway para automatización segura y el uso de AI Deception para desviar y neutralizar ataques “model-based”.

Y aquí aparece un matiz importante: el debate ya no es solo “bloquear o permitir ChatGPT”, sino gobernar conversaciones, acciones y permisos de sistemas que actúan con cierta autonomía (o que, al menos, automatizan pasos que antes eran manuales).

El termómetro de uso: más IA, más bloqueo y más datos en juego

Más allá del marketing, el informe de ThreatLabz funciona como termómetro de tendencia. En su página de campaña del informe 2026, Zscaler asegura haber observado 1 billón de transacciones de IA/ML en 2025 y un crecimiento interanual del 91 %. Además, afirma que su plataforma identificó unas 3.400 aplicaciones generando tráfico relacionado con IA/ML.

Dos cifras llaman la atención a cualquiera que gestione proxy, CASB o DLP: Zscaler indica que el 39 % de las transacciones de IA/ML fueron bloqueadas (por motivos como protección de datos o políticas internas). Y también cifra en 18.000 TB el volumen total de datos transferidos a través de apps de IA/ML.

En cuanto a aplicaciones, el mismo material señala como apps con más transacciones bloqueadas nombres muy habituales en entornos corporativos, como Grammarly, GitHub Copilot y ChatGPT.

Gobernanza: NIST, EU AI Act y reporting “para dirección”

Zscaler enmarca el movimiento como una respuesta a la necesidad de gobernanza: alinear programas de seguridad con marcos como el NIST AI Risk Management Framework y el EU AI Act, y ofrecer reporting a nivel directivo sobre uso de GenAI.

Esto conecta con una realidad muy europea: la IA ya no es solo “un proyecto del equipo de datos”, sino un asunto que toca cumplimiento, riesgo, auditoría, legal y privacidad. Para sistemas y seguridad, la exigencia práctica es clara: si no puedes explicar qué modelos se usan, quién accede, qué datos entran y qué sale… el problema no es la IA; es la falta de control.


Preguntas frecuentes

¿Qué es “shadow AI” y por qué preocupa a TI?
Es el uso de herramientas de IA sin aprobación ni control corporativo. Suele implicar riesgo de fuga de datos, incumplimiento y falta de trazabilidad de qué información se comparte con modelos o servicios externos.

¿Por qué la IA agéntica cambia el enfoque de seguridad?
Porque no solo “responde”: también puede ejecutar acciones (consultar sistemas, lanzar tareas, modificar tickets, acceder a repositorios). Eso eleva el impacto potencial de un abuso de permisos, un prompt malicioso o una integración insegura.

¿Qué aporta un inventario de “huella de IA” frente a un bloqueo tradicional por categorías?
Un bloqueo genérico puede frenar productividad o dejar huecos. Un inventario con dependencias permite ver qué se usa realmente, qué datos toca cada servicio y aplicar políticas finas (por usuario, app, tipo de dato, contexto, etc.).

¿Qué controles son más críticos para evitar fugas al usar GenAI en empresa?
Visibilidad de uso, clasificación de datos, inspección en línea y políticas claras (qué herramientas están permitidas, para qué casos y con qué tipos de información), además de guardarraíles específicos para prompts y salidas cuando el flujo de trabajo lo requiera.

vía: zscaler

encuentra artículos

newsletter

Recibe toda la actualidad del sector tech y cloud en tu email de la mano de RevistaCloud.com.

Suscripción boletín

LO ÚLTIMO

Las últimas novedades de tecnología y cloud

Suscríbete gratis al boletín de Revista Cloud. Cada semana la actualidad en tu buzón.

Suscripción boletín
×