Tres de cada cuatro proyectos de IA agéntica suponen un riesgo grave de seguridad

Un reciente informe de Palo Alto Networks, empresa líder en ciberseguridad, advierte que el 75% de los proyectos de inteligencia artificial agéntica en desarrollo en Europa suponen un riesgo significativo para la seguridad de las organizaciones. El problema no radica en la tecnología en sí, sino en la falta de gobernanza, control y supervisión adecuados.

El estudio, basado en más de 3.000 entrevistas con altos directivos (C-suite) de compañías europeas, evidencia que muchas iniciativas de IA se están implementando sin una estrategia clara, sin objetivos definidos y sin criterios de seguridad establecidos, lo que refleja una escasa implicación de los consejos de administración. Según la compañía, si no se toman medidas urgentes desde el liderazgo empresarial, la innovación actual podría derivar en una crisis cibernética en el futuro.

Para evitarlo y asegurar que la IA agéntica genere valor real y sostenible, Palo Alto Networks propone tres pilares fundamentales que deben orientar su adopción responsable y segura.

Pilar 1: Definir y limitar los resultados

El análisis identifica como principal causa de fracaso el fenómeno del “desvío de resultados”, es decir, proyectos de IA lanzados sin objetivos empresariales medibles ni enfoque de riesgo. Según Gartner, el 40% de todos los proyectos serán cancelados antes de 2027, mientras que el MIT estima que el 95% de los programas de IA generativa empresariales ya están fracasando. La situación es aún más preocupante desde el punto de vista de la ciberseguridad, ya que solo el 6% de las organizaciones aplican un marco de seguridad avanzado para la IA (Stanford).

“La gran diferencia ahora es que la IA agentiva no se limita a ofrecer respuestas, sino que ejecuta acciones orientadas a resultados concretos”, explica Haider Pasha, CISO de EMEA en Palo Alto Networks. “Las organizaciones que sepan identificar los casos de uso adecuados y alinearlos con objetivos de negocio serán las que realmente logren extraer valor de esta tecnología”.

La compañía recomienda diseñar los proyectos de agentes de IA a partir de objetivos definidos y aprobados por el consejo, alineados con estándares de seguridad e identidad corporativa.

Pilar 2: Guardarraíles de seguridad desde el diseño

El análisis subraya que la confianza en la IA debe equilibrarse con el control, aplicando principios de Zero Trust y un enfoque de seguridad centrado en la identidad. Los fallos más comunes provienen de agentes con privilegios excesivos, controles de identidad débiles o sin límites de acceso definidos.

Palo Alto Networks destaca que la autonomía de los agentes debe ganarse, no concederse desde el primer día. Los sistemas deben tratarse como empleados digitales, sujetos a niveles de confianza progresivos y con auditoría constante. Por ello, la compañía recomienda:

  • Aplicar el modelo Zero Trust en toda la arquitectura.
  • Separar privilegios y controlar los subagentes.
  • Registrar todas las acciones y mantener siempre un humano en el circuito.
  • Adoptar un AI Security Framework integral, evitando soluciones aisladas.

Actualmente, la relación entre agentes y humanos se sitúa ya en torno a 80 a 1, una proporción que se incrementará rápidamente en los próximos años, obligando a las organizaciones a establecer marcos de control robustos y escalables.

Pilar 3: Gobernanza transversal y responsabilidad compartida

Como último punto, Palo Alto Networks destaca que los agentes de IA deben abordarse como una iniciativa empresarial transversal, no como un proyecto aislado del área de TI. Para garantizar su éxito, la compañía propone crear un “Consejo de Gobernanza de Agentes”, con representación de las áreas de seguridad, riesgo, legal, operaciones y negocio, y revisiones periódicas a nivel de consejo de administración. Asimismo, insta a los consejos a:

  • Supervisar de forma más estricta la integración y los resultados de los proyectos.
  • Formarse activamente en las implicaciones de la IA.
  • Establecer alianzas con socios tecnológicos de confianza a largo plazo.
  • Empoderar a los responsables para adoptar la IA de forma controlada y segura.

Este modelo de responsabilidad compartida refuerza la resiliencia, garantiza el cumplimiento normativo y asegura que los proyectos de estén alineados con los objetivos estratégicos.

encuentra artículos

newsletter

Recibe toda la actualidad del sector tech y cloud en tu email de la mano de RevistaCloud.com.

Suscripción boletín

LO ÚLTIMO

×