Las amenazas internas continúan siendo uno de los mayores desafíos para los responsables de ciberseguridad. A este escenario se suma ahora la expansión de la inteligencia artificial autónoma, que podría incrementar significativamente el riesgo de exposición de datos sensibles. Según advierte Proofpoint, los copilotos basados en IA podrían llegar a superar a los propios empleados como origen de filtraciones de información a lo largo de este año.
Cada vez más organizaciones están incorporando agentes inteligentes capaces de interactuar con múltiples sistemas, automatizar tareas complejas o generar código. No obstante, si estos sistemas no están correctamente configurados, pueden activar procesos que expongan datos confidenciales o debiliten los controles de seguridad. Además, en determinados contextos, el comportamiento de estos agentes podría ser manipulado para ejecutar acciones no autorizadas.
Los expertos señalan que los programas tradicionales de prevención de amenazas internas se diseñaron pensando en los riesgos asociados a las personas: sus accesos, sus oportunidades o sus posibles motivaciones. Sin embargo, la incorporación de la inteligencia artificial introduce una nueva dimensión de riesgo. Los investigadores de Proofpoint subrayan que los agentes de IA deben considerarse identidades digitales con privilegios propios, por lo que las organizaciones deberán gestionar sus permisos, monitorizar sus actividades y evaluar su impacto en la seguridad.
En este nuevo entorno de trabajo, donde humanos y agentes de IA colaboran de forma habitual, aumentan también los riesgos derivados de errores involuntarios. Herramientas basadas en grandes modelos de lenguaje como ChatGPT, Microsoft Copilot o Google Gemini pueden facilitar la exposición accidental de información sensible cuando los usuarios introducen datos en sus consultas. A su vez, los propios agentes podrían resumir documentos internos o acceder a información restringida si no se establecen límites claros.
La situación puede agravarse si actores maliciosos utilizan instrucciones diseñadas para manipular a los sistemas de IA. Mediante este tipo de interacciones, podrían lograr que los agentes revelen procesos internos o ejecuten acciones que antes requerían conocimientos técnicos avanzados.
Además, los incidentes relacionados con amenazas internas tienden a aumentar en periodos de cambios corporativos, como fusiones, adquisiciones o procesos de captación agresiva de talento. En estos contextos, el acceso a sistemas en transición y la presión sobre los empleados generan un entorno más propicio para filtraciones de información o prácticas indebidas. La inteligencia artificial, según los analistas, también podría facilitar actividades como el espionaje corporativo al permitir investigar competidores, replicar comunicaciones legítimas o encubrir determinadas acciones.
A pesar de estos riesgos, la IA también se perfila como una herramienta clave para mejorar la seguridad. Proofpoint anticipa que durante 2026 la inteligencia artificial jugará un papel cada vez más importante en la detección y análisis de incidentes internos. Gracias a su capacidad para procesar grandes volúmenes de datos, podrá identificar patrones sospechosos, correlacionar eventos y priorizar amenazas con mayor rapidez.
Este cambio implicará también una transformación en la gestión de riesgos. Las organizaciones deberán integrar en un mismo enfoque las señales procedentes de identidades, comportamientos de usuarios y eventos técnicos, en lugar de analizarlas por separado. Con una visión unificada, los equipos de seguridad podrán intervenir antes y aplicar medidas más precisas.
Por último, los especialistas subrayan la importancia de establecer normas claras para el uso responsable de la inteligencia artificial, incluyendo políticas de privacidad, criterios éticos y mecanismos de gobernanza que regulen el funcionamiento de los agentes y su acceso a la información corporativa. Según Proofpoint, adoptar estas medidas será clave para reducir las nuevas amenazas y garantizar un entorno digital seguro en el que convivan personas y sistemas de IA.