Un fallo en Microsoft 365 Copilot hizo que resumiera correos “confidenciales” pese a políticas DLP
La promesa de la Inteligencia Artificial corporativa es sencilla de explicar y difícil de ejecutar: ayudar a trabajar más rápido sin que los datos sensibles se escapen del perímetro de la empresa. Esta semana, Microsoft ha tenido que reconocer que esa línea se difuminó durante varias semanas por un fallo en Microsoft 365 Copilot, su asistente integrado en herramientas como Outlook y el resto de la suite. Según la compañía, un bug provocó que Copilot leyera y resumiera correos electrónicos etiquetados como “confidenciales”, incluso cuando las organizaciones habían activado políticas de Prevención de Pérdida de Datos (DLP) diseñadas precisamente para impedirlo. El incidente, que Microsoft ha seguido internamente bajo el identificador CW1226324, fue detectado el 21 de enero y afectó