Un fallo en Microsoft 365 Copilot hizo que resumiera correos “confidenciales” pese a políticas DLP

La promesa de la Inteligencia Artificial corporativa es sencilla de explicar y difícil de ejecutar: ayudar a trabajar más rápido sin que los datos sensibles se escapen del perímetro de la empresa. Esta semana, Microsoft ha tenido que reconocer que esa línea se difuminó durante varias semanas por un fallo en Microsoft 365 Copilot, su asistente integrado en herramientas como Outlook y el resto de la suite. Según la compañía, un bug provocó que Copilot leyera y resumiera correos electrónicos etiquetados como “confidenciales”, incluso cuando las organizaciones habían activado políticas de Prevención de Pérdida de Datos (DLP) diseñadas precisamente para impedirlo.

El incidente, que Microsoft ha seguido internamente bajo el identificador CW1226324, fue detectado el 21 de enero y afectó a una función concreta: el chat de Copilot en la pestaña de trabajo (work tab). El comportamiento anómalo consistía en que el sistema “recogía” y procesaba mensajes ubicados en Enviados (Sent Items) y Borradores (Drafts), incluidos aquellos con etiquetas de confidencialidad que suelen usarse para imponer restricciones a herramientas automatizadas y reforzar el cumplimiento normativo.

Qué falló exactamente: cuando la etiqueta existe, pero la barrera no se aplica

En los entornos Microsoft 365, las etiquetas de confidencialidad (sensitivity labels) no son un mero “aviso” visual. Forman parte de Microsoft Purview y se utilizan para clasificar información y, en función del nivel de sensibilidad, aplicar protecciones que viajan con el contenido (por ejemplo, límites de acceso o restricciones de uso).

A esa capa se suma DLP, que en muchas compañías opera como última línea de defensa: políticas que evitan que información delicada (documentos, correos, identificadores, etc.) se procese o se comparta en contextos no permitidos. En el caso de Copilot y Copilot Chat, Microsoft ofrece ubicaciones específicas de política para restringir el procesamiento cuando el contenido tiene ciertas etiquetas o coincide con reglas de protección.

El problema, según Microsoft, fue un error de código que permitió que Copilot Chat incorporase elementos de Enviados y Borradores aunque existieran etiquetas de confidencialidad y una política DLP configurada. La consecuencia práctica es delicada: si un empleado preguntaba al chat por un tema, el asistente podía resumir contenido que, por diseño, debía quedar fuera del alcance de la automatización.

Un incidente que llega en plena expansión de Copilot Chat

El caso tiene una dimensión temporal relevante. Microsoft empezó a desplegar Copilot Chat (Microsoft 365 Copilot Chat) en aplicaciones como Word, Excel, PowerPoint, Outlook y OneNote para clientes empresariales de pago en septiembre de 2.025, acelerando la integración de la Inteligencia Artificial en el flujo de trabajo diario.

Ese despliegue masivo ha convertido a Copilot en un “nuevo empleado” que interactúa con contenidos internos. Y ahí es donde cualquier fallo de control —aunque sea de alcance limitado— se vuelve especialmente sensible para sectores regulados (salud, legal, finanzas), equipos que trabajan con NDA, departamentos de RR. HH. o áreas que manejan datos estratégicos (planes comerciales, fusiones, incidentes de seguridad). No es solo una cuestión técnica: es una cuestión de confianza.

Qué dice Microsoft sobre el alcance y el estado de la corrección

Microsoft ha catalogado el incidente como un advisory, una etiqueta que suele utilizarse para problemas que, según la compañía, tienden a tener impacto limitado o acotado. Aun así, no ha detallado cuántas organizaciones o usuarios estuvieron afectados, y ha advertido que el alcance podía variar a medida que avanzaba la investigación.

La empresa también ha indicado que comenzó a desplegar una corrección a principios de febrero y que, a fecha de la última actualización recogida por medios especializados, seguía monitorizando el despliegue y contactando con un subconjunto de usuarios para verificar que el arreglo funcionaba como estaba previsto.

Hay otro matiz que inquieta a algunos responsables de cumplimiento: parte de la información sobre el incidente ha circulado a través de avisos de servicio a clientes, lo que alimenta la sensación de que el mercado se está acostumbrando a “incidencias de IA” gestionadas como problemas operativos, cuando en realidad afectan a políticas que muchas empresas tratan como no negociables.

Lecciones para el mercado: la seguridad no puede depender de una sola barrera

Más allá del caso concreto, la noticia deja un recordatorio incómodo: las organizaciones están construyendo su gobierno de datos para Inteligencia Artificial sobre una combinación de etiquetado, políticas DLP y controles de acceso. Si cualquiera de esas piezas falla por un error de implementación, la seguridad pasa de ser un sistema a ser una expectativa.

En el tablero corporativo, esto no implica abandonar la automatización, pero sí refuerza una idea: la Inteligencia Artificial no puede incorporarse como “capa mágica” sin asumir que habrá incidencias y que la respuesta debe ser rápida, medible y auditable. En la práctica, muchas empresas ya tratan estos episodios como tratarían un cambio de comportamiento en un sistema crítico: revisan el estado del servicio, validan políticas, documentan pruebas internas y monitorizan el cumplimiento después de cada actualización.

En un momento en que la productividad y la automatización marcan el ritmo, lo que está en juego no es solo si Copilot resume bien un correo. Es si las reglas que una empresa define como “confidencial” siguen significando lo mismo cuando entra en escena la Inteligencia Artificial.


Preguntas frecuentes

¿Qué es una política DLP en Microsoft 365 y para qué sirve con Copilot?
DLP (Prevención de Pérdida de Datos) es un conjunto de políticas de Microsoft Purview que ayudan a evitar que información sensible se use o se comparta de forma indebida. En Copilot, se puede configurar para restringir que el asistente procese determinados contenidos, como correos o archivos con etiquetas específicas.

¿Qué carpetas de Outlook se vieron implicadas en el fallo de Copilot?
Según la información divulgada, el comportamiento afectó a correos ubicados en Enviados y Borradores, que podían ser recogidos por Copilot Chat pese a tener etiquetas de confidencialidad.

¿Cómo saber si una empresa estuvo afectada por CW1226324?
Microsoft lo gestionó como un aviso de servicio. En entornos corporativos, lo habitual es revisar el centro de administración de Microsoft 365 y los comunicados del estado del servicio asociados a Copilot para ver si el inquilino (tenant) aparece como impactado.

¿Qué diferencia hay entre “etiqueta de confidencialidad” y “DLP” en Microsoft Purview?
La etiqueta clasifica y puede aplicar protecciones al contenido (por ejemplo, restricciones asociadas a su sensibilidad). DLP aplica reglas para evitar usos o flujos de datos no permitidos. En escenarios con Inteligencia Artificial, suelen trabajar juntas para impedir que contenido marcado como sensible se procese en respuestas o resúmenes.

encuentra artículos

newsletter

Recibe toda la actualidad del sector tech y cloud en tu email de la mano de RevistaCloud.com.

Suscripción boletín

LO ÚLTIMO

Las últimas novedades de tecnología y cloud

Suscríbete gratis al boletín de Revista Cloud. Cada semana la actualidad en tu buzón.

Suscripción boletín
×