Microsoft ha confirmado un problema de seguridad en Microsoft 365 Copilot que ha permitido a la IA resumir correos electrónicos confidenciales, ignorando las políticas de prevención de pérdida de datos (DLP) que las organizaciones configuran para proteger información la sensible.
El fallo, detectado por primera vez el 21 de enero de 2026 y rastreado bajo el identificador CW1226324, afecta específicamente a la función de chat de la pestaña “Trabajo” en Copilot.
Según una alerta de servicio, el asistente de IA ha estado procesando incorrectamente mensajes almacenados en las carpetas de Elementos enviados y Borradores, incluso cuando estos correos portan etiquetas de confidencialidad diseñadas explícitamente para restringir el acceso de herramientas automatizadas.
¿Qué está pasando con Copilot y los Emails privados?
En esencia, el bug permite que Copilot “lea” y genere resúmenes de correos que deberían estar protegidos. Las etiquetas de sensibilidad y las políticas DLP son mecanismos fundamentales en entornos corporativos que permiten a las empresas clasificar información crítica (datos financieros, secretos comerciales, información personal) y controlar quién o qué, puede acceder a ella.
“Los mensajes de correo electrónico de los usuarios con una etiqueta confidencial aplicada están siendo procesados incorrectamente por el chat de Microsoft 365 Copilot”, reconoció Microsoft en el momento de confirmar el incidente.
El problema radica en un error de código no especificado que hace que los elementos en las carpetas de enviados y borradores sean capturados por Copilot e independientemente de las restricciones configuradas.
En las organizaciones que confían en estas salvaguardas, el fallo representa una brecha potencial en su estrategia de protección de datos.
Copilot Chat dentro del ecosistema empresarial
Copilot Chat, la funcionalidad de chat consciente del contenido impulsada por IA de Microsoft, se lanzó para clientes empresariales de Microsoft 365 en septiembre de 2025.
Su promesa es atractiva: permitir a los usuarios interactuar con agentes de IA que comprenden el contexto de sus documentos, correos y reuniones para aumentar la productividad.
Pero ,esta capacidad de “entenderlo todo” también introduce graves riesgos de seguridad. Cuando una IA puede acceder a múltiples fuentes de datos corporativos libremente, los controles de acceso deben ser infalibles y en este caso; han demostrado NO serlo.
Este incidente demuestra que, incluso en plataformas maduras como Microsoft 365, los errores de implementación en la IA pueden llegar a generar graves vulnerabilidades de seguridad completamente inesperadas y que hasta el momento, se encontraban fuera del ámbito de los equipos de ciberseguridad de las empresas.
¿Se encuentra resulta la grave vulnerabilidad?
Microsoft confirmó que comenzó a desplegar una corrección a principios de febrero de 2026. Según la última actualización de la compañía, el equipo continúa “monitoreando la implementación” y se ha puesto en contacto con un subconjunto de usuarios afectados para “verificar que el parche funcione” correctamente.
Sin embargo, existen dos detalles que generan graves incertidumbres sobre todo esto:
- Sin cronograma final: Microsoft no ha proporcionado una fecha concreta para la remediación completa dentro del problema sobre todos sus diferentes entornos, en los que se despliega Copilot.
- Alcance indefinido: La compañía no ha revelado cuántos usuarios u organizaciones se vieron afectados, señalando únicamente que el impacto podría ajustarse a medida que avanza la investigación.
A pesar de la gran gravedad potencial del fallo, el incidente ha sido clasificado como “advisory” (asesoramiento) una etiqueta que Microsoft utiliza habitualmente para problemas de servicio con alcance o impacto limitado.
Esta categorización, podría indicar que la exposición real ha sido contenida; pero también, subraya la importancia de que las organizaciones verifiquen sus propios entornos.
¿Qué pueden hacer las empresas mientras tanto?
Si tu organización utiliza Microsoft 365 Copilot, las siguientes acciones pueden ayudarte a mitigar los posibles riesgos derivados, mientras se completa el total del posible parche de seguridad (si es que es posible implementar algo así, contra el funcionamiento impredecible de una IA):
- Revisa tus políticas DLP: Asegúrate de que las reglas de prevención de pérdida de datos estén correctamente configuradas y probadas. No asumas que la protección es automática.
- Audita el acceso de Copilot: Utiliza los registros de auditoría de Microsoft 365 para identificar si Copilot ha accedido a contenido sensible en las últimas semanas.
- Comunica a tus equipos: Informa a los usuarios sobre el incidente y recomienda precaución al usar Copilot con correos etiquetados como confidenciales.
- Monitorea actualizaciones: Suscríbete a las alertas de servicio de Microsoft para recibir notificaciones en tiempo real sobre el estado del parche.
- Evalúa controles adicionales: Considera implementar capas extra de protección, como cifrado de extremo a extremo para comunicaciones críticas, independientemente de las funcionalidades de IA.
Una lección relevante sobre la Inteligencia Artificial y la seguridad corporativa
Este incidente, con seguridad: no es, ni será un caso aislado. A medida que las empresas integran asistentes y agentes de IA en sus flujos de trabajo, la superficie de ataque se expande cada vez más profundamente dentro del ámbito empresarial.
Por tanto, los equipos de seguridad deben tener en cuenta, el que los controles de seguridad diseñados para los usuarios humanos no siempre se traducen en seguridad, a la hora de implementarse ante agentes de IA automatizados.
La promesa de productividad que ofrecen herramientas como Copilot es innegable, pero requiere un enfoque de seguridad por diseño muy elevado..
Se deben, evaluar riesgos antes del despliegue, monitorear comportamientos inusuales, mantener una postura de “confianza cero” incluso con las herramientas de los proveedores de mayor confianza.
Conclusión
El bug de Copilot es un recordatorio oportuno de que la innovación en IA debe ir de la mano con la madurez en la seguridad. Microsoft está trabajando en una solución, y la mayoría de las organizaciones probablemente no se verán afectadas de forma crítica.
Pero, la lección trasciende de este incidente específico, y este puede ser uno de los mayores problemas de seguridad a los que nos vayamos a enfrentar de aquí en adelante.
Para los líderes de TI, la pregunta no es si usar la IA o no, sino cómo usarla de forma responsable. Esto, significa mantenerse informado sobre las incidencias como esta, validar que los controles de seguridad funcionen como se espera y sobre todo, recordar que la tecnología más potente sigue siendo tan segura como su configuración más débil.
Mientras el parche se despliega completamente, la mejor defensa seguirá siendo la misma de siempre: conciencia, verificación y una dosis saludable de escepticismo técnico.
