Microsoft admite bug que fez o Copilot ler e resumir seus e-mails confidenciais


 A Microsoft confirmou um problema sério no Microsoft 365 Copilot que deixou muitos usuários e empresas em alerta: por semanas, o assistente de IA chegou a ler e resumir e-mails marcados como confidenciais, mesmo quando políticas de segurança deveriam impedir esse acesso.

O bug identificado internamente pela Microsoft como CW1226324 afetou o recurso de summarization do Copilot Chat, integrado diretamente ao Outlook e outros aplicativos do Microsoft 365. Mesmo quando um e-mail tinha uma etiqueta de sensibilidade ou política de prevenção de perda de dados (DLP) aplicada, a IA estava processando essas mensagens e gerando resumos, algo que não deveria acontecer sob nenhuma circunstância.

Segundo a empresa, a falha ocorreu desde fim de janeiro de 2026 e envolveu principalmente as pastas de Itens Enviados e Rascunhos dos usuários. Em vez de respeitar as limitações de privacidade configuradas pelos administradores (como etiquetas que bloqueiam ferramentas automatizadas), o Copilot acabou acessando textos que deveriam permanecer totalmente privados.

Esse tipo de comportamento acende um sinal de alerta enorme para privacidade e segurança de dados em ambientes corporativos e governamentais. Empresas usam etiquetas de confidencialidade e políticas de DLP exatamente para garantir que informações sensíveis, como contratos, estratégias internas, dados médicos ou financeiros, nunca sejam processadas por mecanismos automatizados. O fato de que um bug permitiu que isso acontecesse levanta questões profundas sobre a confiança em ferramentas de IA integradas ao fluxo de trabalho.

A Microsoft diz que já começou a liberar uma correção no início de fevereiro para tentar impedir que o Copilot continue fazendo esse processamento indevido, e está monitorando o progresso para garantir que o problema seja resolvido por completo.
No entanto, a empresa não divulgou um número exato de usuários ou organizações afetadas nem um prazo concreto para a solução final. Esse silêncio alimenta ainda mais debates sobre o impacto real da falha.

O caso também já provocou ações práticas: o departamento de TI do Parlamento Europeu bloqueou os recursos de IA integrados nos dispositivos de trabalho, citando preocupações de que a IA poderia realmente carregar correspondências confidenciais para a nuvem, algo totalmente contrário às práticas de segurança corporativas.

Especialistas em segurança afirmam que esse tipo de episódio evidencia um ponto crítico: ferramentas de IA, especialmente aquelas com acesso a grandes volumes de dados sensíveis, precisam de mecanismos de proteção muito mais rígidos e confiáveis. Quando uma IA pode ignorar etiquetas de confidencialidade por causa de um bug, a confiança de grandes empresas e governos fica seriamente abalada. 

Comentários