A Microsoft admitiu que um bug permitiu que seu Copilot AI resumisse os e-mails confidenciais dos clientes sem sua permissão durante várias semanas.

Este bug foi relatado pela primeira vez por espia computadorDesde janeiro, o Copilot Chat consegue ler e resumir o conteúdo dos e-mails, mesmo que os clientes tenham políticas de prevenção contra perda de dados que impedem que informações confidenciais sejam trazidas para o modelo de linguagem em larga escala da Microsoft.

O Copilot Chat permite que clientes pagantes do Microsoft 365 usem recursos de chat com tecnologia de IA em produtos de software do Office, como Word, Excel e PowerPoint.

Segundo a Microsoft, esse bug pode ser rastreado pelos administradores da seguinte forma: CW1226324significa que “Rascunhos e mensagens de email enviadas com rótulos de confidencialidade aplicados são tratados incorretamente pelo Microsoft 365 Copilot Chat.”

A gigante da tecnologia disse que começou a lançar uma correção para o bug no início de fevereiro. Um porta-voz da Microsoft não respondeu aos pedidos de comentários, incluindo perguntas sobre o número de clientes afetados pelo bug.

No início desta semana, o departamento de TI do Parlamento Europeu disse aos legisladores Alegou ter bloqueado recursos de IA integrados em dispositivos fornecidos ao local de trabalho, citando preocupações de que as ferramentas de IA poderiam enviar comunicações potencialmente confidenciais para a nuvem.

Source link