Inteligência ArtificialSegurança Digital

Falha no Microsoft 365 Copilot permitia roubo de dados

Pesquisadores de segurança revelaram uma vulnerabilidade curiosa e perigosa no Microsoft 365 Copilot, a ferramenta de inteligência artificial integrada ao pacote Office.

O problema? Hackers descobriram como “convencer” o Copilot a roubar dados confidenciais das próprias empresas que o utilizam.

Continua depois da publicidade

A falha, rastreada em uma investigação recente, envolvia uma técnica de injeção indireta de prompt (indirect prompt injection), em que comandos maliciosos são escondidos dentro de documentos aparentemente legítimos.

Quando o Copilot era solicitado a resumir um arquivo infectado, ele seguia instruções ocultas e passava a agir contra o usuário buscando e-mails corporativos recentes, codificando-os em hexadecimal e construindo um diagrama falso de login com os dados embutidos.

Ao clicar nesse diagrama, a vítima enviava as informações sensíveis diretamente para o servidor do invasor.

O truque: como o ataque enganava a IA da Microsoft

O ataque explorava uma função legítima do Copilot: a criação de diagramas Mermaid, que transformam texto simples em gráficos e fluxogramas.

Os invasores aproveitaram esse recurso para esconder links e CSS maliciosos dentro desses diagramas.

Continua depois da publicidade

A sequência era engenhosa:

  1. O Copilot lia o documento e executava as instruções invisíveis em texto branco.
  2. Ele buscava e-mails recentes do usuário, transformava tudo em uma sequência codificada e montava um “botão de login” falso dentro do diagrama.
  3. Esse botão incluía um link disfarçado, apontando para um servidor controlado pelos hackers.
  4. Quando o usuário clicava, o navegador enviava os dados codificados pela URL sem que nada parecesse errado.

Para tornar o golpe mais convincente, o servidor do invasor até devolvia uma falsa tela de login da Microsoft 365, dando a impressão de que o acesso havia expirado.

Vulnerabilidade no Copilot.

Por que essa falha é diferente

A chamada injeção indireta de prompt é uma evolução da tradicional manipulação de IA.
Em vez de enviar comandos diretamente para o chatbot, o invasor insere as instruções em conteúdos que a IA confia como planilhas, e-mails ou documentos do Word.

Ou seja, o Copilot foi instruído a se sabotar, acreditando que estava apenas resumindo ou processando um arquivo.

Os pesquisadores identificaram duas camadas de ataque:

Continua depois da publicidade
  • A primeira escondia instruções em uma planilha do Excel, pedindo ao Copilot para “ignorar os dados financeiros”.
  • A segunda, invisível ao usuário, ordenava a busca por e-mails e a criação do diagrama malicioso com o link de exfiltração.

A resposta da Microsoft

Após a divulgação responsável da falha, a Microsoft confirmou o problema e lançou uma atualização emergencial para o Copilot.
O patch desativa elementos interativos, como links clicáveis e CSS personalizados em diagramas Mermaid, eliminando o vetor usado pelos hackers.

A empresa também orientou os usuários corporativos a:

  • Evitar resumir documentos de fontes desconhecidas ou externas;
  • Atualizar o Microsoft 365 Copilot e suas integrações imediatamente;
  • Reforçar políticas de revisão de conteúdo automatizado antes do uso em ambientes produtivos.

Por que isso importa para o futuro da IA corporativa

O caso mostra o novo tipo de desafio que surge com o uso de assistentes de IA em empresas.
Essas ferramentas lidam com informações sigilosas e, se exploradas, podem se tornar um canal invisível de exfiltração de dados.

A exploração via prompt injection já foi observada em outros sistemas baseados em linguagem natural, mas a injeção indireta eleva o risco porque a IA acredita estar apenas executando suas funções normais.

Em outras palavras, o ataque não engana o humano. Ele engana a IA. Com o Copilot agora corrigido, o incidente serve como alerta: quanto mais inteligentes se tornam as ferramentas, mais criativos se tornam os ataques.

O futuro da cibersegurança dependerá não apenas de patches, mas de compreender que a IA precisa de segurança tanto quanto qualquer sistema tradicional.

Publicidade

Felipe F

Profissional de tecnologia com formação em Análise e Desenvolvimento de Sistemas e MBA em Segurança da Informação. Atua na área de infraestrutura e segurança, escrevendo sobre ameaças cibernéticas, Linux e segurança digital.