Equipe de IA da Microsoft expõe dados sensíveis no GitHub

Os dados vazados continham mais de 30 mil mensagens internas da Microsoft, senhas, backups pessoais de dois funcionários e 38 terabytes de informações sensíveis.

Pesquisadores da Microsoft em inteligência artificial acidentalmente expuseram informações confidenciais da empresa em repositórios públicos no GitHub, uma plataforma de compartilhamento de código-fonte.

O GitHub é de propriedade da Microsoft. Em março, alguém compartilhou partes do algoritmo do Twitter/X na plataforma, que foi intimada a revelar os dados pessoais desse usuário.

O QUÊ? Os dados incluíam mais de 30 mil mensagens de comunicação interna da Microsoft de centenas de funcionários, senhas e backups pessoais de dois funcionários da empresa, além de 38 terabytes de informações sensíveis.

COMO? A URL de acesso ao repositório com informações confidenciais, que ficou disponível desde 2020, estava mal configurada, permitindo um controle mais amplo do que o necessário. Isso possibilitava que alguém apagasse, trocasse ou adicionasse código malicioso, desde que soubesse onde procurar.

RESPOSTA. Após o vazamento ser relatado pela Wiz, uma startup de cibersegurança, a Microsoft afirmou que “nenhum dado de cliente foi exposto e nenhum outro serviço interno foi colocado em risco devido a esse problema”.

A empresa também ampliou sua equipe responsável por monitorar todas as alterações em código-fonte aberto público no GitHub, em busca de exposição de informações confidenciais.

Via Techcrunch (em inglês)

Texto Sofia Schurig
Edição Alexandre Orrico

Receba nossas newsletters e traga felicidade para sua vida.

Não perca nada: você vai receber as newsletters Garimpo (memes e atualidades), Polígono (curadoria de ciência nas redes sociais) e Prensadão (resumo semanal de tudo o que o Núcleo fez). É fácil de receber e fácil de gerenciar!
Show de bola! Verifique sua caixa de entrada e clique no link para confirmar sua inscrição.
Erro! Por favor, insira um endereço de email válido!