Your bank is using your money. You’re getting the scraps.WATCH FREE

 A divisão de pesquisa em IA da Microsoft enfrenta um enorme vazamento de dados

Neste post:

  • A divisão de pesquisa em IA da Microsoft sofreu um grande vazamento de dados devido a uma configuração incorreta de armazenamento, expondo 38 terabytes de dados confidenciais.
  • A violação ocorreu quando um URL de bucket de armazenamento do Azure foi compartilhado inadvertidamente durante contribuições para modelos de IA de código aberto no GitHub.
  • A empresa de segurança em nuvem Wiz descobriu o problema, destacando os desafios na proteção de dados de IA e recomendando uma melhor gestão dos tokens de acesso.

Em uma reviravolta preocupante, a divisão de pesquisa em IA da Microsoft está lidando com as repercussões de uma violação de dados substancial. Essa falha crítica de segurança, que permaneceu sem ser detectada por quase três anos, foi trac até um bucket de armazenamento de Blobs do Azure mal configurado, revelando impressionantes 38 terabytes (TB) de dados altamente sensíveis .

O desenrolar dessa saga de violação de dados começou quando, em julho de 2020, a Microsoft expôs involuntariamente a URL do bucket de armazenamento do Azure. Essa divulgação inadvertida ocorreu durante o louvável esforço da Microsoft em contribuir com modelos de aprendizado de inteligência artificial (IA) de código aberto para um repositório público do GitHub.

As consequências dessa exposiçãodentforam graves, com uma ampla gama de informaçõesdentexpostas. Isso incluiu dados de funcionários da Microsoft, chaves secretas e um extenso arquivo de mensagens internas. A gravidade dessa situação levanta questões sobre a eficácia das medidas de segurança existentes e ressalta o crescente desafio de proteger grandes conjuntos de dados na era da IA.

Navegando pelos perigos do desenvolvimento da IA

O avanço da tecnologia de IA, sem dúvida, abre um imenso potencial para empresas de tecnologia em todo o mundo. No entanto, à medida que essa tecnologia evolui rapidamente, cientistas e engenheiros de dados enfrentam a tarefa formidável de proteger os volumes colossais de dados que manipulam. Embora o desenvolvimento da IA ​​dependa crucialmente do acesso a extensos conjuntos de dados para treinamento e inovação, o incidente da Microsoft dent vividamente as complexidades da segurança de dados.

Veja também:  Biden e Xi lidam com tensões em reunião histórica

Resposta rápida à supervisão de segurança

A Wiz, uma importante empresa de segurança em nuvem, desempenhou um papel fundamental na descoberta dessa violação de dados. Seus pesquisadores diligentes trouxeram essa falha à tona em 22 de junho de 2023. Em resposta, a Microsoft agiu com rapidez, revogando o token de assinatura de acesso compartilhado (SAS) em 24 de junho. Essa ação decisiva interrompeu efetivamente o acesso externo aos dados comprometidos. Notavelmente, o token SAS, projetado para fornecer acesso delegado seguro, concedeu inadvertidamente controle total sobre os arquivos compartilhados neste caso.

O desafio do gerenciamento de tokens SAS

Embora os tokens SAS ofereçam um meio poderoso de proteger o acesso a recursos, seu gerenciamento eficaz no portal do Azure tem se mostrado complexo. A descoberta de Wiz ressalta a necessidade crítica de monitoramento e governança meticulosos desses tokens. Ela serve como um forte lembrete de que sua utilização deve ser estritamente limitada para mitigar os riscos de segurança de forma abrangente.

Fortalecendo o futuro da IA

A violação de dados da Microsoft serve como um forte lembrete da importância fundamental de protocolos de segurança robustos no desenvolvimento de IA e na gestão de grandes conjuntos de dados. Ela exige uma reavaliação completa dos procedimentos de segurança e a implementação de medidas de proteção avançadas para evitar futuras violações.

Veja também:  Empresas de pesquisa preveem que PCs com inteligência artificial impulsionarão o crescimento das vendas de PCs em 2024.

A violação acidental de dados da divisão de pesquisa em IA da Microsoft, resultante de uma configuração incorreta de um bucket do Azure Blob Storage, serve como um alerta preocupante para o setor de tecnologia. À medida que a tecnologia de IA continua a remodelar o cenário, as organizações devem permanecer vigilantes para proteger os vastos conjuntos de dados essenciais para o desenvolvimento da IA. 

Estedent enfatiza a necessidade de verificações de segurança rigorosas, salvaguardas estritas e gerenciamento aprimorado de tokens de acesso para proteger informações confidenciais contra acesso não autorizado. Em uma era digital onde os dados formam a base da inovação, a segurança de dados deve permanecer uma prioridade máxima para todas as organizações, independentemente do porte ou escopo.

Existe um meio-termo entre deixar o dinheiro no banco e arriscar tudo em criptomoedas. Comece com este vídeo gratuito sobre finanças descentralizadas .

Compartilhar link:

Aviso Legal. As informações fornecidas não constituem aconselhamento de investimento. O Cryptopolitan não se responsabiliza por quaisquer investimentos realizados com base nas informações fornecidas nesta página. Recomendamos tron a realização de pesquisas independentes dent /ou a consulta a um profissional qualificado antes de tomar qualquer decisão de investimento.

Mais lidas

Carregando os artigos mais lidos...

Fique por dentro das notícias sobre criptomoedas e receba atualizações diárias na sua caixa de entrada

Escolha do editor

Carregando artigos selecionados pela equipe editorial...

- A newsletter de criptomoedas que te mantém sempre um passo à frente -

Os mercados se movem rapidamente.

Nós nos movemos mais rápido.

Assine o Cryptopolitan Daily e receba informações oportunas, precisas e relevantes sobre criptomoedas diretamente na sua caixa de entrada.

Inscreva-se agora e
não perca nenhum lance.

Entre. Informe-se.
Saia na frente.

Inscreva-se no CryptoPolitan