A Hugging Face recebe um número enorme de modelos de IA para testes e avaliação, que são vulneráveis a hackers. A taxa de adaptação da inteligência artificial é algo sem precedentes. Essa corrida desenfreada ajudou no desenvolvimento de muitas ferramentas úteis, mas, ao mesmo tempo, proporcionou aos hackers uma maneira mais rápida e fácil de implementar suas estratégias maliciosas. No caso da Hugging Face, os hackers encontraram uma maneira de obter informações de usuários executando seus próprios códigos.
Segundo pesquisadores da empresa de segurança em nuvem WIZ, havia duas falhas principais na arquitetura do sistema onde os modelos de aprendizado de máquina (ML) eram executados. As falhas, nomeadamente o risco de invasão da infraestrutura de inferência compartilhada e o risco de invasão da integração contínua e entrega contínua (CI/CD) compartilhada, deixavam os usuários à mercê de hackers mal-intencionados. Em outras palavras, essas falhas forneciam uma maneira secreta para os hackers carregarem seus códigos, o que lhes permitia adulterar os registros.
A parceria entre a Hugging Face e a WIZ visa explorar as deficiências.
Hackers poderiam acessar dados de outros usuários sem autorização, carregando seus próprios modelos de IA maliciosos. Isso representava um grande problema e poderia prejudicar a dent da Hugging Face, visto que essas plataformas são amplamente utilizadas para armazenar e processar modelos de IA como uma plataforma de IA como serviço (AaaS). A WIZ fez parceria com empresas de AaaS para encontrar vulnerabilidades de segurança nessas plataformas. No caso da Hugging Face, sua imensa popularidade e ampla adoção a colocaram no radar dos hackers. A colaboração com a WIZ proporcionou à Hugging Face uma excelente oportunidade para corrigir as deficiências em seu sistema e fortalecer as medidas de segurança da plataforma.
Como sabemos, os modelos de IA exigem maior poder de processamento gráfico (GPU) para executar suas funções, e por isso startups e outros fornecedores menores dependem de empresas provedoras de serviços de IA. A API de interface da Hugging Face também oferece esse mesmo serviço. Durante o processo, a WIZ Research executou seu próprio modelo de IA malicioso com algumas características nocivas que comprometeram o serviço da Hugging Face. Isso tornou o sistema vulnerável e permitiu que a WIZ acessasse outros modelos de clientes que utilizavam o serviço da Hugging Face.
Soluções e medidas de proteção em plataformas Alaas
A WIZ afirmou em seu blog que essas deficiências e descobertas não afetam apenas a Hugging Face, mas têm implicações mais amplas para todo o setor de IA como serviço. Todos os participantes do setor correm o risco de serem afetados, já que os hackers os veem como um repositório de modelos de IA e buscam obter acesso ilegal entre usuários.
A Hugging Face e a Wiz sugeriram conjuntamente algumas precauções para evitar violações de segurança, recomendando controles de segurança rigorosos e monitoramento regular das atividades. Sugeriram também o uso de registros seguros e a criação de um ambiente isolado (sandbox) para a execução de aplicativos de usuário, tornando os locais onde os códigos são armazenados mais protegidos para impedir o acesso entre usuários.

