Your bank is using your money. You’re getting the scraps.WATCH FREE

A Protect AI lança o Guardian para proteger modelos de aprendizado de máquina contra códigos maliciosos

Neste post:

  • O Guardian da Protect AI protege modelos, dados e sistemas de IA contra malware.
  • Ele analisa modelos de código aberto em busca de ameaças ocultas, garantindo o uso seguro da IA.
  • O Guardian oferece controle e segurança com fácil integração em sistemas já existentes.

A Protect AI, líder em de IA , apresentou sua mais recente inovação, o Guardian. Essa solução de ponta permite que as organizações apliquem políticas de segurança robustas em seus modelos de aprendizado de máquina, garantindo que códigos maliciosos não se infiltrem em seus ambientes de IA.

Construído sobre a base da ferramenta de código aberto da Protect AI, o ModelScan, o Guardian combina recursos de código aberto com funcionalidades de varredura proprietárias, fornecendo segurança abrangente de modelos para empresas.

Abordando os riscos da democratização da IA/ML

A democratização da inteligência artificial e do aprendizado de máquina levou à ampla disponibilidade de modelos fundamentais em plataformas como a Hugging Face. Esses modelos, baixados por milhões de usuários todos os meses, desempenham um papel crucial no desenvolvimento de uma ampla gama de aplicações de IA. 

No entanto, essa acessibilidade também introduziu vulnerabilidades de segurança, uma vez que a troca aberta de arquivos nesses repositórios pode, inadvertidamente, facilitar a disseminação de software malicioso entre os usuários.

Ian Swanson, CEO da Protect AI, afirmou: “Os modelos de aprendizado de máquina se tornaram ativos essenciais na infraestrutura de uma organização, mas muitas vezes não passam pelas rigorosas verificações de vírus e códigos maliciosos que outros tipos de arquivo recebem antes de serem usados. 

Com milhares de modelos baixados milhões de vezes por mês em plataformas como a Hugging Face, o potencial de infiltração de código malicioso é significativo. O Guardian permite que os clientes recuperem o controle sobre a segurança de seus modelos de código aberto

Veja também:  Preço Bitcoin Cash

Guardião: Proteção contra ataques de serialização de modelos

Um dos riscos críticos associados a modelos de aprendizado de máquina compartilhados abertamente é o ataque de serialização de modelo. Isso ocorre quando um código malicioso é injetado em um modelo durante a serialização (salvamento) e antes da distribuição, criando uma versão moderna do Cavalo de Troia. 

Uma vez incorporado em um modelo, esse código malicioso oculto pode ser executado para roubar dados confidenciais, comprometerdent, manipular dados e muito mais. Esses riscos são comuns em modelos hospedados em grandes repositórios como o Hugging Face.

A Protect AI lançou anteriormente o ModelScan, uma ferramenta de código aberto projetada para analisar modelos de IA/ML em busca de possíveis ataques, protegendo os sistemas contra vulnerabilidades na cadeia de suprimentos. Desde sua criação, a Protect AI utilizou o ModelScan para avaliar mais de 400.000 modelos hospedados na Hugging Face,dentmodelos com falhas de segurança e atualizando continuamente essa base de conhecimento.

Até o momento, mais de 3.300 modelos foram descobertos com a capacidade de executar código malicioso. Esses modelos continuam sendo baixados e implantados em ambientes de aprendizado de máquina sem medidas de segurança adequadas para analisá-los em busca de riscos potenciais antes da adoção.

Guardian: O portal seguro para desenvolvimento e implantação de modelos

Ao contrário de outras alternativas de código aberto, o Guardian da Protect AI é um gateway seguro, que preenche a lacuna entre os processos de desenvolvimento e implantação de aprendizado de máquina que dependem de plataformas como o Hugging Face e outros repositórios de modelos. 

Veja também:  A maior gestora de patrimônio do Japão, Nomura, reduz exposição a criptomoedas após prejuízos no terceiro trimestre.

A Guardian utiliza scanners de vulnerabilidades proprietários, incluindo um scanner especializado para camadas lambda do Keras, para inspecionar proativamente modelos de código aberto em busca de código malicioso, garantindo a utilização de modelos seguros e em conformidade com as políticas dentro das redes organizacionais.

Controle de acesso aprimorado e insights abrangentes

O Guardian oferece recursos avançados de controle de acesso e painéis intuitivos que concedem às equipes de segurança controle total sobre de modelos , ao mesmo tempo que fornecem informações abrangentes sobre a origem, os criadores e o licenciamento dos modelos. Esse nível de transparência garante que as organizações possam tomar decisões informadas sobre os modelos que incorporam em seus ambientes de IA.

Além disso, o Guardian se integra às estruturas de segurança existentes e complementa o Radar da Protect AI, oferecendo ampla visibilidade da superfície de ameaças para IA e aprendizado de máquina dentro das organizações.

Se você está lendo isto, já está um passo à frente. Continue assim assinando nossa newsletter .

Compartilhar link:

Aviso Legal. As informações fornecidas não constituem aconselhamento de investimento. O Cryptopolitan não se responsabiliza por quaisquer investimentos realizados com base nas informações fornecidas nesta página. Recomendamos tron a realização de pesquisas independentes dent /ou a consulta a um profissional qualificado antes de tomar qualquer decisão de investimento.

Mais lidas

Carregando os artigos mais lidos...

Fique por dentro das notícias sobre criptomoedas e receba atualizações diárias na sua caixa de entrada

Escolha do editor

Carregando artigos selecionados pela equipe editorial...

- A newsletter de criptomoedas que te mantém sempre um passo à frente -

Os mercados se movem rapidamente.

Nós nos movemos mais rápido.

Assine o Cryptopolitan Daily e receba informações oportunas, precisas e relevantes sobre criptomoedas diretamente na sua caixa de entrada.

Inscreva-se agora e
não perca nenhum lance.

Entre. Informe-se.
Saia na frente.

Inscreva-se no CryptoPolitan