Your bank is using your money. You’re getting the scraps.WATCH FREE

A organização Anthropic acusa a China de desviar dados de Claude através de 24.000 contas falsas

Neste post:

  • A Anthropic afirma que a DeepSeek, a Moonshot AI e a MiniMax criaram mais de 24.000 contas falsas e enviaram mais de 16 milhões de solicitações a Claude paratracdados para o treinamento de seus próprios modelos.
  • A DeepSeek registrou cerca de 150.000 interações, a Moonshot AI ultrapassou 3,4 milhões e a MiniMax ultrapassou 13 milhões, conforme a Anthropic denominou a destilação tática.
  • A Anthropic alertou que laboratórios estrangeiros que utilizam destilação poderiam canalizar capacidades do modelo americano para sistemas militares, de inteligência e de vigilância.

A Anthropic afirma que três empresas chinesas de IA criaram mais de 24.000 contas falsas para extrair dados de seu sistema Claude. A empresa diz que o objetivo era aprimorar seus próprios modelos rapidamente.

As empresas mencionadas foram DeepSeek , Moonshot AI e MiniMax. A Anthropic afirmou que essas contas enviaram mais de 16 milhões de solicitações para Claude, a fim de coletar respostas e padrões que pudessem ser reutilizados para treinamento.

A Anthropic compartilhou os detalhes em uma postagem no blog na segunda-feira. A empresa afirmou que a atividade era uma forma de destilação. Esse processo utiliza os resultados de um modelo para treinar outro. Dario Amodei lidera a Anthropic.

A Anthropic alegou que a DeepSeek realizou cerca de 150.000 interações com Claude. A Moonshot AI registrou mais de 3,4 milhões de solicitações. A MiniMax alcançou mais de 13 milhões de solicitações. A Anthropic afirmou que a escala demonstra uma clara intenção detracvalor rapidamente.

OpenAI alerta para comportamento semelhante em Washington

No início deste mês, a OpenAI enviou um memorando a parlamentares da Câmara dos Representantes acusando a DeepSeek de usar a mesma tática de destilação para copiar seus sistemas. Sam Altman dirige a OpenAI . Após mencionar a OpenAI inicialmente, a empresa informou aos parlamentares que a DeepSeek tentou imitar seus produtos por meio de grandes volumes de solicitações.

Anthropic afirmou que a destilação em si tem aplicações válidas. As empresas a utilizam para construir versões menores de seus próprios modelos. Anthropic também disse que o mesmo método pode criar sistemas concorrentes em uma fração do tempo e a um custo muito menor.

Veja também:  A colaboração em IA entre a SK Hynix e a Nvidia se aprofunda.

Os dados sintéticos desempenham agora um papel importante no treinamento de grandes modelos fundamentais. Os desenvolvedores os utilizam porque os dados reais de alta qualidade são limitados. Muitos laboratórios também estão construindo sistemas com agentes que podem realizar ações em nome dos usuários. Em um relatório técnico de julho, a Moonshot afirmou ter utilizado dados sintéticos para treinar seu modelo Kimi K2.

A Anthropic afirmou que a atividade levanta preocupações de segurança nacional. A empresa declarou que laboratórios estrangeiros que reproduzem modelos americanos podem inserir essas capacidades em sistemas militares, de inteligência e de vigilância.

Os mercados reagem ao lançamento da nova ferramenta de segurança da Anthropic

A Anthropic também lançou na sexta-feira uma nova ferramenta para o Claude, em uma prévia limitada para pesquisa. A ferramenta analisa o código do software em busca de vulnerabilidades e sugere correções. A Anthropic planeja realizar uma apresentação para empresas na terça-feira, com mais anúncios de produtos.

Os mercados reagiram rapidamente. As ações de empresas de cibersegurança caíram pelo segundo dia consecutivo na segunda-feira, com os investidores preocupados com a possibilidade de novas ferramentas de IA substituírem os serviços de segurança mais antigos.

As ações da CrowdStrike caíram cerca de 9%. As da Zscaler também recuaram cerca de 9%. As da Netskope caíram quase 10%. As da SailPoint recuaram 6%. As da Okta, SentinelOne e Fortinet perderam mais de 4% cada. As da Palo Alto Networks caíram 2%.

As ações da Cloudflare caíram 7% após ganhos recentes ligados ao interesse na Moltbot. O ETF iShares Cybersecurity and Tech caiu quase 4%. O ETF Global X Cybersecurity atingiu seu nível mais baixo desde novembro de 2023.

Veja também:  O Google chega com tudo com um chip de IA de silício personalizado, desenvolvido para rivalizar com o melhor da Nvidia.

A pressão vai além das ações de empresas de segurança. Ferramentas de IA que criam aplicativos e sites a partir de comandos simples abalaram as empresas de software este ano.

A Salesforce perdeu cerca de um terço do seu valor. A ServiceNow caiu mais de 34%. A Microsoft teve uma queda de aproximadamente 20%.

O Bank of America afirmou que a ferramenta Anthropic representa uma ameaça principalmente para plataformas de análise de código como GitLab e JFrog. As ações do GitLab caíram 8% na sexta-feira, enquanto as do JFrog despencaram 25% no mesmo dia.

As mentes mais brilhantes do mundo das criptomoedas já leem nossa newsletter. Quer participar? Junte-se a elas .

Compartilhar link:

Aviso Legal. As informações fornecidas não constituem aconselhamento de investimento. O Cryptopolitan não se responsabiliza por quaisquer investimentos realizados com base nas informações fornecidas nesta página. Recomendamos tron a realização de pesquisas independentes dent /ou a consulta a um profissional qualificado antes de tomar qualquer decisão de investimento.

Mais lidas

Carregando os artigos mais lidos...

Fique por dentro das notícias sobre criptomoedas e receba atualizações diárias na sua caixa de entrada

Escolha do editor

Carregando artigos selecionados pela equipe editorial...

- A newsletter de criptomoedas que te mantém sempre um passo à frente -

Os mercados se movem rapidamente.

Nós nos movemos mais rápido.

Assine o Cryptopolitan Daily e receba informações oportunas, precisas e relevantes sobre criptomoedas diretamente na sua caixa de entrada.

Inscreva-se agora e
não perca nenhum lance.

Entre. Informe-se.
Saia na frente.

Inscreva-se no CryptoPolitan