A empresa chinesa DeepSeek afirmou que seu principal sistema de IA, conhecido como R1, foi treinado por apenas US$ 294.000, uma fração dos valores que se acredita serem gastos por seus concorrentes americanos.
Os detalhes foram publicados em um artigo revisado por pares na revista Nature esta semana, e provavelmente alimentarão ainda mais o debate sobre as ambições de Pequim na corrida global pela inteligência artificial. A empresa sediada em Hangzhou afirmou que o modelo focado em raciocínio foi treinado usando 512 chips Nvidia H800. Esse hardware foi projetado especificamente para a China depois que os EUA proibiram a venda dos processadores H100 e A100, mais potentes.
O artigo, que teve como coautor o fundador Liang Wenfeng, marca a primeira vez que a empresa divulga tais custos.
A DeepSeek usa uma fração do custo dos modelos americanos
Em janeiro, o lançamento das ferramentas de IA mais baratas da DeepSeek desestabilizou os mercados globais, resultando em uma onda de vendas de ações de tecnologia devido ao receio de que elas pudessem prejudicar gigantes consolidados como a Nvidia e a OpenAI.
No entanto, Liang e sua equipe têm mantido um perfil discreto, aparecendo apenas esporadicamente para atualizações de produtos desde então.
O preço divulgado de US$ 294.000 contrasta fortemente com as estimativas de empresas americanas.
O diretor executivo da OpenAI, Sam Altman, afirmou em 2023: "O treinamento de modelos fundamentais custa muito mais de 100 milhões de dólares". No entanto, ele não forneceu nenhum detalhamento específico.
O treinamento de grandes modelos de linguagem envolve o funcionamento de conjuntos de chips potentes por longos períodos, consumindo enormes quantidades de eletricidade durante o processamento de texto e código. Observadores do setor há muito presumem que o custo de tais projetos chega às dezenas ou mesmo centenas de milhões.
Essa suposição está agora sendo questionada e, em um documento complementar, a DeepSeek admitiu possuir chips A100 e tê-los utilizado no início do desenvolvimento, antes de migrar o treinamento em larga escala para seu cluster H800. Segundo a empresa de tecnologia, o modelo foi executado por 80 horas durante a fase final de treinamento.
Embora a Nvidia tenha insistido que a startup chinesa tem acesso apenas aos seus processadores H800, as autoridades americanas permanecem céticas. Há alguns meses, fontes americanas disseram à Reuters que a DeepSeek possui ilegalmente grandes quantidades de chips H100, cuja exportação para a China é proibida.
Analisando a inovação minuciosamente
O modelo R1 chamou a atenção não apenas pelos seus baixos custos de treinamento, mas também por poder ser o primeiro modelo importante a passar por uma revisão formal por pares.
“Este é umdentmuito bem-vindo e, se não tivermos essa norma de compartilhamento, fica muito difícil avaliar os riscos”, disse Lewis Tunstall, engenheiro de aprendizado de máquina da Hugging Face, que revisou o artigo da Nature.
O processo de revisão levou a DeepSeek a esclarecer detalhes técnicos, incluindo como seu modelo foi treinado e quais medidas de segurança foram implementadas.
“Passar por um rigoroso processo de revisão por pares certamente ajuda a verificar a validade e a utilidade do modelo”, disse Huan Sun, pesquisador de IA da Universidade Estadual de Ohio.
A principal inovação do DeepSeek foi a utilização de uma abordagem de aprendizado por reforço. Em vez de se basear em exemplos de raciocínio selecionados por humanos, de acordo com o artigo, o modelo era recompensado por resolver problemas corretamente e, gradualmente, desenvolvia suas próprias estratégias de resolução de problemas.
A empresa afirma que esse sistema de tentativa e erro permitiu à R1 verificar seu funcionamento sem copiar táticas humanas.
“Este modelo teve grande influência”, acrescentou Sun. “Quase todo o trabalho de aprendizado por reforço em 2025 pode ter sido inspirado pelo R1 de uma forma ou de outra.”
DeepSeek nega acusações de plágio
Logo após o lançamento da versão R1, surgiram especulações de que a DeepSeek teria se baseado em resultados de concorrentes, principalmente da OpenAI, para acelerar o treinamento; no entanto, a empresa agora negou veementemente essa acusação.
Em correspondência com os revisores, a DeepSeek insistiu que o modelo R1 não copiou exemplos de raciocínio gerados pela OpenAI. No entanto, como a maioria dos grandes modelos de linguagem, ele foi treinado com textos da internet. Isso significa que algum conteúdo produzido por IA foi inevitavelmente incluído, e essa explicação convenceu alguns revisores.
“Não posso ter 100% de certeza de que o R1 não foi treinado com exemplos da OpenAI. No entanto, tentativas de replicação por outros laboratórios sugerem que o aprendizado por reforço é suficientemente bom por si só”, disse Tunstall.
A DeepSeek afirma que o R1 foi desenvolvido para se destacar em tarefas que exigem muito raciocínio, como programação e matemáticamaticAo contrário da maioria dos sistemas fechados desenvolvidos por empresas americanas, ele foi lançado como um modelo de código aberto, disponível para download gratuito por pesquisadores. No site da comunidade de IA Hugging Face, ele já foi baixado mais de 10 milhões de vezes.
A empresa investiu cerca de US$ 6 milhões no desenvolvimento do modelo base sobre o qual o R1 foi construído, mas mesmo com esse acréscimo, seus custos ficam bem abaixo dos valores praticados pelos concorrentes. Para muitos na área, isso torna o R1trac.
Sun e seus colegas testaram recentemente o sistema em tarefas de dados científicos e descobriram que, embora não fosse o mais preciso, estava entre os melhores em termos de custo-benefício.

