Embora as hostilidades internacionais continuem sendo um tema em voga, os fabricantes de chips e provedores de serviços em nuvem chineses parecem estar fazendo esforços conjuntos para apoiar o DeepSeek e outros modelos de IA desenvolvidos localmente.
A DeepSeek está recebendo atenção especial de seu país de origem, que também abriga algumas das maiores empresas de tecnologia do mundo.
No sábado, a Huawei Technologies anunciou uma colaboração com a startup de IA SiliconFlow para oferecer os modelos da DeepSeek aos seus clientes. Isso será feito por meio do serviço em nuvem Ascend.
Uma carta da @deepseek_ai agradecendo o apoio da @Huawei #DeepSeek #Huawei pic.twitter.com/cRgGCS1iZ3
— Vivendo em Harmonia ⭕☯Ⓜ🔥🥉🏅🔄🦾🍞🆙🆗📢🎯🔑💼🛡️👑 (@LivingInHarmony) 5 de fevereiro de 2025
A Huawei também produz seus próprios chips de IA. Isso significa que a colaboração entre elas poderia fornecer chips de IA para a startup.
Na segunda-feira, a Moore Threads e a Hygon Information Technology, desenvolvedoras de processadores de IA, anunciaram que seus clusters de computação e aceleradores serão compatíveis com os modelos R1 e V3 da DeepSeek. Ambas as empresas estão trabalhando para competir com a Nvidia.
A Moore Threads declarou: "Prestamos homenagem à DeepSeek". Acrescentaram ainda que o progresso dos modelos da DeepSeek, que utilizam unidades de processamento gráfico (GPUs) de fabricação nacional, "poderia revolucionar a indústria de IA na China"
Em seguida, a Gitee AI, um site de serviços completos para desenvolvedores de IA com sede em Shenzhen, anunciou que oferecerá quatro modelos baseados no DeepSeek-R1. Os modelos estarão disponíveis por meio de servidores equipados com GPUs da MetaX, empresa de design de chips com sede em Xangai.
DeepSeek ainda tem apoiadores globais
A DeepSeek juntou-se aos chatbots de IA dos EUA ao oferecer um assistente de IA gratuito. No entanto, a empresa afirma que seu assistente de IA gratuito usa menos dados a uma fração do custo dos serviços existentes. Claramente, sua estratégia se destaca.
Algumas empresas adotaram os modelos da startup chinesa de IA, mesmo com as controvérsias. De fato, o aplicativo ultrapassou o rival americano ChatGPT em downloads na App Store da Apple, provocando uma onda global de vendas de ações de tecnologia.
A DeepSeek lançou diversos modelos em um período de tempo excepcionalmente curto. Lançou seu novo modelo DeepSeek-V3 em dezembro de 2024. Em seguida, vieram o DeepSeek-R1, o DeepSeek-R1-Zero e o DeepSeek-R1-Distill em 20 de janeiro de 2025. Em 27 de janeiro de 2025, a empresa adicionou um novo modelo de IA, o Janus-Pro-7B, com foco em visão computacional.
O modelo DeepSeek-R1-Zero possui 671 bilhões de parâmetros, enquanto a série DeepSeek-R1-Distill inclui modelos com entre 1,5 bilhão e 70 bilhões de parâmetros.
Atualmente, a Amazon Web Services (AWS), a Microsoft e o Google Cloud oferecem esse modelo aos seus clientes. No entanto, até o momento, ainda não adotaram o sistema de preço por token utilizado por outros modelos de IA, como o Llama 3 da Meta.
Além disso, na segunda-feira, os serviços em nuvem do Alibaba Group passaram a oferecer os modelos de IA da DeepSeek em sua plataforma. Os serviços em nuvem da Baidu e da Tencent também anunciaram que estão oferecendo os modelos da DeepSeek aos seus usuários.
Analistas da Bernstein afirmaram: " O DeepSeek demonstra que modelos de linguagem de grande porte (LLM, na sigla em inglês) competitivos podem ser implementados em chips 'suficientemente bons' da China, reduzindo a dependência de hardware de ponta dos EUA."
No entanto, países como a Itália e os Países Baixos bloquearam o serviço e estão investigando o aplicativo de IA da DeepSeek devido a problemas de privacidade.
DeepSeek AI revoluciona os modelos de precificação
Analistas de mercado insistem que os provedores de nuvem lucrarão mais com o aluguel de infraestrutura do que com as taxas de uso do modelo direto.
Alugar servidores em nuvem para tarefas de IA é tecnicamente mais caro do que usar modelos por meio de APIs. A AWS cobra até US$ 124 por hora por um servidor em nuvem otimizado para IA. Isso custa cerca de US$ 90.000 por mês para uso 24 horas por dia, 7 dias por semana.
Os usuários do Microsoft Azure não precisam alugar servidores especiais para o DeepSeek. No entanto, eles pagam pela capacidade computacional que utilizam. Isso significa que o custo pode variar dependendo do desempenho do modelo.
Por outro lado, grupos que utilizam o Llama 3.1 da Meta através da AWS pagam US$ 3 por cada 1 milhão de tokens. Esses tokens são partes de um texto, e 1.000 tokens correspondem a cerca de 750 palavras.
Empresas de computação em nuvem menores, como a Together AI e a Fireworks AI, começaram a usar um sistema de preços simples. Elas cobram um valor fixo por token com seu modelo DeepSeek-R1.
Outra opção mais barata para o DeepSeek-R1 é através da API da empresa matriz, a US$ 2,19 por milhão de tokens. Isso é de três a quatro vezes mais barato do que alguns provedores de nuvem ocidentais.

