A Huawei está empenhada em conquistar uma grande fatia do mercado de IA na China, atualmente liderado pela Nvidia. Ela oferece às empresas locais a possibilidade de usar seus chips de IA para tarefas de "inferência".
Para "treinar" LLMs (Learning Learning Machines), as principais empresas de IA na China dependem de GPUs desenvolvidas pela Nvidia. A empresa movimenta 3,4 trilhões de dólares e é vista como essencial para o aprimoramento da tecnologia de IA.
Segundo uma reportagem , a Huawei está promovendo seus novos processadores de IA Ascend para grupos chineses que consideram a "inferência" como uma opção. Inferência é a função que os sistemas de aprendizado de máquina utilizam para gerar respostas rápidas.
Georgios Zacharopoulos, pesquisador sênior de IA para aceleração de inferência no laboratório da Huawei em Zurique, afirma: "O treinamento é importante, mas ocorre apenas algumas vezes". Ele disse que a empresa pode atender mais clientes concentrando-se na inferência.
A Huawei é vista comotronconcorrente da Nvidia na China
A principal concorrente da Nvidia no mercado local está utilizando modelos de IA treinados nos produtos da Nvidia, que utilizam os chips Ascend. Segundo funcionários e clientes, a estratégia da Huawei apresenta menos desafios técnicos e pode gerar altos lucros.
A empresa também disponibilizou uma ferramenta para preencher a lacuna entre os diferentes softwares usados pelas GPUs da Nvidia e pelo Ascend.
O governo chinês também está apoiando integralmente as promoções da Huawei. Autoridades estão pedindo às empresas de tecnologia locais que usem chips de IA da Huawei em vez dos da Nvidia.
Uma fonte ligada às operações da Nvidia na China afirmou que a empresa também é vista internamente como a concorrente mais séria do país, já que seu design de chips é mais "avançado"
Ao contrário das gigantes americanas de tecnologia OpenAI e Google, as empresas chinesas enfrentam o desafio de acessar GPUs da melhor qualidade. Devido às restrições americanas às exportações, a Nvidia fornece à China apenas chips H2O de qualidade inferior. Mesmo assim, esses chips continuam sendo muito procurados na China e ainda são melhores do que os fabricados localmente.
Os chips da Huawei não estão prontos para conectividade entre chips
Um analista da Bernstein China Semiconductor, Lin Qingyuan, afirmou que, embora o desempenho dos chips da Huawei seja notável individualmente, eles ainda enfrentam um desafio em relação à conectividade entre chips. Ele disse: “Ao treinar um modelo complexo, é preciso dividi-lo em tarefas menores. Se um chip falhar, o software precisa encontrar uma maneira para que os outros chips assumam o controle sem demora.”
Por outro lado, os desenvolvedores ainda precisam ser convencidos pela Huawei a migrar do software "secreto" da Nvidia, o CUDA, que é amigável para desenvolvedores e tem o poder de processar grandes quantidades de dados. Refletindo sobre o desafio, um funcionário da Huawei, que preferiu não se identificar, disse que a empresa espera que a Ascend 910C atualizada venha "com um software aprimorado que a torne mais acessível para desenvolvedores".
A empresa está acelerando sua capacidade de produção
O Financial Times também divulgou dados da SemiAnalysis, que indicam que, em 2024, a Nvidia faturou US$ 12 bilhões na China, incluindo a venda de 1 milhão de chips H2O na região. Esse valor é o dobro do faturamento da Huawei com o Ascend 910B.
Dylan Pater, analista-chefe da empresa de pesquisa, afirmou: "As GPUs H20 da Nvidia, específicas para a China, representam a maioria dos chips de IA vendidos no país." No entanto, essa diferença está diminuindo à medida que a Huawei acelera sua produção.
Lin, da Bernstein, também acredita que as empresas chinesas podem alcançar a comercialização mais rapidamente devido à sua "atenção à inferência", superior à das empresas americanas. Portanto, "é possível obter grandes ganhos de eficiência mesmo com chips menos potentes"
Ele afirmou que as empresas chinesas estão se baseando em custos de inferência mais baixos para se manterem competitivas em IA e reduzir o custo de execução de aplicativos de IA.

