As ações da Qualcomm dispararam 23% na segunda-feira, após a empresa anunciar o lançamento de novos chips aceleradores de IA para competir com a Nvidia e a AMD na guerra de chips mais cara da história.
O anúncio, feito em 27 de outubro, foi a declaração mais contundente da empresa até o momento de que está entrando na corrida armamentista dos data centers.
Os dois novos chips (AI200, com lançamento previsto para 2026, e AI250, para 2027) não estarão em smartphones. Eles alimentarão racks inteiros com refrigeração líquida dentro de enormes fazendas de servidores de IA.
Segundo a CNBC, esses novos chips representam um grande salto em relação à zona de conforto habitual da Qualcomm, focada em dispositivos móveis e sem fio. Ambos os aceleradores podem ocupar um rack inteiro, como os sistemas atuais da Nvidia e da AMD, que permitem que 72 chips operem simultaneamente.
A ideia é fornecer aos laboratórios de IA e aos provedores de hiperescala a capacidade de processamento necessária para executar modelos de IA massivos, sem depender da cadeia de suprimentos da Nvidia ou da posição de segundo lugar da AMD.
A Qualcomm entra na disputa pelos chips de IA para data centers, oferecendo soluções completas para racks
Os modelos AI200 e AI250 são construídos utilizando a mesma tecnologia presente nos chips de celular da Qualcomm, chamada de unidades de processamento neural (NPUs) Hexagon.
Durga Malladi, gerente geral de data center e edge da empresa, disse a repórteres na semana passada: “Primeiro, queríamos provar nosso valor em outros domínios e, uma vez que consolidamos nossa posição nessas áreas, foi bastante fácil para nós subirmos um degrau e chegarmos ao nível de data center.”
Esses racks são projetados para inferência, não para treinamento. Isso significa que a Qualcomm não está tentando construir chips que ajudem a treinar modelos como o GPT da OpenAI, que foi treinado em GPUs da Nvidia.
Em vez disso, o foco está em executar esses modelos de forma mais rápida e barata depois de treinados. É aí que a maioria das cargas de trabalho do mundo real realmente acontece.
E há dinheiro aqui... dinheiro de verdade. A McKinsey afirma que o mundo gastará US$ 6,7 trilhões em data centers até 2030, e a maior parte desse valor será destinada a hardware de IA. A Nvidia controla mais de 90% desse mercado atualmente e possui um valor de mercado superior a US$ 4,5 trilhões. Mas os clientes estão ficando impacientes.
A OpenAI anunciou recentemente a compra de chips da AMD e a possibilidade de adquirir uma participação na empresa. Google, Amazon e Microsoft estão desenvolvendo seus próprios aceleradores de IA. Todos querem uma opção que não envolva esperar na fila atrás de dezenas de outros laboratórios de IA apenas para receber um lote de GPUs da Nvidia.
Consumo de energia, flexibilidade e memória são os diferenciais da Qualcomm
Malladi afirmou que os racks consomem cerca de 160 quilowatts, o que corresponde ao consumo de energia dos racks da Nvidia. Mas a Qualcomm alega que seus sistemas são mais baratos de operar, especialmente para provedores de serviços em nuvem.
A empresa também venderá as peças separadamente, dando aos clientes a liberdade de construir racks personalizados. "O que tentamos fazer foi garantir que nossos clientes possam optar por comprar tudo ou escolher peças diferentes", acrescentou Malladi.
Até mesmo a Nvidia e a AMD podem acabar comprando partes da infraestrutura da Qualcomm. Isso inclui suas unidades centrais de processamento (CPUs), que, segundo Malladi, estarão disponíveis como componentes independentes. Os preços totais dos chips, placas e racks ainda não foram divulgados. A Qualcomm também não confirmou quantas NPUs cabem em um rack.
No início deste ano, a Qualcomm firmou um acordo com a Humain, da Arábia Saudita, que planeja instalar chips de inferência da Qualcomm em data centers, utilizando até 200 megawatts de energia. Esse acordo tornou a Humain um dos primeiros grandes clientes para os sistemas de escala de rack.
A empresa também afirmou que suas placas de IA suportam 768 gigabytes de memória, mais do que a Nvidia ou a AMD oferecem atualmente. Alegou ainda maior eficiência energética e menor custo total de propriedade, embora não tenha fornecido números exatos.

