A Advanced Micro Devices (AMD) entrou oficialmente na corrida para desafiar o domínio da Nvidia no mercado de aceleradores de inteligência artificial ( IA ) com o lançamento de sua série de aceleradores Instinct MI300. Espera-se que essa iniciativa acirre uma competição acirrada entre as duas gigantes da tecnologia em um mercado que a AMD prevê que atingirá US$ 45 bilhões em 2023 e chegará a US$ 400 bilhões em 2027. Com a meta de vender mais de US$ 2 bilhões em chips de IA em 2024, a AMD está se preparando para uma investida agressiva no setor de IA.
Um salto de desempenho com o MI300X
A AMD está lançando dois aceleradores de IA, com o MI300X posicionado como o principal concorrente do H100 da Nvidia. Um dos recursos de destaque do MI300X é sua impressionante memória de alta largura de banda de 192 GB, mais que o dobro da capacidade de memória do H100 da Nvidia. Essa vantagem substancial de memória pode ser crucial, especialmente para aplicações que envolvem grandes modelos de linguagem (LLMs) que exigem extensos recursos de memória.
Em comparação com o H100 da Nvidia, a AMD está fazendo afirmações ousadas sobre o desempenho do MI300X. Relata-se que ele oferece um desempenho 1,6 vezes superior ao executar inferência em modelos de lógica de nível L1 específicos, citando o modelo BLOOM 176B como exemplo. Outro recurso notável é a capacidade do MI300X de lidar com inferência em um modelo de 70 bilhões de parâmetros, uma capacidade não encontrada na linha de produtos atual da Nvidia.
Apresentamos o MI300A com núcleos de CPU Zen 4
Embora o MI300X seja a opção de ponta, a AMD também oferece o MI300A, que apresenta uma proposta de valor diferente. O MI300A pode ter menos núcleos de GPU e menos memória que o MI300X, mas possui os mais recentes núcleos de CPU Zen 4 da AMD. Essa configuração posiciona o MI300A para atender ao mercado de computação de alto desempenho, comtronfoco em eficiência. A AMD afirma que o MI300A oferece 1,9 vezes mais desempenho por watt em comparação com a geração anterior, o MI250X.
Uma vantagem significativa da Nvidia no mercado de GPUs para data centers é seu ecossistema de software. A plataforma CUDA da Nvidia, estabelecida há mais de 16 anos, tornou-se o padrão da indústria para o aproveitamento de GPUs em tarefas computacionais. O desafio para concorrentes como a AMD é que o CUDA oferece suporte exclusivo a GPUs da Nvidia, dificultando a migração dos clientes para outros fornecedores de chips de IA sem problemas.
Em resposta, a AMD oferece o ROCm, uma plataforma de computação em GPU de código aberto, agora em sua sexta versão. O ROCm suporta frameworks populares de IA, como TensorFlow e PyTorch, e a AMD expandiu seu ecossistema por meio de parcerias estratégicas e aquisições. Notavelmente, a AMD adquiriu a empresa de software de IA de código aberto Nod.ai para reforçar suas capacidades de software e reduzir a diferença em relação à Nvidia.
Parcerias estratégicas e adoção por parte dos clientes
Embora a Nvidia mantenha sua vantagem em software, a AMD já garantiu clientes importantes para seus novos chips de IA. A Microsoft e a Meta Platforms (antiga Facebook) se comprometeram a adotar a tecnologia da AMD. A Microsoft está prestes a lançar uma nova série de servidores virtuais no Azure, equipados com o MI300X, enquanto a Meta Platforms planeja utilizar o MI300X para diversas cargas de trabalho de inferência de IA.
Além disso, a Oracle oferecerá instâncias bare metal com chips MI300X, e grandes fabricantes de hardware como Dell, Hewlett-Packard Enterprise, Lenovo e Supermicro estão planejando sistemas baseados nos novos produtos de IA da AMD.
A AMD está preparada para atender à crescente demanda por aceleradores de IA no curto prazo. No entanto, a evolução desse mercado a longo prazo permanece incerta. A IA continua sendo uma tecnologia fundamental, mas, à medida que a concorrência se intensifica e opções mais viáveis além da Nvidia se tornam disponíveis, pressões sobre os preços podem surgir.

