A Amazon vem desenvolvendo seus próprios chips de IA para reduzir custos, o que também contribuiu para aumentar a lucratividade da Amazon Web Services (AWS). No entanto, a gigante do comércio eletrônico está com dificuldades para desenvolver chips de IA que possam rivalizar com os chips padrão da Nvidia.
Problemas com a migração de projetos, incompatibilidades e baixa utilização são algumas das preocupações que estão retardando a adoção dos chips de IA da Amazon. A situação também colocou em risco as receitas significativas que a Amazon gera com seu negócio de nuvem. Os desafios enfrentados pela Amazon foram identificados dent meio de dent e fontes familiarizadas com o assunto, conforme relatado pelo Business Insider.
Os chips de IA desenvolvidos internamente pela Amazon enfrentam baixa adesão
Trainium e Inferentia são os chips de última geração projetados pela Amazon, lançados no final do ano passado. A publicação informou que, no ano passado, a taxa de adoção do Trainium entre os clientes da AWS foi de apenas 0,5%, em comparação com a das unidades de processamento gráfico da Nvidia.
Leia também: Lucro da Amazon supera expectativas de Wall Street com o sucesso da IA generativa da AWS.
De acordo com o relatório, a Amazon realizou uma avaliação para medir a porcentagem de uso de diferentes chips de IA por meio de seus serviços AWS em abril de 2024. Nesse período, a taxa de adoção do Inferentia foi ligeiramente superior, atingindo 2,7%. O Inferentia é um chip especial projetado para inferência, uma tarefa de IA que geralmente se refere ao processo computacional para o uso de modelos de IA pelos consumidores finais. O relatório menciona um documento interno que afirma:
“As primeiras tentativas dos clientes expuseram pontos de atrito e dificultaram a adoção.”
A afirmação acima se refere aos desafios que grandes clientes de nuvem enfrentaram na transição para os chips personalizados da Amazon. A plataforma CUDA da Nvidia é considerada mais atraente para os clientes, e o relatório adentcomo um dos principais motivos.
O desenvolvimento de chips de IA personalizados da Amazon está sob revisão interna
A AWS, a maior provedora de serviços em nuvem do mundo, está desenvolvendo seus próprios chips de computador para facilitar as operações. A Amazon, por vezes, alardeia seus esforços no desenvolvimento de chips de IA. No entanto, o cenário apresentado nos documentos é diferente do que a empresa projeta.

Os documentos internos afirmam que a empresa está enfrentando dificuldades com uma baixa taxa de adoção, mas o CEO da Amazon tem uma visão diferente. Na teleconferência de resultados do primeiro trimestre, o CEO da Amazon, Andy Jassy, disse que a demanda por chips da AWS estava alta.
"Temos a mais ampla seleção de instâncias de computação NVIDIA do mercado, mas a demanda por nossos chips personalizados para treinamento e inferência é bastante alta, dados os seus benefícios de preço e desempenho em comparação com as alternativas disponíveis."
Andy Jassy
Jassy também mencionou os primeiros usuários dos chips de silício da AWS em sua carta aos investidores , afirmando que "já temos vários clientes usando nossos chips de IA, incluindo Anthropic, Airbnb bnb Hugging Face, Qualtrics, Ricoh e Snap". Ao mesmo tempo, o caso da Anthropic é completamente diferente, pois a Amazon é a maior investidora da startup. A gigante da computação em nuvem investiu US$ 4 bilhões na Anthropic, e o acordo de investimento a obriga a usar silício projetado pela AWS.
Um dos principais componentes da AWS utiliza GPUs da Nvidia
A Amazon Web Services oferece uma variedade de processadores, desde os chips Grass Hopper da Nvidia até os da AMD e da Intel. A maior parte de sua lucratividade vem do desenvolvimento de seus próprios chips para data centers, o que a ajuda a economizar custos ao evitar a compra de GPUs da Nvidia.
Leia também: Nvidia experimenta crescimento notável em meio à crescente demanda por IA e GPUs
A Amazon lançou seu primeiro chip de IA, o Inferntia, em 2018, mas a Nvidia ainda lidera no fornecimento de soluções com ampla adoção em diferentes setores. AWS, Microsoft e Google estão entre os maiores clientes da Nvidia. Todos esses gigantes alugam GPUs por meio de seus serviços em nuvem.
Em março, Adam Selipsku, CEO da AWS, participou da Nvidia GTC 2023. Ambas as empresas fizeram um anúncio conjunto focado em sua colaboração estratégica para o avanço da IA generativa.
“A profunda colaboração entre as nossas duas organizações remonta a mais de 13 anos, quando juntos lançámos a primeira instância de nuvem com GPU do mundo na AWS, e hoje oferecemos a mais ampla gama de soluções de GPU da NVIDIA para os nossos clientes.”
Selipsku
A plataforma da Nvidia, chamada CUDA, geralmente é a preferida pelos desenvolvedores. Isso porque a Nvidia investiu muitos anos de tempo e esforço em sua criação, e a indústria a adotou, o que facilita o trabalho para eles. Por outro lado, a Amazon ainda precisa resolver esse quebra-cabeça por meio de tentativas e erros.
Reportagem Cryptopolitan por Aamir Sheikh

