A Meta está investindo cada vez mais em chips de IA personalizados, à medida que a luta para reduzir a dependência da Nvidia se intensifica entre as grandes empresas de tecnologia.
A empresa afirmou que iniciou o projeto Meta Training and Inference Accelerator, ou MTIA, em 2023, e que agora está preparando quatro novas gerações de chips para os próximos dois anos.
Segundo a Meta, esses chips estariam sendo desenvolvidos para tarefas de classificação, recomendação e inteligência artificial geral (GenAI) em todos os produtos da Meta.
A empresa também afirmou que não está apostando em um único fornecedor ou componente de hardware. A Meta planeja continuar comprando silício de diversos players do setor, mantendo a MTIA como peça central de seu próprio plano de infraestrutura de IA.
Nas palavras da empresa, ela está adotando uma "abordagem de portfólio" à medida que suas cargas de trabalho de IA crescem e mudam. Isso significa combinar chips externos com silício próprio, em vez de entregar toda a infraestrutura a um único fornecedor.
Meta lança quatro gerações de chips MTIA em um cronograma mais acelerado
A Meta afirmou que já utiliza centenas de milhares de chips MTIA para inferência relacionada tanto a conteúdo orgânico quanto a anúncios em seus aplicativos.
Os chips são construídos para as próprias tarefas da empresa, não para uso geral. Isso é importante porque a Meta afirmou que o hardware faz parte de uma solução personalizada completa, o que proporciona um sistema mais otimizado para o trabalho que realiza diariamente.
A empresa afirmou que essa configuração oferece melhor eficiência computacional para seus casos de uso específicos e reduz o custo em comparação com chips de uso mais amplo.
A próxima fase consiste em uma implementação em larga escala. A Meta informou que está desenvolvendo as versões MTIA 300, 400, 450 e 500, cada uma com ganhos em poder computacional, largura de banda de memória e eficiência. A MTIA 300 já está em produção e será responsável pelo treinamento de sistemas de classificação e recomendação.
Os chips MTIA 400, 450 e 500 podem executar todas as cargas de trabalho, mas a Meta afirmou que esses chips serão usados principalmente para a produção de inferência GenAI no curto prazo e até 2027.
A empresa também afirmou que o silício é modular, o que permite que novos chips sejam integrados à infraestrutura de racks existente. Isso reduz o tempo de espera entre o projeto e a implementação.
Sobre a velocidade de lançamento, a Meta afirmou que a indústria normalmente lança um novo chip de IA a cada um ou dois anos, mas agora tem a capacidade de lançar seus próprios chips a cada seis meses ou menos, reutilizando designs modulares.
A Meta baseia sua estratégia de chips de IA em inferência e padrões abertos
A empresa afirmou que sua estratégia MTIA se baseia em três partes: iteração rápida, um design que prioriza a inferência e fácil adoção por meio de padrões comuns.
Sobre o primeiro ponto, a Meta afirmou que o ciclo de lançamento mais curto a ajuda a se adaptar mais rapidamente às mudanças nas técnicas de IA, a incorporar novas tecnologias de hardware e a reduzir o custo de desenvolvimento e implementação de novas versões de chips.
Em relação ao segundo ponto, a Meta traçou uma linha divisória entre seu plano e o modelo de mercado usual. A empresa afirmou que a maioria dos chips convencionais são construídos primeiro para grandes tarefas de pré-treinamento de IA de geração de processadores (GenAI) e, em seguida, usados para outras tarefas, geralmente a um custo pior.
A Meta afirmou estar fazendo o oposto. Os modelos MTIA 450 e 500 estão sendo ajustados primeiro para inferência GenAI e, em seguida, usados para classificação, treinamento e inferência de recomendações e treinamento GenAI quando necessário.
A empresa também afirmou que o MTIA foi construído desde o início com ferramentas e sistemas padrão, incluindo PyTorch, vLLM, Triton e o Open Compute Project. Seus projetos de sistema e rack também seguem os padrões do OCP para uso em data centers.
A Meta acrescentou que nenhum chip individual consegue atender a todas as suas demandas, e é por isso que planeja implantar chips diferentes para diferentes cargas de trabalho, enquanto avança em direção ao que chamou de "superinteligência pessoal para todos"

