O IPO da Cerebras tem como meta US$ 115-US$ 125 por ação em meio à mudança de foco da Nvidia para inferência de IA

- A Cerebras inicia seu roadshow de IPO na segunda-feira, com o objetivo de atingir US$ 115 a US$ 125 por ação.
- A indústria de IA, ao passar do treinamento para a inferência, cria oportunidades para chips especializados.
- Os principais players estão adotando a inferência desagregada.
A Cerebras Systems começará a apresentar suas ações a investidores na segunda-feira, com planos de vender as ações a um preço entre US$ 115 e US$ 125 cada, de acordo com uma fonte com conhecimento dos planos que falou à Reuters.
A fabricante de chips de inteligência artificial está tentando abrir capital pela segunda vez. A empresa desistiu da primeira tentativa em outubro do ano passado.
A Cerebras apresentou resultados financeiros maistronpara o ano encerrado em 31 de dezembro. A empresa obteve uma receita de US$ 510 milhões, um aumento em relação aos US$ 290,3 milhões do ano anterior. Além disso, registrou um lucro de US$ 1,38 por ação, comparado a um prejuízo de US$ 9,90 por ação no ano anterior.
Morgan Stanley, Citigroup, Barclays e UBS estão cuidando da venda das ações.
A indústria está passando por uma transformação
A estratégia da Cerebras não é aleatória. A indústria de IA está passando por uma transição, do desenvolvimento de novos modelos de IA para a sua execução em aplicações reais. Essa mudança representa uma oportunidade de ouro para pequenas empresas que competem com o monopólio da Nvidia (NASDAQ: NVDA). Conforme relatado pela Cryptopolitan, nem mesmo a OpenAI está convencida pelo hardware de inferência da Nvidia.
Isso ocorre porque executar modelos de IA, processo conhecido como inferência, exige capacidades diferentes daquelas necessárias para treiná-los. Isso cria oportunidades para fabricantes de chips especializados encontrarem seu espaço no mercado. Processar grandes volumes de informações requer um equilíbrio diferente entre poder computacional, memória e velocidade de transferência de dados do que executar um chatbot de IA ou um assistente de programação.
Essa variedade de requisitos tornou o mercado de inferência mais diversificado. Algumas tarefas funcionam melhor em chips gráficos tradicionais, enquanto outras exigem equipamentos mais avançados.
A aquisição da Groq pela Nvidia em dezembro passado por US$ 20 bilhões mostra como isso está se desenrolando. A Groq fabricava chips repletos de memória SRAM de alta velocidade que podiam processar respostas de IA mais rapidamente do que os chips gráficos padrão. Mas a empresa teve dificuldades para expandir sua produção porque seus chips tinham poder de computação limitado e eram baseados em tecnologia antiga.
A Nvidia resolveu esse problema dividindo o trabalho. Ela usa seus chips gráficos convencionais para a parte computacional pesada da geração de respostas de IA, chamada de pré-preenchimento, enquanto usa os chips da Groq para a etapa de decodificação mais rápida, que exige menos processamento, mas precisa de acesso rápido aos dados.
Outras grandes empresas estão fazendo algo semelhante. A Amazon Web Services anunciou seu próprio sistema dividido logo após uma importante conferência de tecnologia. Ele combina seus chips personalizados Trainium para o trabalho de pré-carregamento com os chips do tamanho de um wafer da Cerebras para operações de decodificação.
A Intel também entrou na jogada, revelando planos para combinar chips gráficos com processadores de outra startup chamada SambaNova. Os chips gráficos cuidarão do pré-carregamento, enquanto os chips da SambaNova se encarregarão da decodificação.
A maioria das pequenas empresas de chips obteve sucesso com tarefas de decodificação. A memória SRAM não armazena muita informação, mas é extremamente rápida. Com chips suficientes, ou um chip muito grande como pela Cerebras , esses sistemas se destacam em tarefas de decodificação. Mas as empresas não estão parando por aí.
Novas tecnologias desafiam a abordagem de chip dividido
A Lumai, outra startup, anunciou esta semana que construiu um chip que usa luz em vez de eletricidade para as operações matemáticas essenciais ao funcionamento da IA. Essa abordagem consome muito menos energia do que os chips tradicionais.
A empresa espera que seus próximos sistemas Iris Tetra ofereçam um desempenho de IA equivalente a exaOPS, consumindo apenas 10 quilowatts de energia até 2029.
Os chips combinam componentes ópticos e elétricos, mas a luz realiza a maior parte do processamento durante a inferência. A Lumai planeja usar esses chips inicialmente como substitutos independentes para chips gráficos em tarefas de processamento em lote. Posteriormente, a empresa pretende utilizá-los também para tarefas de pré-preenchimento.
Nem todos acham que dividir o trabalho entre diferentes chips faça sentido. A Tensorrent lançou seus sistemas Galaxy Blackhole esta semana, e o CEO Jim Keller criticou a abordagem.
“Todas as empresas do setor estão se unindo para construir aceleradores de aceleradores. CPUs executam código. GPUs aceleram CPUs. TPUs aceleram GPUs. LPUs aceleram TPUs. E assim por diante. Isso leva a soluções complexas que provavelmente não serão compatíveis com as mudanças nos modelos e usos de IA. Na Tensorrent, pensamos que algo mais geral e simples funcionaria”, disse Keller.
Seu banco está usando seu dinheiro. Você está ficando com as sobras. Assista ao nosso vídeo gratuito sobre como se tornar seu próprio banco.
CURSO
- Quais criptomoedas podem te fazer ganhar dinheiro?
- Como aumentar a segurança da sua carteira digital (e quais realmente valem a pena usar)
- Estratégias de investimento pouco conhecidas que os profissionais utilizam
- Como começar a investir em criptomoedas (quais corretoras usar, as melhores criptomoedas para comprar etc.)














