ÚLTIMAS NOTÍCIAS
SELECIONADO PARA VOCÊ
SEMANALMENTE
MANTENHA-SE NO TOPO

As melhores informações sobre criptomoedas direto na sua caixa de entrada.

A AMD apresenta a próxima geração de chips de IA para PCs na CES 2026 em Las Vegas

PorCollins J. OkothCollins J. Okoth
Tempo de leitura: 3 minutos
A AMD apresenta a próxima geração de chips de IA para PCs na CES 2026 em Las Vegas
  • A AMD revelou seus planos para o rack de IA Helios de próxima geração na CES 2026 em Las Vegas.
  • A CEO da empresa, Lisa Su, apresentou o sistema Helios pela primeira vez durante seu discurso de abertura. 
  • A AMD também apresentou seus mais recentes chips Ryzen AI Max+ para estações de trabalho leves, mini-PCs e laptops.

A AMD, multinacional americana de tecnologia, revelou seus planos de lançar a próxima geração de seu rack de IA Helios na CES 2026 em Las Vegas. A CEO da empresa, Lisa Su, apresentou o sistema Helios pela primeira vez durante seu discurso de abertura, oferecendo mais detalhes sobre seu design e construção.

O CEO Su apresentou uma grande unidade de rack Helios no palco, destacando seu desempenho superior como uma resposta direta ao Vera Rubin NVL72 da Nvidia, também apresentado no evento CES 2026. A Nvidia estabeleceu o padrão para sistemas em escala de rack, que estreou como sua oferta mais recente.

Segundo Su, o Helios competirá diretamente com os sistemas NVL da Nvidia. A AMD pretende equiparar 72 de seus chips MI455X com as 72 GPUs Rubin de sua mais recente linha NVL72. 

As GPUs da série MI500 da AMD proporcionarão poder de computação de IA 1.000 vezes maior

ainda anunciou planos para expandir seus esforços, fornecendo mais informações sobre sua próxima série de GPUs MI500, que, segundo a empresa, oferecerá desempenho de IA até 1.000 vezes superior ao das GPUs Mi300X. Su enfatizou que esse aumento de desempenho será necessário nos próximos anos, acrescentando que, nos próximos cinco anos, cerca de cinco bilhões de pessoas usarão IA ativamente todos os dias. 

A AMD também apresentou sua nova linha de chips para PC Ryzen AI série 400, enquanto Su demonstrou os processadores MI-455. Ela observou que os processadores MI455 são parte integrante dos data centers que alimentam os programas de IA.

A AMD também apresentou seus chips da série Ryzen AI Pro 400, que competirão com os novos processadores Core Ultra 3 da Intel. Os processadores Core Ultra 3 são construídos com a nova tecnologia de processo 18A da Intel.

Su convidou ainda o CEO da Generative Bionics, Daniele Pucci, ao palco para revelar robô humanoidepela primeira vez 

Su observou que as empresas de tecnologia precisarão aumentar a capacidade computacional global em pelo menos 100 vezes nos próximos anos. Espera-se que esse crescimento beneficie tanto a Nvidia quanto a AMD, que já aumentaram seus valores de mercado para US$ 4,5 trilhões e US$ 359 bilhões, respectivamente.

A AMD revela os chips Ryzen AI Max+

A AMD também apresentou seus mais recentes chips Ryzen AI Max+ para estações de trabalho leves, mini-PCs e laptops. Além disso, exibiu sua plataforma de desenvolvimento Ryzen Halo. O mini-PC permite que os desenvolvedores criem modelos de IA localmente, em vez de depender de soluções baseadas em nuvem. 

A plataforma de desenvolvimento Halo compete com o mini-PC DGX Spark da Nvidia, que custa quase US$ 4.000. No entanto, a AMD ainda não divulgou detalhes sobre o preço do Halo.

Entretanto, a Nvidia também apresentou a plataforma Rubin, que combina GPUs Rubin e CPUs Vera para criar um único processador Vera Rubin. A Nvidia descreve a plataforma Rubin como uma IA agente ideal com modelos de raciocínio avançados. 

“Rubin chega exatamente no momento certo, já que a demanda por computação de IA, tanto para treinamento quanto para inferência, está disparando.”

Jensen Huang, CEO da Nvidia

A plataforma Rubin, além das GPUs Rubin e das CPUs Vera, inclui a DPU Nvidia BlueField-4, o switch Nvidia NVLink 6, o switch Ethernet Nvidia Spectrum-6 e a SuperNIC Nvidia ConnectX-9.

A combinação de vários NVL72 resulta no supercomputador de IA DGXX SuperPOD da Nvidia. Empresas de hiperescala, incluindo Microsoft, Amazon, Meta e Google, estão investindo bilhões de dólares na aquisição desses grandes sistemas. 

A Nvidia também observou que a plataforma Rubin é mais eficiente que suas antecessoras, o que provavelmente resultará em uma redução de quatro vezes no número de GPUs necessárias para treinar os mesmos sistemas MoE. Reduzir o número de GPUs significa que as extras podem ser alocadas a tarefas diferentes. O Rubin também reduzirá os custos de tokens de inferência em até 10 vezes.

Enquanto isso, a Nvidia continua a promover seu armazenamento com IA, o Nvidia Inference Context Memory Storage. A empresa de tecnologia afirma que esse armazenamento baseado em IA foi projetado para armazenar e compartilhar dados gerados por um modelo de raciocínio de IA de vários passos e com um trilhão de parâmetros.

Se você está lendo isto, já está um passo à frente. Continue assim assinando nossa newsletter.

Compartilhe este artigo

Aviso Legal. As informações fornecidas não constituem aconselhamento de investimento. CryptopolitanO não se responsabiliza por quaisquer investimentos realizados com base nas informações fornecidas nesta página. Recomendamostrondentdentdentdentdentdentdentdent /ou a consulta a um profissional qualificado antes de tomar qualquer decisão de investimento.

MAIS… NOTÍCIAS
INTENSIVO AVANÇADAS
CURSO