ÚLTIMAS NOTICIAS
SELECCIONADO PARA TI
SEMANALMENTE
MANTÉNGASE EN LA CIMA

Los mejores análisis sobre criptomonedas directamente en tu bandeja de entrada.

AMD presenta chips para PC con IA de próxima generación en el CES 2026 en Las Vegas

PorCollins J. OkothCollins J. Okoth
3 minutos de lectura
AMD presenta chips para PC con IA de próxima generación en el CES 2026 en Las Vegas
  • AMD ha presentado planes para su rack Helios AI de próxima generación en el CES 2026 en Las Vegas.
  • La directora ejecutiva de la empresa, Lisa Su, ofreció el primer vistazo al sistema Helios durante su discurso inaugural. 
  • AMD también presentó sus últimos chips Ryzen AI Max+ para estaciones de trabajo ligeras, mini-PC y portátiles.

AMD, multinacional tecnológica estadounidense, ha revelado sus planes para lanzar su rack Helios AI de próxima generación en el CES 2026 de Las Vegas. La directora ejecutiva de la compañía, Lisa Su, ofreció un primer vistazo al sistema Helios durante su presentación, ofreciendo más detalles sobre su diseño y construcción.

El director ejecutivo Su presentó una gran unidad de rack Helios en el escenario, promocionando su rendimiento superior, comparable al Vera Rubin NVL72 de Nvidia, también presentado en el CES 2026. Nvidia ha marcado la pauta en sistemas a escala de rack, con su lanzamiento como su última oferta.

Según Su, Helios competirá directamente con los sistemas NVL de Nvidia. AMD pretende igualar 72 de sus chips MI455X con las 72 GPU Rubin de su última plataforma NVL72. 

Las GPU de la serie MI500 de AMD proporcionarán cómputo de IA 1000 veces superior

además anunció planes para ampliar sus esfuerzos al proporcionar más información sobre sus próximas GPU de la serie MI500, que, según afirma, ofrecerán un rendimiento de IA hasta 1000 veces superior al de las GPU Mi300X. Su enfatizó que este aumento de rendimiento será necesario en los próximos años, y añadió que, para los próximos cinco años, unos cinco mil millones de personas utilizarán IA activamente a diario. 

AMD también presentó su nueva línea de chips para PC Ryzen AI serie 400, mientras que Su presentó los procesadores MI-455. Señaló que estos procesadores son parte integral de los centros de datos que impulsan los programas de IA.

AMD también presentó sus chips Ryzen AI Pro serie 400, que competirán con los nuevos procesadores Core Ultra 3 de Intel. Estos procesadores se basan en la nueva tecnología de proceso 18A de Intel.

Su invitó además al CEO de Generative Bionics, Daniele Pucci, al escenario para presentar por primera vez el robot humanoide, GENE.01. El robot funciona con GPU y CPU de AMD y está diseñado para operar en entornos industriales. 

Su observó que las empresas tecnológicas necesitarán multiplicar por al menos 100 la capacidad informática global en los próximos años. Se espera que este crecimiento beneficie tanto a Nvidia como a AMD, que hasta la fecha han incrementado su capitalización de mercado a 4,5 billones de dólares y 359 000 millones de dólares, respectivamente.

AMD presenta los chips Ryzen AI Max+

AMD también presentó sus últimos chips Ryzen AI Max+ para estaciones de trabajo ligeras, mini PC y portátiles. También presentó su plataforma para desarrolladores Ryzen Halo. La mini PC permite a los desarrolladores crear modelos de IA localmente, en lugar de depender de soluciones en la nube. 

La plataforma para desarrolladores Halo compite con la mini-PC DGX Spark de Nvidia, cuyo precio ronda los 4000 dólares. Sin embargo, AMD aún no ha revelado los precios de Halo.

Mientras tanto, Nvidia también presentó la Plataforma Rubin, que combina las GPU Rubin y la CPU Vera para crear un único procesador Vera Rubin. Nvidia describe la plataforma Rubin como una IA agencial ideal con modelos de razonamiento avanzados. 

“Rubin llega justo en el momento justo, ya que la demanda de computación de IA, tanto para entrenamiento como para inferencia, se dispara”

Jensen Huang, director ejecutivo de Nvidia

La plataforma Rubin, además de las GPU Rubin y las CPU Vera, incluye la DPU Nvidia BlueField-4, el conmutador Nvidia NVLink 6, el conmutador Ethernet Nvidia Spectrum-6 y el SuperNIC Nvidia ConnectX-9.

La combinación de varias NVL72 da como resultado la supercomputadora de IA DGXX SuperPOD de Nvidia. Hiperescaladores como Microsoft, Amazon, Meta y Google están invirtiendo miles de millones de dólares para adquirir estos grandes sistemas. 

Nvidia también señaló que la plataforma Rubin es más eficiente que sus predecesoras, lo que probablemente resultará en una reducción de cuatro veces en la cantidad de GPU necesarias para entrenar los mismos sistemas MoE. Esta reducción significa que las GPU adicionales se pueden asignar a diferentes tareas. Rubin también reducirá los costos de tokens de inferencia hasta diez veces.

Mientras tanto, Nvidia sigue promocionando su almacenamiento de IA, el Nvidia Inference Context Memory Storage. La empresa tecnológica afirma que este almacenamiento basado en IA está diseñado para almacenar y compartir datos generados por un modelo de razonamiento de IA de múltiples pasos y un billón de parámetros.

Si estás leyendo esto, ya llevas ventaja. Mantente al día con nuestro boletín informativo.

Comparte este artículo

Descargo de responsabilidad. La información proporcionada no constituye asesoramiento financiero. Cryptopolitande no se responsabiliza de las inversiones realizadas con base en la información de esta página. Recomendamostrondentdentdentdentdentdentdentdent inversión.

MÁS… NOTICIAS
INTENSIVO CRIPTOMONEDAS
CURSO