ÚLTIMAS NOTICIAS
SELECCIONADO PARA TI
SEMANALMENTE
MANTÉNGASE EN LA CIMA

Los mejores análisis sobre criptomonedas directamente en tu bandeja de entrada.

AMD lanza los chips de IA de la serie Instinct MI300 y se prepara para un duelo con Nvidia

PorAamir SheikhAamir Sheikh
Lectura de 2 minutos.
Chips de IA
  • AMD presenta la GPU Instinct MI300X para centros de datos, que supera al modelo insignia de Nvidia, el H100, en memoria y métricas clave de IA, y promete ahorros de costos. La MI300X cuenta con el respaldo de importantes fabricantes de equipos originales (OEM) como Dell, HPE, Lenovo y Supermicro.
  • AMD presenta el chip híbrido CPU-GPU Instinct MI300A, la APU para centros de datos, diseñada para competir con Nvidia. El MI300A cuenta con núcleos Zen 4 basados ​​en x86, arquitectura CDNA 3 y 128 GB de memoria HBM3, con el objetivo de optimizar la eficiencia energética y las ventajas de la memoria unificada.
  • La plataforma de programación de GPU ROCm 6 se lanzó como alternativa abierta a CUDA de Nvidia. AMD busca satisfacer la alta demanda de GPU Nvidia ofreciendo soluciones competitivas con optimizaciones avanzadas y soporte ampliado.

En un movimiento que desafía la supremacía de Nvidia en la computación con IA, AMD ha lanzado su GPU para centros de datos Instinct MI300X, que ofrece capacidades de memoria superiores y supera al modelo insignia de Nvidia, el H100, en métricas clave de IA. La incursión estratégica de la compañía en el sector de la IA ha obtenido el apoyo de importantes empresas como Microsoft, Dell y HPE. Esto marca un hito importante para AMD en su búsqueda por transformar el panorama del dominio de los chips de IA.

Instinct MI300X: desafiando los límites

El Instinct MI300X de AMD, basado en la arquitectura CDNA 3, se perfila como un formidable competidor del H100 de Nvidia. Con 192 GB de memoria HBM3, el MI300X supera la capacidad del H100 en 2,4 veces, ofreciendo un ancho de banda de memoria de 5,3 TB/s, un 60 % superior. A pesar de un consumo de energía ligeramente superior, de 750 vatios, el MI300X ofrece un rendimiento inigualable, alcanzando 163,4 teraflops para operaciones matriciales, un 30 % más rápido en métricas clave de IA y con ventajas en cuanto a rentabilidad.

AMD planea introducir el MI300X en la plataforma Instinct MI300X, con 10,4 petaflops de rendimiento máximo, 1,5 TB de HBM3 y 896 GB/s de ancho de banda Infinity Fabric. Esta plataforma, con un diseño estándar, permite a los fabricantes de equipos originales (OEM) integrar a la perfección los aceleradores MI300X, ofreciendo una capacidad de memoria 2,4 veces mayor y un 30 % más de potencia de cálculo en comparación con la plataforma H100 HGX de Nvidia. AMD prioriza la mejora de las capacidades de memoria, lo que se traduce en una menor inversión de capital y una mayor eficiencia en los servidores basados ​​en aceleradores de IA.

Instinct MI300A: potencia y eficiencia desatadas

La Instinct MI300A de AMD, considerada la primera APU para centros de datos del mundo para HPC e IA, supone un cambio de paradigma al combinar núcleos Zen 4 basados ​​en x86 y núcleos de GPU en la misma matriz. Con 128 GB de memoria HBM3, la MI300A ofrece un 60 % más de capacidad que la H100 de Nvidia, lo que destaca la eficiencia energética y las ventajas de la memoria unificada. Los proveedores de servidores pueden configurar el TDP de la MI300A entre 550 y 760 vatios, lo que supone un avance significativo en el rendimiento de HPC.

La ventaja única del MI300A reside en su eficiencia energética, la memoria compartida entre los núcleos de la CPU y la GPU, y su plataforma de GPU fácilmente programable. AMD destaca la capacidad de la APU para eliminar la transferencia de datos entre procesadores gracias a la memoria unificada, lo que mejora el rendimiento y optimiza la gestión de la energía. Demostrando una eficiencia energética superior, el MI300A supera al superchip GH200 Grace Hopper de Nvidia, ofreciendo un rendimiento máximo de HPC dos veces superior. En diversas pruebas de rendimiento de HPC, el MI300A muestra un rendimiento superior, lo que constituye un argumento convincente para su integración en servidores de nueva generación.

La alternativa abierta de AMD: la plataforma de programación de GPU ROCm 6

Como estrategia para abordar la creciente demanda de GPUs Nvidia, AMD presenta ROCm 6, posicionándose como una alternativa abierta a la plataforma CUDA de Nvidia. ROCm 6 ofrece optimizaciones avanzadas para modelos de lenguaje de gran tamaño, bibliotecas actualizadas para un mejor rendimiento y mayor compatibilidad con diversos frameworks, modelos de IA y canales de aprendizaje automático. Esta iniciativa posiciona a AMD como un competidortron, ofreciendo a las empresas alternativas viables ante la escasez de GPUs de Nvidia.

¿Un cambio de paradigma en el dominio de los chips de IA?

La audaz incursión de AMD en el mercado de chips de IA con los Instinct MI300X y MI300A, respaldados por la plataforma ROCm 6, representa un desafío significativo para el dominio histórico de Nvidia. Con importantes fabricantes de equipos originales como Dell, HPE y otros apostando por las innovadoras soluciones de AMD, la industria está presenciando un cambio en la dinámica de la computación de IA. A medida que las empresas exploran alternativas para superar la escasez de GPU de Nvidia, surge la pregunta: ¿Está AMD preparada para redefinirdefifuturo del dominio en el mercado de chips de IA? Solo el tiempo revelará el verdadero impacto de este avance revolucionario.

No te limites a leer noticias sobre criptomonedas. Entiéndelas. Suscríbete a nuestro boletín. Es gratis.

Comparte este artículo

Descargo de responsabilidad. La información proporcionada no constituye asesoramiento financiero. Cryptopolitande no se responsabiliza de las inversiones realizadas con base en la información de esta página. Recomendamostrondentdentdentdentdentdentdentdent inversión.

MÁS… NOTICIAS
INTENSIVO CRIPTOMONEDAS
CURSO