Advanced Micro Devices (AMD) ha entrado oficialmente en la carrera para desafiar el dominio de Nvidia en el mercado de aceleradores de inteligencia artificial ( IA ) con el lanzamiento de sus aceleradores Instinct de la serie MI300. Se espera que esta iniciativa desencadene una feroz competencia entre los dos gigantes tecnológicos en un mercado que, según AMD, alcanzará los 45 000 millones de dólares en 2023 y se disparará a los 400 000 millones de dólares en 2027. Con el objetivo de vender más de 2000 millones de dólares en chips de IA en 2024, AMD se prepara para una agresiva incursión en el sector de la IA.
Un salto en rendimiento con el MI300X
AMD presenta dos aceleradores de IA, con el MI300X como principal competidor del H100 de Nvidia. Una de las características más destacadas del MI300X son sus impresionantes 192 GB de memoria de alto ancho de banda, más del doble de la capacidad del H100 de Nvidia. Esta importante ventaja en memoria podría ser crucial, especialmente para aplicaciones que utilizan modelos de lenguaje grandes (LLM) y que requieren una gran cantidad de recursos de memoria.
En comparación con el H100 de Nvidia, AMD hace afirmaciones contundentes sobre el rendimiento del MI300X. Se informa que ofrece un rendimiento 1,6 veces superior al ejecutar inferencias en LLM específicos, citando como ejemplo el modelo BLOOM 176B. Otra característica destacable es la capacidad del MI300X para gestionar inferencias en un modelo de 70 mil millones de parámetros, una capacidad que no se encuentra en la línea actual de productos de Nvidia.
Presentamos el MI300A con núcleos de CPU Zen 4
Si bien el MI300X se posiciona como la opción de gama alta, AMD también ofrece el MI300A, que ofrece una propuesta de valor diferente. El MI300A puede tener menos núcleos de GPU y menos memoria que el MI300X, pero cuenta con los últimos núcleos de CPU Zen 4 de AMD. Esta configuración posiciona al MI300A para satisfacer el mercado de la computación de alto rendimiento, con un enfoquetronen la eficiencia. AMD afirma que el MI300A ofrece 1,9 veces más rendimiento por vatio que su MI250X de la generación anterior.
Una ventaja significativa de Nvidia en el mercado de GPU para centros de datos es su ecosistema de software. La plataforma CUDA de Nvidia, establecida hace más de 16 años, se ha convertido en el estándar de la industria para aprovechar las GPU en tareas de computación. El desafío para competidores como AMD es que CUDA solo admite GPU Nvidia, lo que dificulta que los clientes cambien fácilmente a otros fabricantes de chips de IA.
En respuesta, AMD ofrece ROCm, una plataforma de computación GPU abierta, ahora en su sexta iteración. ROCm es compatible con frameworks de IA populares como TensorFlow y PyTorch, y AMD ha ampliado su ecosistema mediante alianzas estratégicas y adquisiciones. Cabe destacar que AMD adquirió la empresa de software de IA de código abierto Nod.ai para reforzar sus capacidades de software y cerrar la brecha con Nvidia.
Asociaciones clave y adopción por parte de los clientes
Mientras Nvidia mantiene su ventaja en software, AMD ya ha conseguido clientes importantes para sus nuevos chips de IA. Microsoft y Meta Platforms (anteriormente Facebook) se han comprometido a adoptar la tecnología de AMD. Microsoft lanzará una nueva serie de servidores virtuales en Azure con el MI300X, mientras que Meta Platforms planea utilizar el MI300X para diversas cargas de trabajo de inferencia de IA.
Además, Oracle ofrecerá instancias de hardware con chips MI300X, y los principales fabricantes de hardware como Dell, Hewlett-Packard Enterprise, Lenovo y Supermicro están planeando sistemas construidos en torno a los nuevos productos de inteligencia artificial de AMD.
AMD está preparada para satisfacer la creciente demanda de aceleradores de IA a corto plazo. Sin embargo, la evolución a largo plazo de este mercado sigue siendo incierta. La IA sigue siendo una tecnología fundamental, pero a medida que se intensifica la competencia y aparecen opciones más viables más allá de Nvidia, podrían surgir presiones sobre los precios.

