DERNIÈRES NOUVELLES
SÉLECTIONNÉ POUR VOUS
HEBDOMADAIRE
RESTEZ AU SOMMET

Les meilleures analyses crypto directement dans votre boîte mail.

Meta lance des puces d'IA internes alors que la course à la réduction de sa dépendance à Nvidia s'accélère

ParJai HamidJai Hamid
3 minutes de lecture -
Meta lance des puces d'IA internes alors que la course à la réduction de sa dépendance à Nvidia s'accélère
  • Meta a annoncé qu'elle développait quatre nouvelles générations de puces MTIA au cours des deux prochaines années.
  • MTIA 300 est déjà en production pour la formation au classement et aux recommandations.
  • Meta a déclaré que MTIA 400, 450 et 500 prendront principalement en charge l'inférence GenAI jusqu'en 2027.

Meta s'oriente de plus en plus vers les puces d'IA personnalisées, car la lutte pour réduire la dépendance à Nvidia devient de plus en plus sérieuse dans le secteur des grandes entreprises technologiques.

L'entreprise a déclaré avoir lancé le Meta Training and Inference Accelerator (MTIA) en 2023 et qu'elle prépare actuellement quatre nouvelles générations de puces pour les deux prochaines années.

Selon Meta, ces puces seraient conçues pour le classement, les recommandations et les tâches d'intelligence artificielle générale (GenAI) au sein des produits Meta.

L'entreprise a également précisé qu'elle ne misait pas sur un seul fournisseur ni sur un seul composant matériel. Meta prévoit de continuer à s'approvisionner en semi-conducteurs auprès de plusieurs acteurs du secteur tout en maintenant MTIA au cœur de son plan d'infrastructure d'IA.

L'entreprise explique adopter une « approche de portefeuille » face à l'évolution et à la croissance de ses charges de travail en IA. Cela implique de combiner des puces externes avec des composants internes plutôt que de confier l'ensemble de la solution à un seul fournisseur.

Meta déploie quatre générations de puces MTIA selon un calendrier plus rapide

Meta a déclaré utiliser déjà des centaines de milliers de puces MTIA pour des travaux d'inférence liés à la fois au contenu organique et aux publicités sur ses applications.

Ces puces sont conçues pour les besoins internes de l'entreprise, et non pour un usage général. Ce point est important car, selon Meta, ce matériel fait partie d'une solution complète et personnalisée, ce qui lui permet de disposer d'un système mieux adapté à ses tâches quotidiennes.

L'entreprise a déclaré que cette configuration offre une meilleure efficacité de calcul pour ses cas d'utilisation spécifiques et réduit les coûts par rapport aux puces à usage plus général.

La prochaine étape consiste en un déploiement à plus grande échelle. Meta a annoncé le développement de MTIA 300, 400, 450 et 500, chaque version offrant des gains en termes de puissance de calcul, de bande passante mémoire et d'efficacité. MTIA 300 est déjà en production et assure le classement et l'entraînement des systèmes de recommandations.

Les MTIA 400, 450 et 500 peuvent exécuter toutes les charges de travail, mais Meta a déclaré que ces puces seront principalement utilisées pour la production d'inférence GenAI à court terme et jusqu'en 2027.

L'entreprise a également indiqué que le silicium est modulaire, ce qui permet d'intégrer facilement les nouvelles puces à l'infrastructure des systèmes rack existants. Cela réduit le délai entre la conception et le déploiement.

Concernant le rythme de lancement, Meta a déclaré que l'industrie lance généralement une nouvelle puce d'IA tous les un à deux ans, mais qu'elle a désormais la capacité de lancer ses propres puces tous les six mois, voire moins, en réutilisant des conceptions modulaires.

Meta fonde sa stratégie en matière de puces d'IA sur l'inférence et les normes ouvertes

L'entreprise a déclaré que sa stratégie MTIA repose sur trois piliers : une itération rapide, une conception axée sur l'inférence et une adoption facile grâce à des normes communes.

Sur le premier point, Meta a déclaré que le cycle de publication plus court lui permet de s'adapter plus rapidement à l'évolution des techniques d'IA, d'intégrer de nouvelles technologies matérielles et de réduire les coûts de développement et de déploiement des nouvelles versions de puces.

Sur le deuxième point, Meta a marqué une rupture entre son plan et le modèle de marché habituel. L'entreprise a expliqué que la plupart des puces grand public sont d'abord conçues pour les tâches de pré-entraînement à grande échelle en intelligence artificielle générale, puis utilisées pour d'autres applications, souvent à un coût plus élevé.

Meta affirme procéder à l'inverse. Les MTIA 450 et 500 sont d'abord optimisés pour l'inférence GenAI, puis utilisés pour le classement, l'entraînement et l'inférence des recommandations, et l'entraînement GenAI en cas de besoin.

L'entreprise a également indiqué que MTIA repose dès sa conception sur des outils et des systèmes standards, notamment PyTorch, vLLM, Triton et l'Open Compute Project (OCP). La conception de ses systèmes et de ses racks est également conforme aux normes OCP pour une utilisation dans les centres de données.

Meta a ajouté qu'aucune puce ne peut à elle seule répondre à tous les besoins, c'est pourquoi elle prévoit de déployer différentes puces pour différentes charges de travail tout en visant ce qu'elle appelle « la superintelligence personnelle pour tous »

Votre banque utilise votre argent. Vous ne récupérez que les miettes. Regardez notre vidéo gratuite pour devenir votre propre banque.

Partagez cet article
PLUS D'ACTUALITÉS
COURS ACCÉLÉRÉ CRYPTOMONNAIES
LES