Nvidia, une multinationale spécialisée dans les technologies, a annoncé le lancement d'un nouveau service qui aide les entreprises et les pays à construire des supercalculateurs personnalisés et spécialisés grâce à la dernière version de LLM de Meta, Llama 3.1.
Nvidia a lancé deux nouveaux services destinés aux entreprises et aux pays. Le géant technologique a intégré un service à Nvidia AI Foundry et des microservices d'inférence à NVIDIA NIM. Ces deux services exploitent la dernière version de la bibliothèque open source LLMs de Meta, Llama 3.1, et permettent de créer des supercalculateurs d'IA générative.
Nvidia AI Foundry aidera les entreprises et les pays à créer des modèles LLM ultra-performants, adaptés aux exigences et aux besoins spécifiques de chaque secteur. Ceci est possible grâce à l'utilisation de Llama 3.1 et des logiciels, matériels et experts de Nvidia. Les entreprises et les pays auront la possibilité d'entraîner ces supermodèles à l'aide de données propriétaires ou de données synthétiques générées par Llama 3.1 et le modèle de récompense Nvidiatron .
À lire également : Tesla commencera à utiliser des robots humanoïdes en 2025, selon Elon Musk.
Llama 3.1, lancé aujourd'hui, possède 405 milliards de paramètres et se positionne pour concurrencer les modèles d'IA propriétaires tels que ChatGPT et Gemini. Meta améliore continuellement Llama en fournissant des composants supplémentaires compatibles avec le modèle. Meta et Nvidia se sont associés pour intégrer Llama 3.1 aux services Nvidia, rendant ainsi la solution disponible dès son lancement. Le PDG de Nvidia, Jensen Huang, a déclaré :
« NVIDIA AI Foundry a intégré Llama 3.1 de manière globale et est prêt à aider les entreprises à créer et à déployer des supermodèles Llama personnalisés. »
Les modèles d'IA générative de Llama 3.1 sont entraînés sur plus de 16 000 GPU Nvidia H100 Tensor Core. De plus, ils sont optimisés pour le calcul accéléré et les logiciels Nvidia, ce qui permet leur déploiement dans les centres de données, le cloud et sur les ordinateurs personnels équipés de GPU.
À lire également : Meta dévoile la plus grande version de son modèle d’IA Llama 3
Actuellement, de nombreuses entreprises à travers le monde ont accès aux microservices NIM pour Llama. Accenture est le premier client à avoir développé des supermodèles Llama personnalisés pour Aramco, AT&T et Uber. Ces entreprises seront les premières à accéder aux microservices NIM via Llama 3.1. Après avoir créé avec succès des modèles personnalisés, une entreprise peut choisir les microservices Nvidia, une plateforme OPS et une plateforme cloud pour exécuter ces modèles.
La semaine dernière, Mistral AI a lancé un nouveau modèle 12B, Mistral NeMo, en collaboration avec Nvidia. Ce modèle est disponible en tant que microservice d'inférence Nvidia NIM. Concernant le nouveau matériel GPU, une source a affirmé qu'une entreprise spécialisée dans les technologies matérielles commercialiserait une nouvelle RTX 5090D exclusivement pour le marché chinois. Ce nouveau GPU succéderait à la RTX 4090D.

