L’intelligence artificielle (IA) continue de remodeler le paysage technologique. À l’aube de 2024, experts et agents d’IA partagent leurs prédictions sur les tendances qui defi les réseaux d’IA au cours des douze prochains mois.
Croissance exponentielle des charges de travail en IA
Dans un monde où les applications d'IA comme ChatGPT, Bard et Grok de X.AI sont devenues monnaie courante, la demande de modèles d'IA plus grands et plus performants demeure. La croissance exponentielle de la puissance de calcul a permis l'entraînement de modèles d'IA à grande échelle, et la demande pour des modèles toujours plus performants ne montre aucun signe de ralentissement. Les hyperscalers sont désormais confrontés au défi de prendre en charge des charges de travail encore plus importantes avec des clusters de milliers de GPU.
Cette croissance est alimentée par le développement de nouveaux algorithmes d'IA et l'adoption généralisée des applications d'IA dans divers secteurs. Par conséquent, les charges de travail liées à l'IA augmentent, tout comme le nombre de clusters GPU qui les prennent en charge. L'utilisation efficace de ces clusters et la réussite de l'entraînement des modèles d'IA dépendent fortement de l'architecture sous-jacente et de la connectivité réseau.
Réseautage ouvert : un changement de paradigme
Les géants du cloud ont déjà adopté des solutions réseau ouvertes et désagrégées dans leurs centres de données. La raison de ce changement est simple : les solutions réseau monolithiques et propriétaires ne peuvent offrir l’évolutivité, la flexibilité et la rentabilité nécessaires à la gestion de ressources de calcul à grande échelle.
Les solutions de réseau propriétaires conviennent depuis longtemps au calcul haute performance (HPC), mais elles ont tendance à freiner l'innovation et à faire grimper les coûts en raison du manque de concurrence. À l'inverse, les solutions de réseau ouvertes et standardisées sont essentielles à la croissance de l'écosystème de l'IA. Elles permettent de mettre en place une infrastructure rentable pour les charges de travail à grande échelle, favorisant ainsi la prolifération des grands modèles de langage (LLM) et l'émergence de nouvelles applications.
Le consortium Ultra Ethernet (UEC) est appelé à jouer un rôle déterminant dans cette transformation, en promouvant un réseau d'IA ouvert vers un modèle standardisé basé sur Ethernet. L'adoption d'Ethernet pour les réseaux d'IA devrait connaître une croissance significative en 2024.
Informatique de périphérie et architecture distribuée
Si les charges de travail backend importantes excellent dans la gestion de tâches complexes et l'entraînement de modèles d'IA de grande envergure, la tendance en 2024 est de rapprocher la puissance de calcul des applications, améliorant ainsi l'expérience utilisateur, notamment dans les scénarios exigeant une prise de décision rapide. Bien qu'une charge de travail d'IA entièrement distribuée ne soit peut-être pas une réalité cette année, l'essor du edge computing se poursuit.
Cette évolution nécessite des interconnexions plus fréquentes entre les réseaux frontaux et dorsaux. Toutefois, elle met également en lumière un problème de réseau urgent : l’incohérence des protocoles de connectivité entre ces deux segments de réseau. Afin de rationaliser la gestion du réseau et d’améliorer potentiellement ses performances globales, l’industrie commence à s’orienter vers des solutions de réseau unifiées en lançant des initiatives telles que l’Ultra Ethernet Consortium (UEC).
Réseautage durable et écoénergétique
Avec l'intensification des charges de travail liées à l'IA, notamment celles impliquant des milliers de GPU, la consommation énergétique devient un enjeu majeur. Bien que l'impact énergétique du réseau soit inférieur à celui du calcul, il n'en demeure pas moins une préoccupation à prendre en compte. Par ailleurs, l'empreinte carbone reste un problème crucial, quelle que soit l'échelle.
En réponse, les nouvelles solutions de mise en réseau basées sur l'IA devraient davantage privilégier l'efficacité énergétique. Cela implique l'adoption de matériel écoénergétique et l'adhésion aux principes de l'économie circulaire afin de promouvoir le développement durable. Par ailleurs, les logiciels avancés conçus pour optimiser l'utilisation des ressources devraient gagner en importance.
L'AIOps s'impose déjà dans le monde des réseaux, plusieurs fournisseurs l'ayant mise en œuvre pour optimiser l'exploitation de leurs réseaux. En 2024, l'augmentation des investissements dans les outils AIOps devrait avoir un impact significatif sur l'efficacité des opérations réseau, révolutionnant ainsi le paysage des réseaux.
Grâce à l'IA, l'analyse prédictive et la détection d'anomalies en temps réel peuvent jouer un rôle crucial dans la résolution des problèmes potentiels de réseau et l'amélioration de sa fiabilité. Avec l'évolution des réseaux IA, la connectivité haute performance devrait connaître une nette amélioration grâce à l'intégration de l'AIOps.

