Chargement...

L’IA a un appétit énergétique plus élevé, ce qui nécessite de nouvelles solutions durables

Dans cet article :

  • Les opérations d’IA générative consomment plusieurs fois plus d’énergie que le cloud computing traditionnel.
  • L’IA nécessite également de grandes quantités d’eau pour refroidir les piles de GPU, ce qui met également à rude épreuve les ressources naturelles.
  • La disponibilité limitée des énergies renouvelables et les émissions de carbone sont également des sources de préoccupation.

Les besoins énergétiques de la technologie de l’intelligence artificielle sont l’un des sujets les plus discutés dans les cercles technologiques. S’il consomme de l’énergie à l’échelle des besoins d’un pays tout entier, il a également une lourde empreinte carbone.

ChatGPT d'OpenAI, qui est le produit d'IA le plus célèbre à l'époque, consomme de l'électricité qui peut alimenter quotidiennement 23 000 foyers américains de taille moyenne pour produire des réponses à 195 millions de requêtes des utilisateurs. C'est comme alimenter une petite ville.

Ce sont généralement nos petites habitudes qui accélèrent la consommation d’énergie de l’IA, ainsi que le développement des géants de la technologie et des startups. Nous allons jeter un coup d'oeil.

Souvent, nous ne percevons pas la consommation d’énergie de l’IA

À l’ère du numérique, presque toutes nos tâches sont liées d’une certaine manière à la puissance de calcul. La plupart des choses qui se produisent à la vue de tous sont connectées à un ordinateur intégré quelque part.  

Par exemple, lorsque nous payons à la caisse d'un magasin et que nous glissons notre carte, une longue chaîne de transactions se produit sur un vaste réseau que nous ne voyons pas.

Lorsque nous passons un contrôle de péage, le système nous facture, mais nous ne le voyons pas. La même chose s'applique lorsque nous naviguons sur des cartes ; alors que nous ne voyons que notre téléphone, il existe quelque part un centre de données qui stocke et traite les données pour nous guider sur notre appareil.

A lire aussi : Le Japon estime une forte augmentation de ses besoins énergétiques en raison de l'IA et des centres de données

Toutes ces transactions informatiques qui se produisent lorsque nous faisons quoi que ce soit en ligne ou sur un appareil sont effectuées via un processus appelé inférence, qui consomme beaucoup d'énergie. Alors que des entreprises comme OpenAI, Meta ou Alphabet ne divulguent pas leurs chiffres réels de consommation d'énergie, le Dr Sasha Luccioni de Hugging Face a fait allusion aux coûts plus élevés associés à la formation et à l'inférence de l'IA. Elle a écrit dans un tweet, mentionnant la formation en IA, que :

« Nous avons dépensé 100 millions de dollars en calcul juste pour donner à votre chatbot une voix sexy ! » 

Tout en mentionnant l'inférence, elle a noté :

« Chaque fois que vous effectuez une recherche dans vos photos, vous consommez autant d’énergie que l’ensemble de votre pâté de maisons ! » Sacha Luccioni .

Juste pour vous donner une idée de ce que ces systèmes d’IA énergivores aspirent du réseau. Lucioni étudie l'IA depuis longtemps et elle affirme que le passage d'une approche d'IA non générative à une IA générative peut faire une différence jusqu'à 40 fois plus d'énergie pour la même tâche.

Quels chiffres énergétiques regardons-nous ?

À mesure que l’adoption de l’IA augmente, on estime que la consommation énergétique des centres de données doublera presque d’ici 2026 à l’échelle mondiale, nécessitant plus de 1 000 térawatts. 

https://twitter.com/SashaMTL/status/1790790422727369178

En janvier, l'Agence internationale de l'énergie (AIE) a publié ses prévisions concernant la consommation mondiale d'énergie au cours des deux prochaines années. La nouveauté est que des projections sur la quantité d’électricité utilisée par les centres de données, les crypto-monnaies et l’intelligence artificielle ont également été incluses pour la première fois.

"La consommation totale d'électricité des centres de données pourrait atteindre plus de 1 000 TWh en 2026. Cette demande équivaut à peu près à la consommation électrique du Japon." Source : AIE .

Au vu des chiffres, on ne sait pas comment nous parviendrons à un avenir énergétique durable avec une adoption croissante de la technologie dans tous les secteurs. Actuellement, la consommation d’IA représente un pourcentage important des charges de travail dans les centres de données, des petits serveurs d’inférence de périphérie aux grands clusters de formation d’IA.

Les émissions de carbone augmentent

Pour simplifier les données évoquées ci-dessus, la consommation d’énergie aura une empreinte carbone équivalente à 80 millions de véhicules essence. De nombreux facteurs supplémentaires s’additionnent également rapidement.

Prenons, par exemple, un GPU (Graphics Processing Unit). Il chauffera davantage s’il est utilisé intensément et émettra plus de chaleur. Imaginez un centre de données avec des milliers de ces systèmes fonctionnant en piles et la quantité de chaleur qu'ils produiraient. Différentes approches ont été adoptées pour les refroidir. La plupart du temps, le refroidissement par eau est adopté, ce qui augmente defi la consommation d'eau et d'énergie pour faire circuler cette eau.

« La formation et les charges de travail très denses : ils doivent s'asseoir dans un environnement plus efficace. Et s'ils ne le font pas, nous allons mettre une telle pression sur les réseaux électriques, non seulement en Europe, mais sur toute la planète, que nous aurons de réels problèmes à venir au cours des cinq à dix prochaines années.» Dominic Ward , PDG de Verne Global.

À mesure que le nombre de centres de données augmente et que celui actuel se développe et s'adapte aux capacités de l'IA, davantage de chaleur sera produite, affectant l'écosystème de notre planète. Une autre préoccupation est que les centres de données étendent désormais leurs opérations à l'échelle mondiale dans des endroits où le charbon et le gaz naturel sont les principaux combustibles pour la production d'énergie.

A lire aussi : Wall Street chasse les acteurs de l'IA au-delà de Nvidia et des semi-conducteurs

En raison de certaines limitations de l’énergie solaire et éolienne, il est beaucoup plus facile d’exploiter ces sources traditionnelles, et les entreprises se ruent vers elles dans la ruée vers l’or de l’IA. Les experts estiment que les milliards d’appareils connectés à Internet produiront 3,5 % du total de dioxyde de carbone d’ici l’année prochaine. Ainsi, nous, les utilisateurs, devons également réfléchir : avons-nous besoin de parler à nos machines à laver et d’obtenir des réponses générées par l’IA ?

Les géants de la technologie ont bien plus de responsabilités, mais chacun doit jouer son rôle.


Reportage cryptopolitain d'Aamir Sheikh

Clause de non-responsabilité. Les informations fournies ne sont pas des conseils commerciaux. Cryptopolitan.com décline toute responsabilité pour les investissements effectués sur la base des informations fournies sur cette page. Nous tron vivement dent recherches indépendantes et/ou de consulter un professionnel qualifié avant de prendre toute décision d'investissement.

Lien de partage:

Les plus lus

Chargement des articles les plus lus...

Restez au courant de l'actualité crypto, recevez des mises à jour quotidiennes dans votre boîte de réception

Nouvelles connexes

McDonald's met fin à son partenariat d'IA avec IBM pour les commandes au volant
cryptopolite
Abonnez-vous à CryptoPolitan