人工知能には、よく議論されるもののあまり注目されていない暗い側面があり、それはまさに気候への影響です。.
AIは多くの可能性と魅力を秘めていますが、AIモデルの学習には膨大なエネルギーが必要です。テキストを書いたり画像を作成したりするだけでも、AIが機能するためには十分なエネルギーが必要です。これらのプロセスは、データセンターの所在地やAIモデルの動作場所に応じて、相当量の二酸化炭素を排出します。.

大型モデルはより多くのエネルギーを必要とする
専門家らは、この技術が成熟し発展するにつれ、炭素排出量は時間とともに悪化する一方だと述べている。この技術は拡張性があり、規模が大きくなるにつれて性能も向上するため、企業はさらに大型のモデルを構築しようとしている。これはビジネスには有益だが、環境にとってはコストがかかるからだ。.
アレックス・デ・ヴィレス氏は、大型モデルはエネルギー消費量の増加にもつながり、環境に良くないと述べています。彼はデジコノミストの創設者であり、同社の研究分野は新技術の環境への影響を研究しています。.
ChatGPTのバックエンドで動作するような大規模AIモデルの学習は、長年にわたり研究者が推定してきたように、膨大なエネルギーを消費します。カリフォルニア大学バークレー校のコンピュータサイエンス教授であり、2021年に発表した研究論文の筆頭著者であるデイビッド・ペッターソン氏は、OpenAIによってChatGPTとして改良されたAIモデルGPT-3の学習には1287メガワットの電力が必要だったと記しています。この電力量は、平均的なアメリカの家庭123世帯が1年間に消費する電力に相当します。.
ここで取り上げているのは、当時としては最大規模であったかもしれない世界的に有名な AI モデルですが、その後も膨大な量のエネルギーを消費する他の多くのモデルが開発されました。.
ハギング・フェイスのAI・気候担当リーダー、サーシャ・ルッチオーニ氏によると、2021年に発表されたGoogle DeepMindのプロジェクトであるGopherモデルには、推定1066メガワット時が必要だったと、彼女は2022年に発表された別の研究論文で述べている。.
現在の世代モデルでは気候コストがさらに大きくなる
しかし、これらはどちらも前世代のAIモデルであり、今日の基準からするとかなり小さいものです。GPT-3の後継であるGPT-4は、その10倍の大きさとされており、そのトレーニングには51~62ギガワットの電力が必要でした。研究者のカスパー・グロース・アルビン・ルドヴィグセン氏によると、これはアメリカの4,600世帯分の電力需要を上回るとのことです。.

同様に、Google は現在、Gemini と呼ばれる Gopher よりもはるかに大きなモデルを所有しており、Google は必要なエネルギー量を公表していないにもかかわらず、計算は単純に、構築するものが大きければ大きいほど、必要なエネルギー量も大きくなるということになります。.
これらの推定値は開発・学習段階のみを対象としています。もう一つ重要な点があります。これらのモデルは、学習に基づいた出力を生成することが求められる実世界の運用を想定して作られており、ユーザーの要求に応じて出力を生成するにもエネルギーが必要です。
専門家によると、ChatGPTが1000件のクエリに応答するには47ワットの電力を消費します。これは、通常のLED電球5個を1時間点灯させるのに相当します。テキストベースの応答に限って言えば、この電力消費量がどれほど急速に増加するか想像してみてください。.
炭素開発者はクリーンエネルギーで稼働するデータセンターを使用することで二酸化炭素排出量を削減できると主張している。
ブルームバーグによると、近年の電力需要はすでに増加しており、データセンターの拡大による追加需要は再生可能エネルギー源の導入を上回っています。そのため、世界中の供給企業は石炭火力発電所や天然ガス火力発電所の閉鎖を遅らせており、これもAIの二酸化炭素排出量の増加につながっています。.
原文はここで。

