人工智能也有其阴暗面,这一点经常被提及,但却很少受到重视,那就是它对气候造成的代价。.
尽管人工智能令人兴奋且潜力无限,但训练人工智能模型需要消耗大量能源,即使用于编写文本或创建图像,其运行也需要消耗大量能源。这些过程会释放大量的碳,具体数量取决于数据中心的位置和人工智能模型的运行地点。.

更大的模型需要更多能源
专家表示,随着技术的成熟和发展,碳排放只会随着时间的推移而恶化,因为企业正试图构建更大的模型,因为该技术具有可扩展性,其性能会随着规模的扩大而提高,这反过来对企业有利,但对环境却代价高昂。.
Alex de Vires表示,更大的模型也会导致更高的能源需求,这对环境不利。他是Digiconomist的创始人,该公司的研究领域是新技术对环境的影响。.
多年来,研究人员一直估计,训练大规模人工智能模型(例如 ChatGPT 后端使用的模型)会消耗大量能源。加州大学伯克利分校计算机科学教授、2021 年发表的一篇研究论文的第一作者 David Petterson 指出,OpenAI 改进后的 ChatGPT 所使用的 GPT-3 模型,其训练过程显然需要 1287 兆瓦的电力。这相当于 123 个美国普通家庭一年的用电量。.
虽然我们这里讨论的是世界上最著名的 AI 模型,它可能是当时规模最大的,但在此之后也开发了许多其他模型,这些模型也消耗大量的能源。.
据 Hugging Face 的人工智能和气候负责人 Sacha Luccioni 称,Gopher 模型(谷歌 DeepMind 的一个项目,于 2021 年宣布)估计需要 1066 兆瓦时,正如她在 2022 年发表的另一篇研究论文中提到的那样。.
当前这一代模式的气候成本甚至更大。
但这些都属于上一代人工智能模型,按今天的标准来看规模相当小。GPT-3 的继任者 GPT-4 的规模是它们的 10 倍,训练它需要 51 到 62 吉瓦的能源,据研究员 Kasper Groes Albin Ludvigsen 称,这比 4600 个美国家庭的总用电量还要多。.

同样地,谷歌现在有一个比 Gopher 大得多的模型,叫做 Gemini,尽管谷歌没有透露它需要多少能源,但计算方法很简单:你建造的越大,它需要的能源就越多。.
这些估算仅针对开发和训练阶段。还有一点很重要,因为这些模型是为实际运行而设计的,需要根据训练结果生成输出,而响应用户请求生成这些输出也需要消耗能源。
据专家称,ChatGPT 回复 1000 个查询需要消耗 47 瓦的功率,相当于五个普通 LED 灯泡亮一个小时。想想看,这仅仅是基于文本的回复,耗电量就会迅速累积起来。.
专家认为,人工智能开发者可以通过使用清洁能源运行的数据中心来降低碳足迹,因为人工智能的碳排放量会因其存储和运行地点的不同而有很大差异。
据彭博社报道,近期电力需求已持续增长,而不断扩张的数据中心带来的新增需求也超过了可再生能源的部署。因此,全球各地的电力供应单位都在推迟煤电和天然气发电厂的关闭,这也加剧了人工智能的碳排放。.
原文请点击此处。

