인공지능에는 자주 논의되지만 제대로 주목받지 못하는 어두운 면이 있는데, 바로 기후 변화에 미치는 영향입니다.
인공지능이 가진 모든 흥미와 잠재력에도 불구하고, AI 모델을 학습시키는 데에는 막대한 에너지가 필요하며, 텍스트를 입력하거나 이미지를 생성하는 데에도 여전히 상당한 에너지가 소모됩니다. 이러한 과정은 데이터 센터의 위치와 AI 모델이 작동하는 위치에 따라 상당한 양의 탄소를 배출합니다.

더 큰 모델일수록 더 많은 에너지가 필요합니다
전문가들은 기술이 성숙하고 발전함에 따라 탄소 배출량은 시간이 지날수록 더욱 악화될 것이라고 말합니다. 기업들은 이 기술의 확장성 덕분에 더 큰 모델을 구축하려고 하는데, 이는 사업에는 이익이 되지만 환경에는 큰 부담이 되기 때문입니다.
알렉스 드 비레스는 대형 모델이 더 많은 에너지 소비를 초래하며, 이는 환경에 좋지 않다고 말합니다. 그는 디지코노미스트(Digiconomist)의 설립자이며, 그의 회사는 신기술이 환경에 미치는 영향을 연구하는 분야입니다.
ChatGPT의 백엔드에서 작동하는 것과 같은 대규모 AI 모델을 학습시키는 데는 막대한 에너지가 소모된다는 사실은 수년간 연구자들이 추산해 온 바입니다. UC 버클리 컴퓨터 과학과 교수이자 2021년에 발표한 연구 논문의 주저자인 데이비드 페터슨은 OpenAI가 ChatGPT에 사용하기 위해 개선한 AI 모델인 GPT-3를 학습시키는 데 약 1287메가와트의 전력이 필요했다고 밝혔습니다. 이 에너지량은 미국 평균 가구 123곳에 1년 동안 전력을 공급할 수 있는 양입니다.
우리가 지금 이야기하고 있는 것은 당대 최대 규모였던 세계적으로 유명한 AI 모델이지만, 그 이후로도 막대한 에너지를 소비하는 수많은 다른 모델들이 개발되었습니다.
허깅페이스의 AI 및 기후 책임자인 사샤 루치오니에 따르면, 2021년에 발표된 구글 딥마인드의 프로젝트인 고퍼(Gopher) 모델은 약 1066메가와트시의 전력을 필요로 했다고 그녀는 2022년에 발표된 또 다른 연구 논문에서 언급했습니다.
현세대 모델은 훨씬 더 큰 기후 비용을 초래합니다
하지만 이 두 모델은 모두 이전 세대의 AI 모델에 해당하며, 오늘날의 기준으로 보면 상당히 작은 규모입니다. GPT-3의 후속 모델인 GPT-4는 이보다 10배나 더 큰 규모이며, 학습에 필요한 에너지는 51~62기가와트에 달합니다. 연구원 카스퍼 그로에스 알빈 루드비그센에 따르면 이는 미국 가정 4,600곳의 총 에너지 수요량보다 많은 양입니다.

마찬가지로 구글은 현재 고퍼보다 훨씬 큰 모델인 제미니를 보유하고 있으며, 구글이 필요한 에너지량을 공개하지는 않았지만, 간단히 말해 모델이 클수록 더 많은 에너지가 필요하다는 것입니다.
이러한 추정치는 개발 및 훈련 단계에만 해당됩니다. 중요한 점은 이러한 모델은 실제 운영 환경에서 사용하기 위해 만들어졌으며, 훈련 내용을 바탕으로 결과를 도출해야 하고, 사용자 요청에 따라 결과를 도출하는 데에도 에너지가 필요하다는 것입니다.
전문가들에 따르면 ChatGPT가 1,000개의 질문에 응답하는 데 47와트의 전력이 소모되는데, 이는 일반 LED 전구 5개를 한 시간 동안 켜두는 것과 같습니다. 텍스트 기반 응답만 고려했을 때, 이러한 전력 소모가 얼마나 빠르게 누적될지 생각해 보세요.
탄소 발자국을 줄일 수 있다고 주장합니다 . AI의 탄소 배출량은 저장 및 운영 위치에 따라 크게 달라지기 때문입니다.
블룸버그에 따르면 최근 전력 수요가 이미 증가했으며, 확장하는 데이터 센터로 인한 추가 수요는 재생 에너지원의 보급 속도를 앞지르고 있습니다. 따라서 전 세계 공급 기관들은 석탄 및 천연가스 발전소의 폐쇄를 미루고 있으며, 이는 AI의 탄소 발자국을 더욱 증가시키고 있습니다.
원문은 여기에서 .

