banner
홈페이지 / 소식 / AI 산업이 호황을 누리면서 환경에 어떤 피해를 입힐까요?
소식

AI 산업이 호황을 누리면서 환경에 어떤 피해를 입힐까요?

Jun 12, 2023Jun 12, 2023

기술 회사들은 복잡한 프로그램과 모델을 훈련하는 데 필요한 에너지와 물의 양에 대해 비밀을 유지하고 있습니다.

ChatGPT가 대답할 수 없는 질문 중 하나: 얼마나 많은 에너지를 소비합니까?

"AI 언어 모델로서 저는 물리적 존재가 없거나 직접적으로 에너지를 소비하지 않습니다." 또는 "내 작업과 관련된 에너지 소비는 주로 AI를 호스팅하고 실행하는 데 사용되는 서버 및 인프라와 관련이 있습니다. 모델."

Google의 Bard는 훨씬 더 대담합니다. "내 탄소 배출량은 0입니다"라고 주장합니다. 생성과 훈련에 소비되는 에너지에 대해 질문하면 "공개적으로 알려지지 않음"이라고 대답합니다.

AI 프로그램은 실체가 없는 것처럼 보일 수 있습니다. 그러나 이러한 장치는 전 세계 데이터 센터에 있는 서버 네트워크를 통해 구동되며, 전력을 공급하려면 많은 양의 에너지가 필요하고 냉각을 위해서는 많은 양의 물이 필요합니다.

AI 프로그램은 매우 복잡하기 때문에 다른 형태의 컴퓨팅보다 더 많은 에너지가 필요합니다. 그러나 문제는 - 정확히 얼마인지를 결정하는 것이 믿을 수 없을 만큼 어렵다는 것입니다.

더욱 정교한 AI 모델을 구축하기 위해 경쟁하는 동안 ChatGPT를 만든 OpenAI, Google 및 Microsoft와 같은 회사는 AI 모델을 훈련하고 실행하는 데 얼마나 많은 전기와 물이 필요한지, 어떤 에너지원이 데이터 센터에 전력을 공급하는지 공개하지 않을 것입니다. , 또는 일부 데이터 센터가 어디에 있는지도 알 수 있습니다.

예를 들어 Facebook의 모회사인 Meta는 작년에 RSC(AI Research SuperCluster)라고 불리는 세계에서 가장 빠른 슈퍼컴퓨터를 구축하고 있다고 발표했습니다. 하지만 슈퍼컴퓨터가 어디에 있는지, 어떻게 전력을 공급받고 있는지는 밝히지 않았습니다.

이제 기술 업계가 이메일, 검색부터 음식 배달 앱, 정신 건강 서비스에 이르기까지 거의 모든 것에 생성 AI를 통합하기 위해 서두르고 있는 가운데, 업계 전문가와 연구자들은 이 기술의 억제되지 않은 성장으로 인해 상당한 환경 비용이 발생할 수 있다고 경고합니다.

AI 회사인 Hugging Face의 기후 책임자인 Sasha Luccioni는 "AI의 기하급수적인 사용으로 인해 점점 더 많은 에너지가 필요하게 되었습니다."라고 말했습니다. "그러나 우리는 지속 가능성을 고려하지 않고 단지 그래야 한다고 느끼기 때문에 생성 AI 모델을 사용하는 사람들의 변화를 목격하고 있습니다."

Luccioni는 특정 AI 모델 생성 시 생성되는 배출량을 평가하려고 노력한 소수의 연구원 중 한 명입니다.

아직 동료 검토가 이루어지지 않은 연구 논문에서 그녀와 그녀의 공동 저자는 슈퍼컴퓨터에서 Hugging Face의 자체 대형 언어 모델인 Bloom을 훈련하는 데 사용된 에너지의 양을 집계했습니다. 슈퍼컴퓨터의 하드웨어를 제조하고 인프라를 유지하는 데 사용되는 에너지; 프로그램이 시작된 후 프로그램을 실행하는 데 사용되는 전기입니다. 연구진은 이 과정에서 약 50톤의 이산화탄소가 배출된다는 사실을 발견했는데, 이는 런던과 뉴욕 간 항공편 약 60회에 해당하는 양입니다.

Bloom의 에너지 발자국은 다른 생성 AI 프로그램보다 낮다고 Luccioni와 그녀의 팀은 추정합니다. Bloom의 슈퍼컴퓨터는 탄소 배출을 생성하지 않는 원자력 에너지로 구동되기 때문입니다. 대조적으로, 제한적으로 공개된 데이터에 따르면 ChatGPT의 GPT3 모델 훈련 과정에서 약 500미터톤의 CO2가 생성되었습니다. 이는 평균 휘발유 자동차로 주행한 백만 마일이 넘는 양에 해당한다고 연구원들은 지적했습니다.

Luccioni는 "ChatGPT의 최신 모델인 GPT4의 경우 [OpenAI]는 훈련 기간, 훈련 위치, 사용 중인 데이터에 대해 전혀 언급하지 않았습니다."라고 말했습니다. "따라서 본질적으로 이는 배출량을 추정하는 것이 불가능하다는 것을 의미합니다."

한편, 최신 AI 모델은 점점 더 커지고 에너지 집약도가 높아지고 있습니다. 더 큰 모델에는 점점 더 강력한 그래픽 처리 장치(GPU)를 사용해야 하며 훈련하는 데 더 오랜 시간이 걸리므로 더 많은 리소스와 에너지를 사용한다고 Luccioni는 말했습니다.

더욱 불분명한 것은 다양한 AI 모델을 생성하고 사용하는 데 소비되는 물의 양입니다. 데이터 센터에서는 장비가 과열되는 것을 방지하기 위해 증발식 냉각 시스템에 물을 사용합니다. UC Riverside 연구원이 주도한 동료 검토가 아닌 한 연구에서는 Microsoft의 최첨단 미국 데이터 센터에서 GPT3를 교육하는 데 잠재적으로 700,000리터(184,920.45갤런)의 담수가 소비되었을 수 있다고 추정합니다.