지속가능한 AI 관행으로 AI의 전력 소비 문제를 극복할 수 있을까?
- 생성형 AI의 증가와 전력을 공급하는 데 필요한 막대한 양의 전기는 재생 에너지로의 전환 과정을 방해하는 위협적인 요소다.
- 미국, 영국 및 기타 지역의 에너지 전력망은 데이터 센터 전력 수요의 잦은 수요 폭증을 해결하면서 넷제로 미래에 대비하기 위해 노력하고 있다.
- 유통망 업그레이드 작업이 진행되고 있지만, 이 작업에는 수십 년이 걸릴 수 있다. 생성형 AI 기업과 하이퍼스케일러가 나서야 한다. 기술 중심의 문제를 해결하기 위해서는 기술 중심의 솔루션이 필요하기 때문이다.
디지털로 전환하면 더 깨끗하고 친환경적인 경제가 될 것이라는 기대가 있었지만, 이 전환이 구현된 오늘날 전력망에는 부담이 되고 데이터 센터는 고장을 일으킨다. 조치를 취하지 않는다면 인공지능(AI)과 재생 에너지 혁명은 곧 대립하게 될 것으로 보인다. 생성형 AI는 엄청난 출력과 전력 소비로 세계를 당혹스럽게 했다. 세계경제포럼의 연구에 따르면 AI 업무를 수행하는 데 필요한 에너지가 이미 연간 26%를 넘는 성장률로 증가하고 있다. 2028년이 되면 생성형 AI는 아이슬란드보다 더 많은 전력을 소비하게 될 수 있다.
정말 풍력, 태양광, 수력 발전이 충분한 전력을 공급할 수 있을까? 만약 충분한 전력이 공급되지 않는다면 전력공급업체는 어쩔 수 없이 화석 연료 사용을 최우선으로 하게 될까? 전문가들은 친환경 AI가 가능하다고 말하지만, 머신 러닝 모델을 훈련하고 AI 애플리케이션을 코딩하는 방식은 바뀌어야 한다. 에너지 산업도 필요할 때 언제 어디서나 청정 전력을 공급하기 위해 대규모 인프라 투자를 해야 한다.
생성형 AI의 전력 소모가 큰 이유
비유하자면 대형 언어 모델(LLM)은 생성형 AI라는 후드 아래에 있는 엔진이며, 연료에 대한 끊임없는 갈증을 느끼고 있다. 2023년 후반의 피어 리뷰 연구에 따르면, ChatGPT(챗지피티)와 같은 앱은 2027년까지 85~134테라와트시(TWh)의 전력을 소비할 것으로 예측된다. 이는 네덜란드와 스웨덴이 1년 동안 사용하는 양과 거의 같다.
지속가능성을 전문으로 하는 스탠포드 대학 AI 연구원인 샤합 무사비(Shahab Mousavi)는 최근의 세 가지 변화가 클라우드 컴퓨팅을 더욱 에너지 집약적으로 만들었다고 말한다. 무사비는 “간단히 말해, 엔비디아와 경쟁사들은 고성능 컴퓨팅 및 병렬 처리를 위해 맞춤화된 그래픽처리장치(GPU)를 꾸준히 개선해서 오늘날의 AI 시스템을 가능하게 하는 놀랍도록 높은 처리 능력을 갖춘 데이터 센터의 토대를 마련했다”고 말했다.
무사비는 이어 "어떻게 보면 운 좋게 여러 번 있었던 GPU 수요 흐름에 잘 올라탔다고 볼 수 있다"고 덧붙였다. “처음에는 게임과 그래픽에 사용하기 위한 수요의 흐름이 있었고, 그 다음엔 비트코인이 등장하면서 암호화폐 채굴이 크게 증가했습니다. 오늘날, 이전의 두 가지 수요와 함께 AI 애플리케이션, 특히 생성형 AI 제품이 새로운 수요의 흐름을 일으키고 있습니다. 이들은 모델을 훈련하기 위해 비교적 간단한 계산을 수없이 많이 실행하는데, 이를 위해서는 데이터 처리가 많이 필요합니다. 또한 이러한 계산 작업의 병렬화가 가능하다는 특성으로 인해 GPU는 더 일반적인 CPU에 비해 프로세스 속도를 높일 수 있습니다."
먼저 대규모 데이터 센터에 부담이 가중된다. 수만 평의 공간 위에 펼쳐진 랙과 캐비닛에서 AI 서버가 폭풍처럼 밀려드는 프롬프트를 처리하면서 점점 더 많은 에너지를 소모한다. GPU는 가열되고, 추론을 하고 냉기를 유지하기 위해 더 많은 양의 전기를 필요로 하며 현지 전력망의 한계를 시험하게 된다.
영국 내셔널 그리드(National Grid)의 CEO 존 페티그루(John Pettigrew)는 2024년 3월 에너지 업계 임원들에게 한 연설에서 데이터 센터 전력 수요가 향후 10년 동안 500% 증가할 것이라고 말했다. 그는 오래된 유통망이 시스템을 제약하고 있다고 경고하면서 "인공지능 및 양자 컴퓨팅과 같은 기초 기술의 미래 성장에는 더 큰 규모의 에너지 집약적 컴퓨팅 인프라가 필요할 것"이라고 덧붙였다. 전 세계적으로 1만500개가 넘는 데이터 센터가 운영 중이며 수백 개가 더 건설되고 있기 때문에, 조치가 없는 한 이 문제는 개선되지 않을 것이다.
청정에너지의 난제
그렇다면 AI가 풍력, 태양광, 수력 발전으로 만든 전기를 더 많이 사용하도록 전환할 수 없는 이유는 무엇일까? 지난 한 해 동안 영국에서는 모든 가정에 전력을 공급하기에 충분한 청정 에너지가 생산되었다. 문제는 전략공급업체 수요 대응에 친환경 전기를 사용하려고 할 때 발생한다. 재생 에너지 생산 능력이 빠르게 성장한 캘리포니아와 텍사스주에 대해 무사비는 이렇게 말했다. "이 전력망은 재생 에너지를 원하는 곳으로 전달할 수 있도록 최적화되어 있지 않습니다. 재생 에너지 발전을 위한 충분한 송전 용량이 없을 경우, 특히 정오와 같은 태양광 발전 피크 생산 시간에는 전력망에서 재생 에너지 발전 용량을 분리해서 전력을 축소하는 수밖에 없죠.”
무사비는 캘리포니아 센트럴 밸리의 태양광 발전소에 대한 광범위한 투자를 대표적인 사례로 꼽으며 “전력망이 데이비스와 머세드 외곽처럼 태양광 발전 용량이 급증한 센트럴 밸리 지역에서 샌프란시스코 베이 지역의 전력 수요 대부분을 전송하도록 설계되지 않았고, 그렇게 하기 위해 개선된 사항도 없다”고 말했다. "그러다 보니 베이 지역에서 필요로 하는 전력 요구량은 많지만, 요구하는 재생 에너지를 모두 공급할 수 있는 적절한 전력망 인프라는 없습니다. 따라서 전력망의 안정성을 유지하기 위해 수요가 피크일 때는 태양열과 같이 기존에 설치되어 쉽게 사용할 수 있는 재생 가능 에너지원의 플러그를 뽑고, 대신 수요가 높은 시간에 소비 지역에서 일반적으로 ‘피커 플랜트’라고 하는 전통적인 플랜트를 사용해야 합니다."
인프라 투자가 도움이 되겠지만 전력 시스템 구축에는 수년에서 수십 년이 걸린다. 오늘날 급증하는 AI 전력 수요에 대한 대응 방안은 무엇일까? 한 가지 옵션은 아마존 웹 서비스가 아일랜드에서 강제로 해야 했던 것처럼 컴퓨팅 용량을 배분하거나 재생 에너지가 풍부한 지역으로 컴퓨팅 용량을 이전 및 확장하도록 인센티브를 제공하여 수요와 재생 에너지원 공급을 통합하고 전력망에 가해지는 부하를 줄이는 것이다. 또 다른 방법은 화석 연료를 계속 태우는 것이다. 석유 및 가스 발전소에는 수많은 문제가 있지만, 매장량이 풍부하고 신뢰할 수 있으며 주요 인구 센터 근처에 고르게 분포되어 있다.
그러나 이러한 에너지원을 더 많이 사용할수록 새로운 재생 에너지 프로젝트를 온라인으로 전환하는 것은 시급하지 않아진다. 미국에는 수많은 청정 에너지 프로젝트가 규제 승인 대기 중이다. 그러나 AI가 기업에서 가정 및 개인용 장치로 그 범위를 넓히면서 새로운 재생 에너지 생산으로 인한 '부가성'은 지연될 수 있다.
데이터 센터는 청정 에너지 접근성 부족 문제를 극복하기 위해 탄소 발자국을 상쇄하거나 제거하는 전력 구매 계약(PPA), 재생 에너지 인증서(REC) 등의 해결 방법을 채택했다. 무사비는 "PPA와 REC는 생산 증가의 두 가지 원동력이고 재생 에너지 산업에 도움이 되었지만 모든 문제에 대한 해결책은 될 수 없다"고 말했다. "전기의 최종 소비자에게 배출 책임을 적절하게 할당하여 전송을 개선하거나 기능적 책임 체계를 활성화하는 데는 많은 도움이 되지 않습니다. REC와 같은 체계를 통해 배출 속성을 거래하면 누구도 실제 배출 영향을 알 수 없죠."
무사비는 이어 “논문 What's Scope 2 Good For?(스코프 2는 어떤 용도로 사용되는가?)에서 논의한 것처럼 스코프 3 카테고리 3(S3C3) 없이는 정확한 배출 영향력을 알 수 없으며, 시장기반 스코프 2(MBS2) 배출은 이걸 반영하지 못한다”며 "재생 에너지의 생산과 수요 사이의 균형을 개선하는 것을 고려해야 한다. 청정 에너지 발전량은 수년간 빠르게 증가했지만, 증가한 발전 용량을 수요가 있는 곳으로 전송하기 위해 인프라를 그만큼 개선하는 일은 아직 미흡하다”고 덧붙였다.
모델 바꾸기
정책 입안자들이 전력 분배를 개선하기 위한 계획을 세우는 동안, 생성형 AI회사가 LLM의 탄소 발자국을 줄이기 위해 할 수 있는 일이 몇 가지 있다.
마이크로소프트의 머신 러닝 과학자인 레쉬미 고쉬(Reshmi Ghosh)는 LLM이 그 자체로 특정 사용 사례를 해결하기 위해 설계된 소규모 모델에 적용될 수 있다고 말했다. LLM은 결과적으로 계산 집약도가 낮고 전력을 덜 소모한다. 고쉬는 생성형 AI 모델이 자주 편견과 결함이 있는 결과물을 생성한다는 점을 지적하고 "이처럼 크고 일반화된 모델이 잘 작동하지 않는 영역이 있다"며 "대규모 데이터 세트 투자를 피하고 특정 작업만 처리하는 모델 개발 방법을 연구 중"이라고 말했다.
고쉬는 소규모 언어 모델(SLM)에 대한 마이크로소프트의 작업과 AI 지원 데이터 집합의 개방형 Phi-3 제품군을 소개했다. 이들은 1750억 개 이상의 매개변수를 사용한다고 주장하는 ChatGPT와 같은 LLM보다 훨씬 더 규모가 작은 30~50억 개의 매개변수를 사용한다. SLM은 훈련(예: 구체화하고 완성하기 위한 특정 작업의 지속적인 반복)을 덜 필요로 하므로 보다 지속가능한 AI 개발 관행으로 이어질 것이다. 고쉬는 이것이 마이크로소프트가 더 깊이 탐구하려는 영역이라고 말했다.
고쉬는 "우리는 데이터 모델의 크기에 상관없이 모든 것을 계속 재학습할 필요가 없다는 걸 발견했다. 특정 작업이나 도메인에 필요한 정보를 포함하고 있는 건 그중 일부이기 때문”이라며 “매개변수 효율성을 통해 AI를 더 효율적으로 만들 수 있다”고 말했다.
친환경 AI 달성
ChatGPT 이전에도 모든 것이 지속적으로 전기화되고 있었기 때문에 에너지 소비는 꾸준히 증가하고 있었다. 오늘날 수요가 급증하면서 AI의 잠재력을 억제하지 않는 동시에 넷제로 전환하는 것을 지원하는 일에 균형을 유지할 필요가 생겼다. 고쉬와 무사비는 새로운 투자와 접근 방식이 에너지 인프라와 생성형 AI 애플리케이션을 보다 효율적이고 탄력적이며 지속 가능하게 만드는 데 필수적일 것이라고 말했다. 개발 단계에서 친환경 관행을 채택하면 탄소 배출량을 줄일 수도 있다.
오토데스크의 데이터 과학자 프란잘리 아제이 파스(Pranjali Ajay Parse)는 "에너지 효율적인 코딩, 최적화된 코드 제어, 수명 주기 전반에 걸친 지속적인 모니터링 및 AI 모델 최적화가 모두 표준 관행이어야 한다"며 "에너지 비용을 낮추기 위해 피크 시간대가 아닐 때 훈련 작업을 운영하는 최적화된 훈련 일정으로 변경할 수도 있다"고 말했다.
또 다른 접근 방식은 분산 훈련이다. 파스는 "워크로드를 여러 기계에 분산시키는 방법”이라며 "이렇게 하면 효율성을 높이고 병목 현상을 줄일 수 있다"고 말했다. 머신 러닝 자체를 문제에 적용할 수도 있다. 파스에 따르면 2016년에 구글은 딥마인드(DeepMind)를 사용하여 데이터 센터의 에너지 효율을 분석하고 개선하여 냉각을 위한 에너지 사용량을 40% 줄였다. 파스는 "냉각 비용을 절약하기 위해 데이터 센터를 물속에 배치하는 마이크로소프트의 나틱 프로젝트(Project Natick)는 또 하나의 유망한 접근법"이라고 말했다.
생성형 AI는 윤리적 문제, 법적 문제, 경제적 문제, 철학적 문제 등 사회에 커다란 질문을 던진다. 전문가들은 이제 지속가능성을 고려해야 할 때라고 말한다. LLM의 긍정적 및 부정적 영향에 대한 논쟁은 계속될 것이지만, LLM이 무대로 삼을 건강한 지구가 없다면 이런 논쟁도 의미가 없을 것이다.