당신이 몰랐던 이야기…AI의 에너지 사용량을 직접 계산해 봤다

개별 AI 텍스트, 이미지, 영상 생성 요청에서 나오는 탄소 배출량이 대수롭지 않게 보일 수도 있다. 그러나 업계가 제대로 추적하지 않는 배출량을 합산하고, 앞으로 늘어날 AI 사용에 따른 배출량까지 고려하면 우리는 전혀 다른 상황을 마주하게 될지 모른다.

일상생활 속에서 인공지능(AI)의 사용은 지난 10년 넘는 시간 동안 우리의 온라인 생활에서 일어난 가장 중요한 변화다. 이제 수억 명의 사람들이 숙제, 연구, 코딩, 이미지나 동영상 제작 등에 도움을 받기 위해 챗봇을 이용하고 있다. 그런데 이 모든 일을 가능하게 하는 에너지원은 과연 무엇일까?

MIT 테크놀로지 리뷰는 이 질문에 답하기 위해 AI 산업이 사용하는 에너지양을 전례 없는 수준으로 정밀하게 분석해 봤다. 즉, AI 모델이 하나의 ‘요청(query)’에 응답할 때 소비하는 전력량까지 계산해 현재 AI 산업의 탄소 발자국이 어느 정도 수준이며, 수십억 명이 매일 AI를 쓰게 될 미래에 그것이 어느 정도까지 커질 것인지를 따져봤다.

우리는 AI의 에너지 수요를 추적·분석하는 전문가 24명을 직접 인터뷰했다. 또 다양한 AI 모델과 프롬프트(지시어)를 평가하고, 수백 페이지에 달하는 전망 보고서와 자료를 분석했다. 여기서 그치지 않고 주요 AI 모델 개발업체들에게 그들의 계획에 대해 물었다. 이렇게 공을 들인 결과, 우리는 AI의 에너지 소비에 대한 일반적인 이해에 많은 허점이 있다는 결론에 도달했다.

우리는 하나의 요청이 얼마나 많은 에너지를 소비하는지 이해하는 작업부터 시작했다. 이것이 전체 그림을 이해하는 데 필수적이라고 판단했다. 이러한 요청이 챗봇을 넘어 검색, 에이전트, 피트니스 추적, 온라인 쇼핑, 항공권 예약 등을 위한 앱에 점점 더 많이 통합되고 있기 때문이다. 이 AI 혁명을 구동하기 위해 필요한 에너지 자원은 천문학적 규모다. 그래서 세계 최대 기술 기업들은 이 에너지를 최대한 활용해 에너지망을 재편하는 것을 최우선 과제로 삼고 있다.

예를 들어, 메타와 마이크로소프트는 자체 원자력 발전소 건설을 추진하고 있다. 오픈AI와 도널드 트럼프 대통령은 아폴로 우주 프로그램보다 더 많은 5,000억 달러(약 694조 원)를 투자해 최대 10개의 데이터센터를 건설하는 스타게이트(Stargate) AI 프로젝트를 발표했다. 애플도 향후 4년간 5,000억 달러를 들여 미국 내 제조 시설과 데이터센터에 투자할 계획이라고 발표했다. 구글은 2025년까지 AI 인프라에만 75억 달러(약 10.4조 원)를 투자한다는 계획이다.

2005년부터 2017년까지 데이터센터로 공급되는 전력량은 사실상 변동 없이 유지됐다. 페이스북부터 넷플릭스까지 클라우드 기반 온라인 서비스의 확산을 지원하기 위해 수많은 신규 데이터센터가 건설되었음에도 불구하고 효율성이 향상되면서 이런 일이 가능했다. 그러나 2017년부터 AI가 모든 것을 바꾸기 시작했다. 이때부터 AI를 위해 설계된 에너지 소비가 높은 하드웨어를 갖춘 데이터센터가 건설되기 시작됐고, 이로 인해 2023년까지 전기 소비량은 두 배로 늘어났다. 현재 미국에서 소비되는 전체 에너지의 4.4%가 데이터센터에 사용되고 있다는 보고서까지 등장했다.

하버드 대학교 연구에 따르면 데이터센터에서 사용되는 전기의 탄소 집약도는 미국 평균보다 48% 높다.

AI가 더 개인화되고, 복잡한 문제에 대한 AI의 해결 능력이 커지면서 우리 일상 곳곳에 자리 잡게 되자 현재의 AI 탄소 발자국은 역사상 가장 작은 수준일 가능성이 커졌다. 즉, 더 늘어날 일만 남았다는 얘기다.

로렌스 버클리 국립연구소(LBNL)가 지난해 12월 발표한 전망에 따르면 2028년까지 데이터센터에 공급되는 전기 중 절반 이상이 AI에 사용될 전망이다. 현재 기준, AI는 연간 미국 전체 가구의 22%가 소비하는 전기를 소비할 수 있다.

한편, 데이터센터는 당면한 수요를 충족시키기 위해 가스처럼 더 오염이 심하고 탄소 배출량이 높은 에너지를 계속 사용할 것으로 예상된다.

AI의 에너지 사용량을 둘러싼 논의는 종종 제대로 이루어지지 않고 있다. 개인의 행동을 비난하거나, AI보다 더 많은 탄소를 배출하는 산업들과 비교하면서 대화를 흐려버리는 일이 종종 벌어지고 있어서다. 하지만 AI는 이제 피할 수 없는 존재이며, 단일 요청의 영향은 적을 수 있더라도 정부와 기업은 AI 수요를 중심으로 에너지의 미래를 다시 그리게 될지 모른다.

이는 기술 기업, 에너지 기업, 연방 정부가 내세우는 야심 찬 AI 비전에도 불구하고, AI의 미래가 어떻게 될지는 구체적으로 알기 힘들다는 뜻이다. 과학자, 연방정부 자금 지원을 받는 연구 시설, 활동가, 에너지 기업들은 주요 AI 기업과 데이터센터 운영업체가 그들의 활동에 대해 너무 적은 정보만을 공개한다고 주장한다. 실제로 AI 모델을 개발하고 배포하는 기업들은 핵심 질문에 대해 대부분 침묵을 지키고 있다. 그들은 AI 모델과 상호작용하는 데 얼마나 많은 에너지가 사용되는지, AI의 미래를 구동할 에너지 원천은 무엇인지 밝히지 않고 있다.

상황이 이렇다 보니 에너지 수요를 예측하는 것이 업인 사람들조차도 수많은 조각이 빠진 퍼즐을 맞추는 것과 같은 상황에 직면한다. 이는 AI가 에너지 전력망과 배출량에 미칠 미래 영향을 가늠하기 사실상 불가능하게 만든다. 더 심각한 문제는 전력기업들이 데이터센터와 맺는 계약이 AI 혁명의 비용을 우리 모두에게 전가할 가능성이 높다는 점이다. 이는 전기 요금 인상 형태로 나타날 것이다.

미래가 과연 어떻게 될지 설명하려면 처음부터 차근차근 따져봐야 한다.

1부: 모델 만들기

AI 모델에게 여행 계획을 도와달라거나 동영상을 생성해 달라고 요청하기 전에 AI 모델은 데이터센터에서 탄생한다.

서버 랙들이 수개월 동안 작동하며 훈련 데이터를 흡수하고 수치를 계산하며 컴퓨팅을 수행한다. 이 과정은 시간과 비용이 많이 드는 작업이다. 오픈AI의 GPT-4 훈련에는 1억 달러(약 1,390억 원) 이상이 소요됐고, 샌프란시스코를 3일 동안 운영할 수 있는 50기가와트시(GWh)의 에너지가 소비됐다. 훈련이 완료된 후 소비자가 AI 모델이 ‘추론’하게 하여 답변이나 결과물을 얻을 때 비로소 모델의 개발사는 막대한 비용을 회수하고 결국 수익을 낸다.

AI가 더 효율적으로 추론하게 만드는 방법을 연구해온 에샤 초크세(Esha Choukse) 마이크로소프트 애저 연구원은 “모델로 수익을 내는 것은 오직 추론 단계에서만 가능하다”고 설명했다.

훈련이 아닌 추론이 AI의 에너지 수요에서 점차 더 많은 부분을 차지한다. 가까운 미래에도 이런 추세는 계속될 것이다. 현재 AI의 컴퓨팅 파워의 80~90%가 추론에 사용되는 걸로 추정된다.

이 모든 과정은 데이터센터에서 이루어진다. 미국 전역에는 클라우드 제공업체와 아마존, 마이크로소프트 같은 기술 대기업이 운영하는 서버와 냉각 시스템을 갖춘 약 3,000개의 데이터센터가 있으며, AI 스타트업들도 이를 활용한다. AI 추론을 위해 특별히 설계된 데이터센터 수는 증가하고 있지만, 정확한 수는 명확하지 않다. 관련 정보가 엄격히 관리되고 있어서다.

각 데이터센터에서는 AI 모델이 그래픽 처리 장치(GPU)라고 불리는 특수 칩이 장착된 서버 클러스터에 로딩된다. 특히 GPU 중에서는 엔비디아가 만든 H100이 가장 주목받고 있다.

이 칩은 챗GPT가 공개되기 한 달 전인 2022년 10월 출시됐다. H100의 판매량은 이후 급증했다.

그 외에 A100과 최신 블랙웰도 있다. 이 모든 칩의 공통점은 첨단 작업을 수행하면서도 과열되지 않도록 상당한 에너지 소비가 필요하다는 점이다.

하나의 AI 모델은 약 12개의 GPU에 저장될 수 있고, 대규모 데이터센터에는 이러한 칩이 1만 개 이상 연결되어 있을 수 있다.

이 칩들과 밀접하게 연결된 CPU(GPU에 정보를 제공하는 칩)와 팬이 모든 장치를 냉각시키기 위해 작동한다.

서버 랙 사이의 단열 재료가 불완전하고 케이블이 길기 때문에 거의 모든 교환 과정에서 에너지 일부가 낭비된다. 많은 데이터센터는 냉각 운영에 하루 수백만 갤런의 물(종종 신선한 식수)을 사용하기도 한다.

예상 사용량에 따라 다르겠지만 이러한 AI 모델은 전 세계 다양한 데이터센터에 수백 또는 수천 개 클러스터에 배포되고, 각 클러스터는 서로 다른 조합의 에너지 공급원을 이용한다.

이들은 온라인으로 연결되어 있으며, 사용자가 요청을 전송하기만을 기다리고 있다.

2부: 요청

AI 모델에 요청했을 때 소비되는 에너지양을 추정하는 차트를 본 적이 있다면 이는 자동차 연비나 식기세척기 에너지 효율 등급을 측정하는 것과 비슷하다고 생각할 수 있다. 즉, 계산 방법론이 같다고 오해하기 쉽다. 하지만 이는 잘못된 생각이다.

실제로는 AI 모델의 유형과 크기나 생성하는 출력의 유형뿐 아니라 요청이 전송된 데이터센터가 연결된 에너지 전력망이나 처리되는 시간대처럼 당신의 통제 범위를 벗어난 수많은 변수로 인해 한 요청이 다른 요청보다 수천 배 더 많은 에너지를 소비하고 배출물을 발생시킬 수 있다.

인스타그램 같은 스마트폰 앱 안에서든, 웹에서 챗GPT 같은 서비스를 통해서든 AI 모델에 요청을 보낼 때 그 이후에 데이터센터에서 실제로 어떤 일이 벌어지는지는 대부분 비밀에 싸여 있다. 어떤 데이터센터가 당신의 요청을 처리하고, 처리에 얼마나 많은 에너지가 필요하고, 에너지가 얼마나 탄소 집약적인지 같은 요소들은 일반적으로 AI 모델을 운영하는 회사들만 알 수 있다.

오픈AI의 챗GPT, 구글 제미나이, 앤트로픽 클로드처럼 우리에게 익숙한 브랜드 모델 대부분이 마찬가지다. 이들은 모두 ‘폐쇄형’으로 운영된다. 이런 정보가 전부 영업 비밀로 간주된다. 자칫 회사에 부정적인 이미지를 줄 수 있기 때문이다.

세일즈포스의 AI 지속 가능성 담당 책임자인 보리스 가마자이치코프(Boris Gamazaychikov)는 “폐쇄형 AI 모델 제공업체들은 완전한 블랙박스를 제공하고 있는 셈”이라고 말했다.

기업들이 더 많은 정보를 공개하지 않는다면 우리는 단지 정확한 추정치를 확보하지 못하는 건 물론이고 아예 참고할 만한 정보조차 없게 된다.

그렇다면 우리는 추정치를 어디서 찾을 수 있을까? 소위 오픈소스 모델을 통해서다. 오픈소스 모델은 연구자들이 다운로드하고 수정할 수 있는 모델이다. 또 특수 도구를 활용하면 H100 GPU가 특정 작업에 얼마나 많은 에너지를 소비하는지 측정할 수 있다. 이러한 모델은 매우 인기가 많다.

그러나 연구자들이 GPU가 소비하는 전력을 측정하더라도 CPU나 팬이나 그 외 여러 장비에서 소비되는 전력을 측정하지 않는다. 다만 2024년 마이크로소프트가 발표한 논문에 따르면 대형언어모델(LLM)이 추론할 때 쓰는 에너지의 효율성을 분석한 결과 AI 모델 운영에 드는 전체 에너지 수요는 GPU가 소비하는 에너지양의 두 배 정도로 잡으면 되는 것으로 나타났다.

현재로서는 주요 오픈소스 모델을 측정하고, 여기에 다른 모든 요소의 추정치를 추가하는 방식을 통해 AI가 하나의 요청을 처리하는 데 사용하는 에너지양에 대한 가장 정확한 추정치를 얻어낼 수 있다.

다음은 이 방식을 통해 확인한 결과다.

텍스트 모델

요청을 입력하고 텍스트로 답변을 받는 모델부터 시작해 보겠다.

AI 에너지 수요를 평가하는 주요 연구진은 미시간 대학교 연구진이다. 그들은 ML.Energy 리더보드에 에너지 측정 결과를 공개하고 있다. 우리는 이 팀과 협력해 가장 널리 채택된 오픈소스 모델 중 하나인 메타 라마(Llama)의 에너지 소비량을 분석했다.

라마 모델 중 가장 규모가 작은 라마 3.1 8B의 매개변수는 80억 개다. 이스탄불 여행 일정을 짜 달라고 하거나 양자 컴퓨팅에 대해 설명해 달라는 등 다양한 텍스트 생성 프롬프트로 테스트해 본 결과 이 모델의 응답당 에너지 소비량은 약 57 줄(joule)로 측정됐다. 단, 냉각, 기타 계산, 요구사항 처리에 드는 에너지까지 고려했을 때 소비량은 약 114 줄로 추정됐다. 이는 매우 적은 양으로, 전기 자전거로 1피트, 즉 1.82m 거리를 이동하거나 전자레인지를 0.1초 동안 가동할 때 소비되는 양 정도다. 참고로, 1줄은 1뉴턴(N)의 힘으로 물체를 1m 움직였을 때의 에너지를 말한다. 1kg짜리 물체를 지구 중력에서 10cm 정도 들어 올리는 데 필요한 에너지가 약 1줄이다.

텍스트 생성 모델 중 가장 규모가 큰 라마 3.1 405B는 50배 더 많은 매개변수를 보유하고 있다. 일반적으로 매개변수가 많으면 더 높은 품질의 답변을 생성하지만, 각 응답에 필요한 에너지 소비량도 그만큼 증가한다. 이 모델 각 응답당 평균 3,353 줄의 에너지가 필요했다. 총 소비 에너지는 6,706 줄로 추정됐는데, 이는 전기 자전거로 사람을 약 400피트, 약 122m 이동시키거나 전자레인지를 8초 동안 가동하는 데 필요한 에너지다.

따라서 모델 크기는 에너지 수요를 예측하는 데 반드시 고려해야 할 요인이다. 모델이 일정 규모에 도달하면 더 많은 칩 위에서 돌아가야 하며, 각 칩은 에너지 소비를 증가시키기 때문이다. 우리가 테스트한 가장 큰 모델의 매개변수 수는 4,050억 개지만, 딥시크 같은 다른 모델의 매개변수 수는 6,000억 개가 넘는다. 폐쇄형 모델의 매개변수 수는 공개되지 않아 추산할 수밖에 없는데, GPT-4의 경우 추산 결과 1조 개가 넘는 매개변수를 보유하고 있는 것으로 보인다.

하지만 모든 경우에서 프롬프트 자체도 에너지 소비에 중요한 영향을 미쳤다. 몇 가지 농담을 말해달라는 요청처럼 간단한 프롬프트는 창의적인 이야기나 레시피를 알려달라는 복잡한 프롬프트보다 에너지 소비량이 9배 적었다.

이미지 생성

이미지와 동영상을 생성하는 AI 모델은 ‘확산(diffusion)’이라는 다른 아키텍처를 사용한다. 이 모델은 텍스트를 예측하고 생성하는 대신, 무작위한 노이즈 이미지에서 시작해서 점점 실제 이미지로 바꾸는 방법을 학습한다. 예를 들어, 처음에는 노이즈만 있는 상태에서 시작해 최종적으로는 코끼리 사진처럼 보이는 이미지로 바꾸는 과정을 배운다. 이런 확산 모델은 학습 데이터 속 이미지들의 윤곽, 패턴, 특징 등을 익히고, 그 정보를 수백만에서 수십억 개의 매개변수에 저장한다. 영상 생성 모델은 여기에 시간의 흐름까지 고려해서 움직임이 있는 장면을 생성하는 방법도 학습한다.

특정 확산 모델이 요구하는 에너지는 프롬프트에 따라 달라지지 않는다. 다시 말해, 모래 언덕 위의 스키어 이미지를 생성할 때와 화성에서 농사짓는 우주인의 이미지를 생성할 때의 에너지 소비량은 같다. 에너지 소비량은 그보다는 모델의 크기, 이미지 해상도, 확산 과정에서 거쳐야 하는 ‘단계’ 수에 따라 달라진다. 단계가 많을수록 품질은 높아지지만 더 많은 에너지가 필요하다.

매개변수가 20억 개인 오픈소스 이미지 생성기 스테이블 디퓨전 3 미디엄(Stable Diffusion 3 Medium)을 사용해서 표준 품질인 1024 x 1024 픽셀의 이미지를 생성할 때 GPU 에너지 소비량은 약 1,141 줄이다. 확산 모델의 경우 LLM과 달리 GPU가 전체 에너지 소비량에 얼마나 기여하는지 추정하기 어렵다. 하지만 전문가들은 차이가 미미할 것으로 예상된다는 이유로 지금까지 사용해온 ‘두 배’로 계산하는 접근법을 유지할 것을 권하고 있다. 이는 총 에너지 소비량이 약 2,282줄 정도 될 수 있다는 뜻이다. 확산 단계 수를 50개로 두 배로 늘려 이미지 품질을 개선하면 필요한 에너지 역시 약 4,402 줄로 두 배 가까이로 늘어난다. 이는 전기 자전거로 약 250피트, 약 76m를 이동하거나 전자레인지를 약 5.5초 동안 작동할 때 소비되는 에너지와 비슷한 양이다. 이는 여전히 가장 큰 텍스트 모델보다 적은 양이다.

텍스트 생성보다 이미지 생성에 더 많은 에너지가 들 거라는 예상과는 다른 결과다.  대형 텍스트 모델의 매개변수 수가 많고, 텍스트를 생성하더라도 많은 작업을 수행해야 하는 반면 이미지 생성 모델은 일반적으로 더 적은 매개변수로 작동하기 때문에 생기는 일이다.

영상 생성

지난해 오픈AI는 AI로 고해상도 영상을 생성하는 소라(Sora)를 공개했다. 소라 외에도 구글의 비오2(Veo2)와 어도비의 파이어플라이(Firefly) 같은 영상 생성 AI 모델도 등장했다.

이러한 모델을 훈련하는 데 천문학적인 자본과 콘텐츠 양이 필요하다는 점을 고려했을 때 무료 사용이 가능한 오픈소스 모델이 품질에서 뒤처지는 건 어떻게 보면 당연하다. 그럼에도 불구하고 미국 AI 스타트업 허깅페이스 연구진에 따르면 중국 AI 스타트업 즈푸AI(Zhipu AI)와 베이징 칭화대 연구진이 개발한 코그비디오X(CogVideoX)는 매우 우수한 모델에 속한다.

지난해 8월에 출시된 구형 모델은 저해상도에서 초당 8프레임의 동영상을 생성했으며, 이는 GIF에 더 가까운 품질이었다. 각 영상은 약 10만 9,000줄의 에너지가 필요했다. 그러나 3개월 후 즈푸AI는 더 큰 규모와 높은 품질의 신형 모델을 출시했다. 이 모델은 5초 분량의 영상을 초당 16프레임으로 생성한다(이 프레임 속도도 여전히 고화질이 아니며, 1920년대 후반까지 할리우드 무성 영화 시대에 사용된 속도 수준이다). 새로운 모델은 5초짜리 동영상 하나에 30배 이상인 약 340만 줄의 에너지를 소비한다. 고품질 이미지 생성 시 필요한 에너지의 700배 이상이다. 이는 전기 자전거로 38마일, 즉 약 61km를 주행하거나 전자레인지를 1시간 이상 가동할 때 드는 에너지와 동일한 수준이다.

품질이 뛰어난 AI 영상 생성기는 30초 길이의 화려하고 초현실적인 영상을 생성하는 만큼, 훨씬 더 많은 에너지를 소비할 것이다. 이러한 생성기의 규모가 커지면서 영상의 특정 요소를 조정하거나 여러 장면을 결합하는 기능이 추가되면, 그만큼 에너지 소비도 늘어난다. AI 기업들은 생성된 영상이 전통적인 영상 제작에 필요한 촬영이나 이동보다 환경적 피해가 작다고 주장한다. 하지만 이러한 주장은 검증하기 어렵고, AI 영상 제작이 저렴해지면서 영상 생성이 급증할 때 생길 수 있는 영향을 고려하지 않은 주장이다.

하루 소비되는 에너지

AI를 사용하는 한 사람의 하루 에너지 소비량은 어느 정도일까? 당신이 기금 모금을 위한 자선 달리기 대회를 개최하려고 AI 모델에 기금 모금 방법에 대한 15가지 요청을 한다고 치자. 이어서 전단지(홍보물)에 사용할 이미지를 만들기 위해 10번, 인스타그램에 올릴 5초짜리 영상을 생성하기 위해 3번 요청했다고 가정해보자.

이 과정에서 약 2.9킬로와트시(kWh)의 전력을 소비하게 된다. 이는 전기 자전거로 100마일, 즉 160km 이상을 주행하거나(전기차로는 평균 약 10마일) 전자레인지를 3시간 반 이상 가동하는 데 소비되는 에너지양이다.

3부: 탄소 배출

이제 AI 모델이 텍스트, 이미지, 비디오를 생성하는 데 필요한 총 에너지양을 추정해 봤으니 이것이 기후 변화를 유발하는 배출량으로 환산해 볼 차례다.

먼저 데이터센터가 계속 가동된다고 해서 이것이 반드시 나쁜 일인 건 아니다. 모든 데이터센터가 태양광 패널에 연결되어 태양광이 있을 때만 가동된다면 AI를 둘러싼 에너지 소비 논란은 훨씬 덜할 것이다. 하지만 현실이 그렇지 않은 게 문제다. 세계 대부분의 전력망은 여전히 화석 연료에 크게 의존하고 있다. 따라서 전기 사용과 기후 변화에 미치는 영향은 불가분의 관계다.

AI 데이터센터 구축·유지·보수를 전문으로 하는 모손 인프라스트럭처 그룹(Mawson Infrastructure Group)의 라훌 메와왈라(Rahul Mewawalla) CEO는 “AI 데이터센터는 24시간, 365일 내내 전력이 필요하다”고 지적했다.

이는 데이터센터가 풍력이나 태양광처럼 공급이 일정하지 않은 에너지원에 전적으로 의존할 수는 없으며, 평균적으로 더 오염된 전기를 사용하는 경향이 강하다는 뜻이다. 하버드 대학교 연구에 따르면 데이터센터에서 사용되는 전기의 탄소 집약도는 미국 평균보다 48% 높다. 이렇게 된 이유 중 하나는 현재 데이터센터가 평균적으로 더 오염된 전력망을 가진 지역에 집중되어 있기 때문이다. 예를 들어, 버지니아, 웨스트버지니아, 펜실베이니아를 포함한 중부 대서양 연안 지역은 석탄 의존도가 높은 전력망을 구축해 놓았다. 또한 데이터센터는 청정에너지가 공급되지 않을 때도 계속 가동된다.

메타, 아마존, 구글과 같은 기술 기업들은 화석연료 문제에 대응해 원자력 에너지 사용을 확대하겠다고 밝혔다. 이 세 기업은 2050년까지 세계 원자력 발전 용량을 지금보다 세 배로 늘리기로 했다. 그러나 현재 미국에서 원자력 에너지는 전기 공급의 20%만을 담당하며, AI 데이터센터 운영의 일부만을 감당할 수 있을 뿐이다. 더욱이 새로운 원자력 발전소 건설에는 짧게는 수년 내지 길게는 수십 년이 걸릴 수 있다.

전력 공급의 불균형과 AI를 구동할 데이터센터를 서둘러 건설하려는 움직임이 맞물리면서, 종종 근시안적인 에너지 계획이 세워지곤 한다. 4월 멤피스 근처에 위치한 엑스(X)의 슈퍼컴퓨팅 센터가 수십 대의 메탄가스 발전기를 사용 중인 것으로 위성 이미지를 통해 확인됐다. 남부환경법센터(Southern Environmental Law Center)는 이 발전기들이 규제 당국의 승인을 받지 않았으며, 청정 공기법(Clean Air Act)을 위반하고 있다고 주장했다.

이러한 데이터센터의 탄소 배출량을 측정하는 주요 지표는 ‘탄소 집약도(carbon intensity)’다. 이는 소비된 전기 1킬로와트시당 발생하는 이산화탄소 배출량을 말한다. 특정 전력망의 탄소 집약도를 정확히 산정하려면 운영 중인 각 발전소의 배출량과 해당 발전소가 전력망에 공급하는 에너지양을 실시간으로 파악할 수 있어야 한다. 전력 회사, 정부 기관, 연구자들은 평균 배출량 추정치와 실시간 측정치를 결합해 발전소로부터의 오염을 추적한다.

2024년 미국에서는 천연가스와 석탄을 포함한 화석연료가 전체 전력 공급의 약 60%를 차지했다. 원자력은 약 20%를 담당했으며, 나머지 대부분은 다양한 형태의 재생에너지가 공급했다.

탄소 집약도는 지역별로 큰 차이를 보인다. 미국 내 전력망은 분산되어 있으며, 석탄, 가스, 재생 에너지, 원자력 등의 혼합 사용률도 크게 다르다. 캘리포니아의 전력망은 웨스트버지니아의 전력망보다 친환경 에너지 의존도가 더 높은 식이다.

전력이 사용되는 시간대도 중요하다. 2024년 4월 나온 데이터에 따르면 캘리포니아 전력망은 태양광 발전량이 많은 오후에는 킬로와트시당 탄소 집약도가 70g 미만으로 떨어지지만, 밤중에는 300g을 초과할 수 있다.

이러한 차이 때문에 같은 활동이라도 요청한 장소와 시간에 따라 기후에 미치는 영향이 매우 달라질 수 있다. 자선 마라톤 참가자를 생각해보자. 이 사람이 AI에게 텍스트, 이미지, 영상을 요청한 결과 총 2.9kWh의 전기가 사용됐다. 캘리포니아에서는 이 정도 전기를 생산할 때 평균적으로 650g 이산화탄소가 배출된다. 그러나 웨스트버지니아에서 같은 양의 전기를 만들려면 이산화탄소 배출량이 1,150g 이상으로 늘어날 수 있다.

우리 주변의 AI

현재까지 관찰된 바에 따르면 요청에 응답하는 데 필요한 에너지는 상대적으로 작을 수 있지만, 요청 유형과 사용되는 모델에 따라 에너지양은 크게 달라질 수 있다는 걸 알 수 있다. 이러한 전력 소비에 따른 배출량은 요청이 처리되는 장소와 시간에 따라 달라진다. 그렇다면 지금까지 말한 내용을 종합해 보면 어떤 결론을 내릴 수 있을까?

챗GPT는 세계에서 다섯 번째로 많은 방문객이 찾는 웹사이트로 추정된다. 방문객 수는 인스타그램보다는 적지만 엑스보다 많은 수준이다. 지난해 12월 오픈AI는 챗GPT가 매일 10억 개의 메시지를 받고 있다고 밝혔다. 이어 올해 3월에는 새로운 이미지 생성기를 출시한 후 사람들이 스튜디오 지브리 스타일의 초상화부터 자신들을 바비 인형으로 그린 그림까지 하루에 7,800만 개의 이미지를 생성하고 있다고 전했다.

이 발표 내용을 토대로 챗GPT의 에너지 소비량을 대략적으로 추정해 볼 수 있다. 2월 비영리 AI 연구기업 에포크 AI(Epoch AI)는 단일 챗GPT 요청에 소요되는 에너지를 추정했지만, 이 수치에는 앞서 언급한 것처럼 검증이 어려운 다양한 가정이 포함돼 있다. 그럼에도 불구하고 에포크AI는 메시지당 약 0.3 와트시(1,080 줄)의 에너지가 소요된다고 계산했다. 이 추정치는 우리가 가장 작은 모델과 장 큰 모델 사이의 추정치 범위 내에 있다. 단, 우리가 자문한 전문가들은 실제 수치는 오히려 더 높을 수도 있다고 지적했다.

챗GPT가 1년 동안 하루 10억 개의 요청을 받는다고 가정해 보자. 이 경우 챗GPT는 연간 109기가와트시 이상의 전력을 소비하게 되는데, 이는 미국의 약 1만 400가구의 연간 전력 사용량에 해당한다. 이 계산에 이미지를 추가하고, 각 이미지를 생성하는 데 고품질 이미지 모델과 동일한 에너지가 필요하다고 가정하면 추가로 35기가와트시(3,300 가구가 1년간 사용할 수 있는 양)가 필요하다. 이는 영상 생성기 같은 오픈AI의 다른 제품 및 다른 AI 기업과 스타트업의 에너지 수요를 제외한 수치다.

하지만 여기에 문제가 있다. AI 사용에 대한 현재의 에너지 추정치는 곧 닥칠 미래를 제대로 반영하지 못하고 있다. 가까운 미래에는 단순히 하루에 몇 번 작업을 요청하거나 사진을 생성하는 수준을 넘어 AI 에이전트들이 사용자를 대신해 자율적으로 작업을 수행하는 시대가 열릴 전망이다. 앞으로 우리는 음성 모드로 모델과 대화하고, 하루에 두 시간씩 AI 동반자와 채팅하며, 휴대전화 카메라를 통해 주변을 영상으로 분석하게 될 가능성이 크다. 또한 논리적으로 문제를 해결하는 ‘추론 모델’, 심층 보고서를 생성하는 ‘딥 리서치 모델’, 그리고 개인의 데이터와 성향에 맞게 맞춤형 학습을 거친 AI까지 활용하게 될 것이다. 이러한 고도화된 AI 모델들은 단순한 작업조차 기존 모델보다 최대 43배 더 많은 에너지를 소비하는 것으로 드러났다.

이러한 미래는 이미 현실로 다가오고 있다. 매달 2만 달러(약 2,780만 원)에 AI 에이전트 서비스를 제공하고 있는 오픈AI는 향후 모든 모델에 추론 기능을 탑재할 계획이다. 중국의 딥시크는 ‘연쇄적 사고(chain of thought)’ 기술을 도입한 모델을 통해 한 번의 응답에 최대 9쪽 분량의 텍스트를 생성하며 큰 주목을 받았다.

AI는 이제 고객 서비스 전화부터 병원 진료에 이르기까지 다양한 영역에 빠르게 도입되고 있다. 이에 따라 국가 전체 에너지 소비에서 AI가 차지하는 비중도 급격히 증가할 것으로 보인다.

오늘날 AI 요청에 소비되는 에너지를 기준으로 미래의 에너지 수요를 단순 추정하는 것은 무의미하다는 것이 전문가들의 공통된 견해다. 실제로 주요 AI 기업들이 핵발전소를 재가동하고, 사상 유례없는 규모의 데이터센터를 구축하고 있다는 점에서 이들이 그리는 AI의 미래는 현재보다 훨씬 더 많은 에너지를 소모할 것으로 보인다.

허깅페이스의 AI·기후 연구원 사샤 루치오니(Sasha Luccioni)는 “우리가 가진 극소수의 수치는 현재 상황을 겨우 보여줄 뿐이고, 앞으로는 완전히 다른 게임이 펼쳐질 것”이라며 “생성형 AI 도구가 사용자에게 사실상 강제로 도입되고 있어 에너지나 기후 측면에서 현명한 선택을 하기조차 어려워지고 있다”고 경고했다.

현재로서는 각 기업이 공개하는 제한된 정보 외에는 AI가 얼마나 많은 전력을 요구할 것이고 그 전력이 어디서 공급될지를 명확히 알기 어렵다. 이 AI 혁명이 얼마나 많은 에너지를 필요로 하고 사용할 에너지가 어디서 나올지 이해하려면 더 심도 깊은 연구가 요구된다.

4부: 다가올 미래

미국 에너지부의 자금을 지원받고 16명의 노벨상 수상자를 배출한 로렌스 버클리 국립연구소는 2023년 12월 AI의 확산이 에너지 수요에 미치는 영향을 분석한 보고서를 발표했다.

보고서에 따르면 2024년 한 해 동안 미국 내 데이터센터는 총 200테라와트시(TWh)의 전력을 소비했는데, 이는 태국의 연간 전력 사용량과 맞먹는 규모다. 이 중 AI 전용 서버가 소비한 전력은 약 53~76TWh로 추정된다. 이는 미국 내 약 720만 가구가 1년간 사용할 수 있는 전력량이다.

연구진은 이 전력 대부분이 AI 추론 작업에 사용됐다고 보고 있다. 만약 전 세계 인구가 챗봇과 4,000건씩 메시지를 주고받는다면, 그에 필요한 전력량과 거의 동일하다. 다만 실제로는 평균적인 사용자보다 기술 대기업이나 스타트업, 파워유저들이 영상이나 아바타 생성 등 고에너지 작업에 더 많은 전력을 소비했을 가능성이 크다고 설명했다.

로렌스 버클리 국립연구소는 향후 2028년까지 AI 관련 전력 소비가 연간 165~326TWh로 늘어날 것으로 전망했다. 이는 현재 미국 데이터센터가 모든 용도로 사용하는 전력보다 많으며, 미국 전체 가구의 약 22%에 연간 전력을 공급할 수 있는 수준이다. 이로 인해 발생할 수 있는 온실가스 배출량은 자동차로 3,000억 마일 이상 주행했을 때와 비슷하다. 이는 지구와 태양을 1,600회 이상 왕복하는 거리다.

연구진은 “AI 채택의 가속화와 이를 뒷받침하는 고성능 서버 기술이 최근 데이터센터 전력 수요 급증의 핵심 원인”이라고 분석했다. 실제로 미국 전력에서 데이터센터가 차지하는 비중은 2024년 4.4%에서 2028년 12%까지 약 세 배 증가할 것으로 예상된다.

이러한 전력 수요 급증은 민간 기업들의 움직임에서도 드러난다. 소프트뱅크, 오픈AI, 오라클, 아랍에미리트 투자회사 MGX는 향후 4년간 미국 내 데이터센터 구축에 총 5,000억 달러(약 695조 원)를 투자할 계획이다.

앤트로픽은 백악관의 문의에 미국은 2027년까지 AI 데이터센터를 위한 50기가와트의 추가 전력을 확보해야 한다고 주장했다.

AI 기업들은 말레이시아를 포함한 해외에서 멀티 기가와트급 건설 계획을 추진 중이다. 말레이시아는 동남아시아의 데이터센터 허브로 부상하고 있다. 오픈AI는 5월 ‘민주적 AI 확산’을 목표로 해외 데이터센터 건설 지원을 위한 계획을 발표했다. 기업들은 이 목표 달성을 위해 다양한 전략을 펼치고 있다. 신규 원자력 발전소 건설 계약 체결, 기존 발전소 가동 재개, 전력 기업과의 대규모 계약 체결 등이 대표적 사례다.

MIT 테크놀로지 리뷰는 구글, 오픈AI, 마이크로소프트에 인터뷰를 요청해 이들의 향후 계획과 주요 AI 모델의 추론에 필요한 에너지 수치를 문의했다. 오픈AI는 수치를 제공하거나 인터뷰에 응할 수 없다고 밝혔으며, 성명에서 “컴퓨팅 자원의 효율적 사용을 우선시하고, 파트너들과 협력해 지속 가능성 목표를 지원하고 있으며, AI가 기후 해결책 발견에 기여할 수 있다”고 주장했다. 이 회사는 ‘스타게이트’의 초기 데이터센터가 천연가스와 태양광으로 운영되며, 가능하다면 원자력과 지열 에너지도 활용할 계획이라고 밝혔다.

마이크로소프트는 AI 효율성 향상을 위한 자체 연구를 언급했지만, 이러한 접근이 실제 데이터센터에 어떻게 적용되는지에 대한 구체적인 설명은 내놓지 않았다.

구글 역시 제미나이 같은 AI 모델이나 AI 요약(AI Overviews) 기능의 추론에 드는 에너지양을 공개하지 않았다. 다만, 자사 TPU(구글이 자체 개발한 GPU)의 효율성과 이를 통해 얻은 이점을 강조했다.

로렌스 버클리 국립연구소 연구진은 기술 기업, 데이터센터 운영사, 전력 회사, 하드웨어 제조사들이 공개한 정보만으로는 미래의 엄청난 에너지 수요를 합리적으로 예측하거나 그에 따른 배출량을 추정하기엔 부족하다고 지적했다. 연구진은 익명화된 데이터 공유 협약처럼 기업들이 영업 비밀을 해치지 않으면서도 더 많은 데이터를 공유할 수 있는 방법을 제시했지만, 보고서는 AI 데이터센터의 급격한 확산을 주도하는 기업들이 지금까지는 투명성을 거의 보여주지 않았다고 결론 내렸다.

연구진은 “이 보고서의 범위 제한과 맞물려, 이런 투명성 부족은 데이터센터의 성장이 전력 생산·전송 확대나 지역 개발 전략과 효과적으로 연계되지 못하고 있다는 사실을 보여준다”고 적었다. 연구진은 또 지난 20년 동안 이와 같은 유형의 공공 보고서가 단 두 건밖에 발표되지 않았다고 강조했다.

다른 연구자들도 비슷한 문제를 겪고 있다. AI는 아직 독립적인 산업군으로 분류되지 않아 그로 인한 배출량이나 에너지 수요를 추적하기 어렵다는 것이다. 예를 들어, 미국 에너지정보청(EIA)은 제조업, 광업, 건설업, 농업 등은 분석하지만, AI에 대해서는 전혀 별도의 데이터를 수집하지 않고 있다.

3월에 발표된 연구에 따르면 일반 소비자들이 AI 인프라 확장의 일부 비용을 떠안게 될 수 있다. 하버드 전기법 이니셔티브(Harvard’s Electricity Law Initiative) 연구진은 메타 같은 대형 기술 기업과 전력 회사 사이의 계약을 분석했다. 이 계약은 대규모 데이터센터가 전기를 얼마나, 어떤 조건으로 구매할지 규정한다. 연구진은 전력 회사들이 기술 기업에 제공하는 할인 혜택이 결국 일반 소비자의 전기 요금 인상으로 이어질 수 있다고 경고했다. 특히 특정 데이터센터가 기대한 만큼의 AI 수요를 유치하지 못하거나 실제 전력 소비가 예상보다 낮을 경우 부족한 수익을 일반 가정이 채워야 할 수 있다는 것이다.

실제로 버지니아주 의회가 2024년에 발표한 보고서를 보면 주 내 평균 가구는 데이터센터의 에너지 비용으로 월 37.50달러(약 5만 2,000원)를 추가 부담하게 될 수 있다.

AI 모델에게 농담을 만들어 달라고 하거나 강아지 영상을 생성해 달라고 요청할 때마다 소량이지만 측정 가능한 에너지가 소모되고, 이로 인해 온실가스가 배출된다. 개별 요청은 주방 가전제품 몇 초 작동시키는 것보다 적은 에너지를 쓰지만 사용자 수가 많아지면 그 영향은 누적된다. 그리고 이제는 AI를 쓰기 위해 굳이 찾아가지 않아도 된다. AI는 이미 디지털 생활 곳곳에 스며들고 있기 때문이다.

중요한 점은, 우리가 아직 모르는 게 너무 많다는 것이다. 기술 기업들은 대부분 관련된 자세한 정보를 밝히지 않고 있다. 하지만 지금까지의 추산만 보더라도 AI는 기술을 넘어 전력망과 우리의 생활환경까지 재편할 정도로 막대한 영향을 미칠 수 있다는 게 분명하다.

The post 당신이 몰랐던 이야기…AI의 에너지 사용량을 직접 계산해 봤다 appeared first on MIT 테크놀로지 리뷰 | MIT Technology Review Korea.


발행일: 2025년 08월 10일 21:00
원본 URL: https://www.technologyreview.kr/%eb%8b%b9%ec%8b%a0%ec%9d%b4-%eb%aa%b0%eb%9e%90%eb%8d%98-%ec%9d%b4%ec%95%bc%ea%b8%b0ai%ec%9d%98-%ec%97%90%eb%84%88%ec%a7%80-%ec%82%ac%ec%9a%a9%eb%9f%89%ec%9d%84-%ec%a7%81%ec%a0%91-%ea%b3%84/
수집일: 2025년 08월 10일 21:01
출처: https://www.technologyreview.kr/feed/