AI 전력 소비에 대해 우리가 알아야 할 세 가지
AI의 전력 소비량과 관련해 연구자들이 오랫동안 찾고 있던 수치를 기술 기업들이 공개하고 있다. 그렇다면 이제 해야 할 일은 무엇일까?
올해 초 필자와 동료 케이시 크라운하트(Casey Crownhart)는 6개월에 걸쳐 AI가 기후와 전력에 어떤 영향을 미치는지 조사하고 있었다. 그러다가 우리는 특히 한 가지 수치를 집요하게 쫓기 시작했다. 그 수치란 챗GPT나 제미나이와 같은 주요 AI 모델이 응답을 생성할 때마다 소비되는 전력량이었다.
AI에 필요한 전력 수요를 확보하려는 경쟁에 이제는 미국 백악관과 국방부까지 개입하고 있으며, 앞으로 3년 후면 AI가 미국 전체 가정에서 소비하는 전력량의 22%에 해당하는 전력을 소비할 수 있다는 전망이 나온 상황이지만, 그럼에도 AI 모델의 프롬프트당 소비 전력은 파악하기 어려웠다.
올해 초 기사에서 설명했듯이 해당 수치를 찾기 어려운 이유는 그 수치를 AI 기업들만 알고 있기 때문이다. 우리는 구글, 오픈AI, 마이크로소프트에 계속해서 데이터를 요청했지만 거절당했다. AI가 전력망에 미치는 영향에 관해 연구하는 연구자들은 이 상황을 “운전도 하지 않고 자동차 연비를 측정하려는 것”에 비유하며 “엔진 크기에 관한 소문이나 고속도로 주행 소음과 같은 정보만으로 연비를 추측하는 격”이라고 지적했다.
그러나 우리 기사가 발표되고 나서 여름이 되자 이상한 일이 벌어지기 시작했다. 6월에는 오픈AI의 샘 올트먼(Sam Altman) CEO가 챗GPT의 프롬프트당 전력 소모량이 0.34Wh(와트시)라고 밝혔다. 7월에는 프랑스의 AI 스타트업 미스트랄(Mistral)이 직접적인 수치는 공개하지 않았지만 AI로 인한 탄소 배출량 추정치를 발표했다. 8월에는 구글이 제미나이의 프롬프트당 전력 소모량이 0.24Wh라고 밝혔다. 구글과 오픈AI가 공개한 수치는 크라운하트와 필자가 추정했던 중간 규모 AI 모델의 전력 소비량과 유사했다.
그렇다면 기업들이 수치를 공개했으니 이제 우리의 임무는 끝난 것일까? 그렇다면 AI가 기후에 미치는 영향에 관해 연구하는 학자들이 이제부터 할 일은 무엇일까? 그 답을 파악하기 위해 필자는 여러 연구자들과 이야기를 나눴다.
기업들이 공개한 수치는 모호하며, 텍스트 프롬프트에만 해당되는 값이다
연구자들이 가장 먼저 지적한 부분은 기술 기업들이 올여름 공개한 수치에 많은 부분이 누락되었다는 점이다.
가령 오픈AI의 수치는 상세한 기술 문서가 아니라 올트먼 CEO의 블로그 게시물을 통해 공개됐다. 따라서 이 수치는 어떤 모델을 기준으로 한 건지, 전력 소모량을 어떤 방식으로 측정한 건지, 변동 범위는 어느 정도인지 등 많은 부분에서 의문점이 있다. 크라운하트가 지적했듯이 구글이 공개한 수치는 프롬프트당 전력 소비량의 중앙값을 의미한다. 다시 말해서 이 수치만 가지고는 제미나이가 추론 모델을 사용해서 어려운 문제에 대해 ‘고민’하거나 매우 긴 응답을 생성할 때처럼 전력 소모가 더 큰 상황에서는 어느 정도의 전력이 소모되는지 알 수 없다.
또한 기술 기업들이 공개한 수치는 챗봇과의 상호작용만을 반영한다. 점점 더 사용량이 늘어나고 있는 이미지 생성이나 영상 생성 등, 생성형 AI의 다른 활용 방식은 포함되지 않는다.
AI 플랫폼 허깅페이스(Hugging Face)의 사샤 루치오니(Sasha Luccioni) AI 및 기후 담당자는 “영상과 이미지 생성 사용이 늘어나고 있기 때문에 이처럼 다양한 모달리티(modality, 우리가 AI와 정보를 주고받는 여러 방식)별 수치를 측정하여 비교 분석해야 한다”고 지적했다.
이미지나 영상 생성에 소모되는 전력량을 측정하는 것이 중요한 이유는 챗봇에 텍스트로 질문을 할 때 소모되는 전력량이 예상대로 적기 때문이다. 기업들이 발표한 수치는 전자레인지를 몇 초간 돌릴 때 사용되는 전력량과 같다. 이는 AI와 기후 연구자들이 개인의 AI 사용이 기후에 상당한 부담을 준다고 주장하지 않는 이유 중 하나이다.
프롬프트당 전력 소비량을 넘어서 AI가 기후에 미치는 전체적인 영향을 이해할 수 있는 AI의 총 전력 소비량을 계산하려면 AI가 응용 분야별로 어떻게 활용되고 있는지에 대한 정보가 필요하다. 케탄 조시(Ketan Joshi) 기후 및 에너지 관련 단체 분석가는 일반적으로 다른 산업에서는 이처럼 구체적인 정보를 확보하기 어렵다는 점을 인정하면서도 “AI 분야의 경우에는 AI가 기후와 전력망에 미칠 영향을 고려할 때 그런 정보까지 요구하는 것이 타당할 수 있다”고 설명했다.
조시 분석가는 “데이터센터의 이례적인 성장 속도를 생각하면 AI 기업들은 훨씬 더 엄격한 감시를 받아야 할 것”이라고 지적했다.
에너지 효율성에 대한 의문점
AI 분야에 수십억 달러를 투자하는 기업들은 AI로 인한 전력 수요 증가와 자사의 지속가능성 목표를 양립시키기 위해 고군분투해왔다. 지난 5월 마이크로소프트는 2020년 이후 자사의 탄소 배출량이 23% 이상 급증했으며 이는 주로 AI 때문이라고 밝혔으나 2030년까지 ‘탄소 네거티브(carbon negative, 탄소 배출량보다 더 많은 양을 흡수, 제거하여 탄소 순배출을 마이너스로 만드는 것)’를 실현하겠다는 약속은 유지했다. 마이크로소프트는 이에 관해 “탄소 네거티브를 실현하려는 우리의 여정은 단거리 달리기가 아니라 마라톤임이 분명해졌다”고 밝혔다.
기술 기업들은 “곧 AI 자체가 효율성을 극대화해 결과적으로 기후에 긍정적인 영향을 미칠 것”이라고 주장하며 이러한 탄소 배출 문제를 정당화하는 경우가 많다. 이들은 적절한 AI 시스템이 건물의 냉난방 시스템을 더 효율적으로 설계하거나 전기차 배터리에 필요한 광물 발견에 도움을 줄 수 있다고 주장한다.
그러나 아직까지는 AI가 실제로 이러한 작업에 유용하게 활용됐다는 뚜렷한 사례가 보이지 않는다. 기업들은 AI를 활용해 메탄 배출이 집중된 지역을 찾았다는 사례를 공유했지만, 그 성과가 AI 열풍으로 인한 기술 대기업들의 전력 소비량과 탄소 배출량 급증을 상쇄할 만큼 대단한 일인지 판단할 수 있을 정도로 상세한 정보는 공개하지 않았다. 그러는 사이에 데이터센터 건설 계획도, AI의 전력 소비량도 계속해서 증가하고 있다.
AI가 ‘거품’은 아닐까?
AI 전력 소비량 문제에서 중요한 미지수 중 하나는 ‘사회가 과연 기술 기업들이 예상하는 수준만큼 AI를 사용할 것인가?’ 하는 점이다. 오픈AI는 챗GPT가 하루 25억 건의 프롬프트를 처리한다고 밝힌 바 있다. 그러나 이 수치는 향후 몇 년간 계속 급증할 가능성이 있다. 챗GPT 외의 다른 AI 사용량도 마찬가지이다. 미국 로런스 버클리 국립연구소(Lawrence Berkeley National Laboratory)에서 지난해 발표한 전망에 따르면, AI 사용량이 계속 늘어날 경우 2028년쯤에는 AI만으로도 미국 전체 가정이 사용하는 전력량의 22%에 해당하는 전력을 1년 동안 소비할 수 있다고 한다.
그러나 올여름에는 업계의 낙관론을 약화시키는 둔화의 징후도 나타났다. 오픈AI의 GPT-5는 회사 내부에서조차 대체로 실패작으로 평가됐고, 이로 인해 AI가 이제 한계에 부딪힌 것이 아니냐는 의문이 제기됐다. MIT 연구팀이 기업의 95%가 대규모 AI 투자에서 아무런 수익도 얻지 못하고 있다는 사실을 밝혀내자 주가가 흔들리기도 했다. 특히 AI 기업들의 수익 모델이 확실하지 않은 상황에서 AI 전용 데이터센터 확장은 회수하기 어려운 투자가 될 수 있다.
AI의 향후 전력 소비량과 관련해 중요한 미지수 중 하나는 프롬프트당 소비 전력량이나 기업들이 공개할 수 있는 다른 수치 같은 것들이 아니다. ‘AI 전력 소비가 기업들이 예상하는 규모에 도달할 것인가? 아니면 AI 기술 자체가 과도한 열풍에 짓눌려 무너질 것인가?’이다. 이 질문의 답에 따라 현재 진행 중인 인프라 확장이 에너지 시스템의 지속적인 전환으로 이어질지, 아니면 일시적인 급증에 불과할지 결정될 것이다.
The post AI 전력 소비에 대해 우리가 알아야 할 세 가지 appeared first on MIT 테크놀로지 리뷰 | MIT Technology Review Korea.