AI의 에너지 사용에 대해 낙관할 수 있는 네 가지 이유

AI가 기후에 미치는 영향에 대해 우려할 만한 이유가 있기는 하지만, 모든 희망이 사라진 것은 아니다. 그 이유를 설명한다.

도널드 트럼프 미국 대통령은 지난 1월 취임 다음날 스타게이트(Stargate) 프로젝트를 발표했다. 스타게이트 프로젝트는 기술 분야의 대기업들이 지원하는 5,000억 달러(약 688조 원) 규모의 AI 인프라 구축 계획이다. 스타게이트 프로젝트는 미국 전역에 대규모 데이터 센터와 전력망 건설을 가속화하여 중국에 대한 우위를 유지하는 것을 목표로 한다.

캐나다의 로보트럭 스타트업 와비(Waabi)의 라켈 우르타순(Raquel Urtasun) 설립자 겸 CEO는 트럼프 대통령이 스타게이트 프로젝트를 발표했을 바로 그때 스위스에서 열린 세계경제포럼(WEF)의 연례 회의, 즉 다보스포럼을 언급하며 “전 세계 AI 지배권 경쟁에 대한 수단과 방법을 가리지 않는 접근법이 다보스에서 화두가 되었다”고 말했다. 그러면서 “AI 업계의 향방에 대해 심히 걱정된다”고 덧붙였다.

이러한 우려를 드러내고 있는 것은 우르타순 CEO뿐만이 아니다. 미국 시애틀의 비영리 연구 기관인 앨런인공지능연구소(AI2)의 알리 파르하디(Ali Farhadi) CEO도 “달러를 투자하고 GPU를 태우고 물을 증발시키는 현재 상황은 완전히 잘못된 방향”이라고 지적했다.

그러나 비용 급증과 기후 영향에 대한 논의를 자세히 들여다보면 희망을 품어도 될 이유를 찾을 수 있다. AI 모델의 기반이 되는 소프트웨어, 이러한 모델을 실행하는 컴퓨터 칩, 그리고 그런 칩이 24시간 내내 돌아가고 있는 데이터 센터의 효율성을 개선할 수 있는 혁신이 진행 중이기 때문이다.

AI 모델, 칩, 데이터 센터라는 세 가지 영역 모두에서 에너지 사용과 그에 따른 탄소 배출량을 줄일 수 있는 방법과 이 문제에 대해 조심스럽게 낙관할 수 있는 또 다른 근거에 대해 알아보겠다. 이 분야의 근본적인 비즈니스 현실이 결국에는 에너지 효율이 더 높은 AI쪽으로 향하게 될 것이라고 믿는 데에는 몇 가지 이유가 있다.

1. 더 효율적인 맞춤형 모델

가장 확실한 시작점은 모델 자체, 즉 모델이 만들어지고 실행되는 방식이다.

AI 모델을 구축하기 위해서는 엄청나게 많은 데이터로 신경망을 학습시켜야 한다. 대형언어모델(LLM)은 상당한 양의 텍스트로 학습하고, 자율주행 모델은 방대한 주행 데이터로 학습하는 식이다.

그러나 이러한 데이터는 무분별하게 수집되는 경우가 많다. LLM의 학습 데이터 세트에는 인터넷에서 긁어모은 텍스트와 스캔한 각종 책에서 가져온 데이터가 포함되어 있다. 이렇게 수집한 모든 데이터를 가져다가 섞어서 무엇이 나오는지 보는 것이 지금까지 AI 모델을 만드는 방식이었다. 이 방식은 확실히 효과가 있었지만, 방대한 데이터 세트로 모델을 반복해서 학습시켜 모델이 스스로 관련 패턴을 추출하게 하는 것은 시간과 에너지의 낭비이다.

이 방식을 더 효율적으로 개선할 수 있을지도 모른다. 아이들이 학습하는 방식을 생각해 보면, 아이들을 학습시킬 때는 지금까지 나온 모든 책을 읽게 하는 것이 아니라 더 집중적인 교육과정을 마련한다. 와비의 우르타순 CEO는 AI에도 이와 비슷한 방식을 적용해야 하며 특정 작업에 맞추어 선별된 데이터로 모델을 학습시켜야 한다고 생각한다. (와비는 초현실적인 시뮬레이션을 사용해서 자사의 로보트럭을 학습시키는데, 이 시뮬레이션 안에서 모델에 제공된 가상 데이터를 세밀하게 조정할 수 있다.)

와비뿐만이 아니다. 기업 고객을 위한 LLM을 구축하는 AI 스타트업 라이터(Writer)는 자신들이 합성 데이터를 사용하여 모델을 학습시키기 때문에 자사 모델의 학습 및 실행 비용이 저렴하다고 주장한다. 모델에 무분별한 대규모 데이터 세트가 아닌 맞춤형 데이터 세트를 제공하면 학습 과정이 더 빨라지고 따라서 비용도 절감된다. 가령 라이터의 팀은 단순히 위키피디아를 다운로드하는 대신 개별 위키피디아 페이지를 가져와서 이를 질의응답과 같은 다양한 형식으로 재작성해 모델이 적은 데이터로도 많은 것을 학습할 수 있게 한다.

학습은 모델의 생애주기에서 시작에 불과하다. 모델의 규모가 커질수록 실행 비용도 더 많이 들게 되었다. 응답을 생성하기 전에 질문을 단계적으로 처리하는 소위 ‘추론 모델’은 각 응답을 내놓기 전에 중간 단계의 응답들도 계산하기 때문에 특히 전력 소모가 크다. 이러한 새로운 기능에 드는 비용은 엄청난 수준이다. 오픈AI의 o3 추론 모델은 실행하는 데 작업당 최대 3만 달러(약 4,100만 원)의 비용이 드는 것으로 추정된다.

그러나 이 기술은 출시된 지 몇 달 밖에 되지 않았고 아직 실험 단계에 있다. 따라서 AI2의 파르하디 CEO는 이 비용이 곧 낮아질 것으로 예상한다. 가령 추론 모델이 실행 불가능한 작업이라고 판단하기 전에 막다른 길로 너무 멀리 가지 않도록 막는 방법을 엔지니어들이 알아낼 수도 있다는 것이다. 파르하디 CEO는 “처음으로 새로운 무언가를 시도하면 비용이 많이 들 수 있지만, 그 이후에는 규모를 줄이고 효율적으로 만드는 방법을 찾아내게 된다”며 “이는 기술 분야에서 상당히 일관적인 흐름”이라고 말했다.

파르하디 CEO에 따르면 에너지 소비를 크게 늘리지 않고 성능을 향상시키는 한 가지 방법은 추론 단계(모델이 응답을 도출하기 위해 수행하는 계산)를 병렬로 실행하는 것이다. 병렬 컴퓨팅(parallel computing)은 특히 LLM을 비롯해서 오늘날 대부분의 소프트웨어를 지원하는 방식이다. 그러나 이 기본 기술은 더 다양한 문제에 적용될 수 있다. 병렬 컴퓨팅은 작업을 분할하여 여러 부분을 동시에 실행함으로써 결과를 더 빠르게 생성할 수 있다. 또한 이용 가능한 하드웨어를 보다 효율적으로 실행하여 에너지도 절약할 수 있다. 그러나 여러 하위 작업을 조정하여 마지막에 한 가지 결과로 통합하려면 새로운 알고리즘이 필요하다.

가장 크고 강력한 모델만 늘 사용되는 것은 아니다. LLM을 작게 압축한 버전인 소형모델에 대한 논의도 많이 이루어지고 있다. 소형모델은 효율성이 더 뛰어나며 특히 특정 용도에서는 대형모델과 비등한 성능을 발휘한다.

기업들이 자사의 필요에 따른 LLM의 적합성을 파악하기 시작하면서 보다 효율적인 맞춤형 모델을 선호하는 추세가 확산되고 있다. 재고 관리나 틈새 고객 문의에 대응하는 데 다목적 LLM이 필요하지는 않을 것이다. 파르하디 CEO는 “모든 것을 해결해주는 한 가지 모델이 아니라 각각의 작업에 특화된 많은 모델들이 등장할 것”이라고 예측했다.

IBM의 크리스티나 심(Christina Shim) 최고지속가능성책임자(CSO)는 고객이 기술을 채택하는 방식에서 이러한 추세를 목격하고 있다. 기업들과 협력하여 가능한 한 작고 전력 소모가 적은 모델을 선택할 수 있도록 돕고 있는 심 CSO는 “규모가 큰 모델만이 투자한 만큼 큰 이익을 가져다주는 것은 아니다”라고 강조했다. 정확히 필요한 작업을 수행하는 작은 모델이 같은 기능을 수행하는 큰 모델보다 더 나은 투자라는 설명이다.

2. 더 효율적인 컴퓨터 칩

소프트웨어가 더욱 단순화되면 이를 실행하는 하드웨어의 효율도 좋아질 것이다. 현재 이 분야에는 약간의 긴장감이 흐르고 있다. 단기적으로는 엔비디아와 같은 칩 제조업체들이 더 강력한 모델을 실행하고자 하는 기업의 수요를 충족하기 위해 점점 더 강력한 칩 개발을 두고 경쟁하고 있다. 그러나 장기적으로 볼 때 이러한 경쟁은 지속가능하지 않다.

마이크로칩 제조 스타트업 인차지AI(EnCharge AI, 이하 ‘인차지’)의 나빈 베르마(Naveen Verma) 공동 설립자 겸 CEO는 “모델의 규모가 너무 커져서 이제는 추론 단계를 실행하는 것조차 힘들어지기 시작했다”고 말했다.

마이크로소프트와 오픈AI 같은 기업은 수백만 명의 수요를 충족하기 위해 데이터 센터 안에서 자사 모델을 운영하면서 손실을 보고 있다. 모델의 규모가 더 작아지면 이들 기업의 상황에 도움이 될 것이다. 또 다른 선택지는 컴퓨팅 단계를 데이터 센터가 아닌 각 개인의 기기로 옮기는 것이다.

이는 마이크로소프트가 ‘코파일럿(Copilot)+ PC’를 통해 시도했던 작업이다. 이를 바탕으로 마이크로소프트는 AI 모델을 사용자가 직접 실행하는(그에 따른 에너지 비용도 충당하는) 강력한 성능의 컴퓨터를 홍보했다. 이 계획은 아직 성공하지 못했지만, 베르마 CEO는 “기업들이 AI 모델 실행에 드는 비용을 최대한 줄이고 싶어 하기 때문에 이러한 시도는 계속될 것”이라고 예측했다.

그러나 규모가 작다고 해도 AI 모델을 사용자의 개인 기기에서 안정적으로 실행하려면 개인 기기를 구동하는 칩을 개선해야 한다. 베르마 CEO는 “이러한 칩은 배터리로만 작동할 수 있어야 하므로 에너지 효율을 훨씬 더 높여야 한다”고 설명했다.

바로 이 분야에 인차지가 있다. 인차지는 디지털 연산을 버리고 아날로그 인메모리 컴퓨팅(analog in-memory computing)이라는 기술을 적용한 새로운 종류의 칩을 제시했다. 기존의 디지털 컴퓨터 칩처럼 정보를 0과 1의 이진수로 표현하는 대신, 아날로그 칩은 정보를 0과 1사이의 다양한 값으로 표현할 수 있다. 이론적으로 이 방식을 사용하면 같은 양의 전력으로 더 많은 작업을 수행할 수 있다.

SHIWEN SVEN WANG

인차지는 2022년 프린스턴 대학교에 있는 베르마 CEO의 연구실에서 분사해 만들어진 스타트업이다. 베르마 CEO는 “우리는 수십 년간 아날로그 컴퓨팅이 디지털보다 효율성이 훨씬 더 뛰어날 수 있다는 사실을 알고 있었다”고 말했다. 그러나 아날로그 컴퓨터는 오류가 많았기 때문에 실제로는 제대로 작동하지 않았다. 그러다가 베르마 CEO와 동료들은 정확한 아날로그 컴퓨팅을 수행하는 방법을 발견했다.

인차지는 오늘날 AI에 필요한 핵심 연산에만 집중하고 있다. 이들은 TSMC와 같은 반도체 대기업의 지원을 받아, 아날로그 칩에서 고차원 행렬 곱셈(모든 딥러닝 모델의 기본 수학)을 수행한 다음, 그 결과를 주변 디지털 컴퓨터로 다시 전달하는 하드웨어를 개발하고 있다.

인차지의 하드웨어는 곧 출시될 수많은 실험적인 새로운 칩 설계 중 하나에 불과하다. IBM과 다른 기업들은 수년간 뉴로모픽 컴퓨팅(neuromorphic computing)이라는 기술을 연구해 왔다. 이는 뇌의 매우 효율적인 처리 능력을 모방하는 컴퓨터를 설계하는 것이다. 또 다른 방식은 기존 칩의 전자를 빛으로 바꿔서 연산에 필요한 에너지를 줄이는 광학 칩이다. 이러한 칩 설계 중 아직 엔비디아와 같은 기업의 전자 디지털 칩과 경쟁할 만한 것은 존재하지 않는다. 그러나 효율성에 대한 수요가 증가하면서 이러한 대안들이 하나씩 등장할 것이다.

효율성을 개선할 수 있는 것은 칩뿐만이 아니다. 컴퓨터 내부의 많은 에너지는 데이터를 주고받는 데 소비된다. IBM은 디지털 트래픽을 제어하는 장치인 새로운 종류의 광스위치(optical switch)를 개발하여 기존 스위치보다 효율성을 80% 개선했다고 말했다.

3. 데이터 센터의 더 효율적인 냉각

AI 모델과 관련해서 엄청난 에너지가 필요한 또 다른 원인은 AI 모델이 실행되는 고성능 하드웨어에서 발생하는 폐열을 관리해야 한다는 점이다. 설계 회사인 페이지(Page)의 톰 어프(Tom Earp) 엔지니어링 책임자는 2006년부터 데이터 센터를 설계해 왔으며, 그중 6년은 메타를 위해 일했다. 어프 책임자는 데이터 센터 건물의 구조부터 전력 공급, 냉각 시스템, 데이터의 입출력 방식에 이르기까지 모든 면에서 효율성을 추구한다.

어프 책임자에 따르면 무어의 법칙이 사라진 10년 동안 데이터 센터 설계는 꽤 안정적이었다. 그러다가 모든 것이 바뀌었다. GPU와 같은 프로세서로 전환되고 새로운 칩 설계들이 등장하면서 몇 년 후에는 새로운 데이터 센터에 어떤 하드웨어가 필요하게 될지, 따라서 어느 정도의 에너지 수요를 지원해야 할지 예측하기가 어려워졌다. 그러나 단기적으로 확실한 전망은 칩이 더 빨라지면서 더 많은 열을 발생시킬 것이라는 점이다. 어프 책임자는 “이와 관련된 선택을 해야 하는 사람들은 필요 전력량이 크게 증가할 것을 대비해 계획을 세우고 있다”고 설명했다.

한 가지 분명한 사실은 GPU처럼 AI 모델을 실행하는 칩은 기존의 컴퓨터 칩보다 단위 공간당 더 많은 전력을 필요로 한다는 것이다. 이는 데이터 센터 내부의 냉각 인프라에 큰 영향을 미친다. 어프 책임자는 “필요 전력이 늘어나면 열도 늘어난다”고 말했다.

데이터 센터에는 고성능 칩들이 밀집되어 있기 때문에 공기 냉각, 대형 팬을 이용하는 방식만으로는 충분하지 않다. 따라서 냉각수가 널리 사용되고 있는데, 그 이유는 물이 공기보다 열을 식히는 데 더 효과적이기 때문이다. 이는 데이터 센터 주변의 지역 수자원에는 좋은 소식이 아니다. 그러나 물을 이용한 냉각의 효율성을 높이는 다른 방법들이 존재한다.

그중 하나는 데이터 센터에서 발생하는 폐열을 물을 사용하여 다른 곳으로 보내 활용하는 것이다. 예를 들어 덴마크에서는 데이터 센터에서 나온 물을 가정의 난방에 사용했고, 파리에서는 올림픽 기간에 이를 수영장을 난방하는 데 사용했다.

물은 일종의 배터리 역할도 할 수 있다. 가령 풍력 터빈이나 태양광 패널과 같은 재생에너지로 전력을 생산해 물을 미리 냉각시켜 저장해 두었다가 나중에 컴퓨터를 냉각할 때 사용할 수 있다. 이렇게 하면 전력 사용이 많은 시간대의 전력 소비를 줄일 수 있다.

그러나 전문 냉각 칩을 공급하는 스타트업인 포노닉(Phononic)의 토니 아티(Tony Atti) CEO는 “데이터 센터의 온도가 계속 올라가면서 이러한 수랭식 냉각만으로는 충분하지 않다”고 말했다. 칩 제조업체들은 데이터를 더욱 빠르게 이동시키는 칩을 개발하고 있다. 아티 CEO는 초당 1.6테라바이트를 처리하는 칩을 곧 출시할 예정인 엔비디아를 예로 들며 “그 정도 데이터 속도면 냉각 수요가 엄청나게 증가한다”고 지적했다.

아티 CEO에 따르면 서버 내부의 칩들은 데이터 센터 전력의 약 45%를 소비한다. 그러나 이제 그런 칩들을 냉각하는 데 그와 거의 동일한 수준인 약 40%의 전력이 소비된다. 아티 CEO는 “처음으로 발열 관리가 AI 인프라 확장에 필요한 큰 과제가 되고 있다”고 말했다.

포노닉의 냉각 칩은 냉각이 필요한 하드웨어 위나 근처에 부착할 수 있는 소형 열전장치이다. LED 칩에 전력을 공급하면 광자(photon)를 방출하듯이 열전 칩에 전력을 공급하면 포논(phonon)을 방출한다(빛의 최소 입자가 ‘광자’이듯이 소리(진동 에너지, 즉 온도)의 최소 입자는 ‘포논’이다). 간단히 말하면, 포논 칩은 열을 한쪽 표면에서 다른 표면으로 밀어내는 장치이다.

서버 내부와 주변의 좁은 공간에 장착된 이 칩들은 아주 미세한 온도 상승을 감지하고 안정적인 온도를 유지하기 위해 자동으로 켜지거나 꺼질 수 있다. 칩이 켜져 있으면 과도한 열을 수도관으로 보내 밖으로 배출한다. 아티 CEO는 “이 칩이 기존 냉각 시스템의 효율을 높이는 데도 사용될 수 있다”고 말했다. 데이터 센터에서 물을 더 빨리 냉각할 수 있으면 더 적은 양의 물로도 냉각이 가능하기 때문이다.

4. 비용 절감이 곧 에너지 사용량 절감

AI의 에너지 사용량이 폭발적으로 증가했음에도 불구하고 낙관적인 전망을 할 수 있는 이유가 있다. 지속가능성은 ‘나중에 생각할 문제’ 또는 ‘있으면 좋은 것’으로 취급되는 경우가 많다. 하지만 AI 분야에서 전체 비용을 절감하는 가장 좋은 방법은 에너지 요금을 줄이는 것이다. 이는 기업이 효율성을 높이도록 유도할 수 있다는 점에서 좋은 소식이다.

베르마 CEO는 “에너지 소비를 줄여 환경을 지키는 것이 곧 비용을 절감하는 일이 된다”며 “궁극적으로는 이 점이 업계가 에너지 효율을 높이도록 하는 큰 동력이 될 것”이라고 말했다.

심 CSO도 이 의견에 동의한다. 그는 “기업 입장에서는 그게 현명한 선택이기 때문”이라고 말했다.

심 CSO는 기업들이 AI를 언제 어떻게 사용할지 고민해야 할 것이며 가능한 한 소규모의 맞춤형 옵션을 선택해야 할 것이라고 예측하면서 “지금 세상을 보면 다른 모든 것과 마찬가지로 기술에 대한 지출이 앞으로 훨씬 더 중요해질 것”이라고 덧붙였다.

심 CSO는 AI로 인한 에너지 사용에 대한 우려가 타당하다고 생각한다. 하지만 심 CSO는 25년 전 인터넷의 부상과 개인용 컴퓨터 붐을 언급하며 “이러한 혁명의 기반이 된 기술이 발전하면서 사용자 수가 급증했는데도 에너지 비용은 어느 정도 안정적으로 유지됐다”고 설명했다.

심 CSO가 보기에 이 일반적인 법칙은 이번에도 적용될 것이다. 기술이 성숙하면 효율성이 높아진다는 것이다. 심 CSO는 “지금 AI가 바로 그 단계에 와 있다고 생각한다”고 말했다.

AI는 빠르게 상품화되고 있는데, 이는 시장 경쟁으로 인해 가격이 하락할 것이라는 의미이다. 이러한 경쟁 속에서 기업들은 다른 이유가 아니더라도 수익성을 위해 에너지 사용을 줄이려고 노력할 것이다.

결국 자본주의가 우리를 구할지도 모른다.

The post AI의 에너지 사용에 대해 낙관할 수 있는 네 가지 이유 appeared first on MIT 테크놀로지 리뷰 | MIT Technology Review Korea.


발행일: 2025년 05월 27일 21:00
원본 URL: https://www.technologyreview.kr/ai%ec%9d%98-%ec%97%90%eb%84%88%ec%a7%80-%ec%82%ac%ec%9a%a9%ec%97%90-%eb%8c%80%ed%95%b4-%eb%82%99%ea%b4%80%ed%95%a0-%ec%88%98-%ec%9e%88%eb%8a%94-%eb%84%a4-%ea%b0%80%ec%a7%80-%ec%9d%b4%ec%9c%a0/
수집일: 2025년 05월 27일 21:01
출처: https://www.technologyreview.kr/feed/