(번역) 인공지능이 컴퓨터를 만드는 방식을 바꾸는 방법
작성자: 케이드 메츠, 카렌 와이즈, 마르코 에르난데스, 마이크 아이작, 안잴리 싱비
March 16, 2025
인공지능을 개발하기 위한 경쟁은 원래 비디오 게임용으로 만들어진 GPU라는 작은 실리콘 칩이 주도하고 있습니다.
기술 기업들은 이제 인공지능을 구동하는 연산을 실행하는 데 이상적인 GPU를 특수 컴퓨터에 최대한 촘촘하게 탑재하고 있습니다.
그 결과 데이터 센터라고 하는 건물에 최대 10만 개의 칩을 한데 모아 강력한 인공지능 시스템을 만드는 새로운 종류의 슈퍼컴퓨터가 탄생했습니다.
이 모든 컴퓨팅 파워에는 대가가 따릅니다. ChatGPT의 개발사인 OpenAI는 매사추세츠 주에 있는 약 300만 가구보다 더 많은 전력을 소비하는 약 5개의 시설을 건설할 계획입니다.
기술 기업들이 인공지능의 꿈을 쫓으면서 이러한 데이터 센터가 미국 전역에 생겨나고 있습니다...
... 그리고 전 세계 곳곳에서 거대 기술 기업들이 전력을 공급할 전기와 칩이 자체 열로 인해 튀지 않도록 냉각 시스템을 위한 물을 찾아야 하는 상황이 벌어지고 있습니다.
이는 월드와이드웹 초창기 이후 컴퓨팅의 가장 근본적인 변화입니다. 1990년대에 기업들이 새로운 상업용 인터넷을 수용하기 위해 컴퓨터 시스템을 완전히 재구축했던 것처럼, 이제는 인공지능을 수용하기 위해 작은 부품부터 컴퓨터의 보관 및 전원 공급 방식에 이르기까지 모든 것을 근본부터 재구축하고 있습니다.
거대 기술 기업들은 20년 동안 전 세계에 컴퓨터 데이터 센터를 건설해 왔습니다. 이 센터들은 검색 엔진, 이메일 애플리케이션, 전자상거래 사이트 등 기업의 인터넷 서비스로 유입되는 온라인 트래픽을 처리하기 위해 컴퓨터로 가득 차 있었습니다.
하지만 이러한 시설은 앞으로 다가올 트래픽에 비하면 가벼운 수준이었습니다. 2006년에 구글은 약 6억 달러를 들여 오레곤주 더 댈러스에 첫 번째 데이터 센터를 오픈했습니다. 지난 1월, OpenAI와 여러 파트너는 텍사스 캠퍼스를 시작으로 새로운 데이터 센터에 약 1,000억 달러를 투자할 계획을 발표했습니다. 이들은 궁극적으로 이 시설과 미국 전역의 다른 시설에 4,000억 달러를 추가로 투자할 계획입니다.
컴퓨팅의 변화는 기술뿐만 아니라 금융, 에너지, 커뮤니티도 재편하고 있습니다. 사모 펀드 회사들이 데이터 센터 회사에 돈을 쏟아붓고 있습니다. [전기 기술자들이 시설이 건립되는 지역으로 몰려들고 있습니다(https://www.nytimes.com/2024/12/25/technology/ai-data-centers-electricians.html). 그리고 일부 지역에서는 지역 주민들이 이 프로젝트가 득보다 실이 많을 것을 우려하며 반발하고 있습니다.
현재 기술 기업들은 전 세계가 제공할 수 있는 것보다 더 많은 컴퓨팅 성능과 전력을 요구하고 있습니다. OpenAI는 중동에 컴퓨터 칩 공장 건설을 위해 수 천억 달러를 모금하기를 희망하고 있습니다. 구글과 아마존은 최근 차세대 원자로를 건설 및 배치하기 위한 계약을 체결했습니다. 그리고 그들은 그것을 빨리 하고 싶어합니다.

회로 기판 위에 있는 구글의 인공지능 칩. 챗봇과 기타 인공지능 기술을 구축하려면 수천 개의 칩이 필요합니다.
크리스티 헴 클록, 뉴욕 타임즈
지난 12월 중국의 작은 회사인 딥시크(DeepSeek)가 많은 전문가들이 생각했던 것보다 훨씬 적은 수의 컴퓨터 칩(https://www.nytimes.com/2025/01/27/technology/what-is-deepseek-china-ai.html)으로 세계에서 가장 강력한 인공지능 시스템 중 하나(https://www.nytimes.com/2025/01/23/technology/deepseek-china-ai-chips.html)를 구축했다고 발표하면서 '큰 것이 좋다'는 진리에 도전장을 내밀었습니다. 이로 인해 실리콘밸리의 광적인 지출에 대한 의문이 제기되었습니다.
미국의 거대 기술 기업들은 당황했습니다. 이들 기업의 야심찬 목표는 인간의 두뇌가 할 수 있는 모든 일을 할 수 있는 기계, 즉 인공 일반 지능을 만드는 것이며, 이를 위해서는 더 많은 컴퓨팅 성능을 확보하는 것이 필수적이라고 믿고 있습니다.
아마존, 메타, 마이크로소프트, 구글의 모회사인 알파벳은 최근 데이터 센터 구축에 주로 사용되는 이들의 자본 지출이 올해 총 3,200억 달러를 돌파할 수 있다고 밝혔습니다. 이는 2년 전보다 두 배 이상 늘어난 규모입니다.
뉴욕타임스는 캘리포니아, 유타, 텍사스, 오클라호마에 있는 5개의 새로운 데이터 센터 캠퍼스를 방문하여 50명 이상의 임원, 엔지니어, 기업가, 전기 기술자들과 이야기를 나누며 새로운 종류의 컴퓨팅에 대한 기술 업계의 끝없는 갈망에 대해 이야기했습니다.
google의 최고 경영자인 순다르 피차이는 더 타임스와의 인터뷰에서 "향후 10년에 걸쳐 일어날 일이 불과 2년이라는 기간으로 압축되었습니다."라고 말했습니다. "인공지능은 촉진제입니다."
새로운 인공지능을 위한 새로운 컴퓨터 칩.
인공지능을 위한 컴퓨팅의 비약적인 발전은 그래픽 처리 장치 또는 GPU라는 특수 컴퓨터 칩이라는 작은 요소에 의해 주도되었습니다.
실리콘 밸리의 칩 제조업체인 Nvidia와 같은 회사는 원래 비디오 게임용 그래픽을 렌더링하기 위해 이 칩을 설계했습니다. 하지만 GPU는 대량의 데이터를 분석하여 기술을 학습할 수 있는 신경망을 구동하는 수학을 실행하는 데 탁월한 능력을 가지고 있습니다. 신경망은 챗봇과 다른 주요 인공지능 기술의 기반입니다.
인공지능 모델 학습 방법
알고리즘은 방대한 데이터 세트를 분석함으로써 머신 러닝이라고 하는 방식으로 이미지를 구별하는 방법을 학습할 수 있습니다. 아래 예시는 기존의 꽃 이미지를 기반으로 꽃 이미지를 식별하는 인공지능 모델의 학습 과정을 보여줍니다.

입력
인공지능 모델
-
피드 참조 자료
-
지도 데이터
-
비교 및 예측
그런 다음 모델은 수백만 개의 이미지에서 패턴을 찾아내어 스스로 사물을 인식할 수 있도록 합니다.
이미지는 픽셀 단위로 세분화되고 나중에 모델이 식별할 수 있는 다양한 레이블로 그룹화됩니다.
인공지능 모델을 훈련하려면 대량의 참조 데이터를 분석해야 하는데, 이 과정에는 많은 시간과 컴퓨팅 파워가 필요합니다.
과거에는 컴퓨팅이 주로 중앙 처리 장치 또는 CPU라는 칩에 의존했습니다. 이러한 칩은 신경망을 구동하는 간단한 수학을 포함해 많은 작업을 수행할 수 있었습니다.
하지만 GPU는 이러한 수학을 훨씬 더 빠르게 수행할 수 있습니다. 기존 칩은 특정 순간에 하나의 계산을 수행할 수 있습니다. 하지만 GPU는 같은 순간에 수천 개의 연산을 수행할 수 있습니다. 컴퓨터 과학자들은 이를 병렬 처리라고 부릅니다. 이는 신경망이 더 많은 데이터를 분석할 수 있다는 의미이기도 합니다.
"단순히 웹 페이지를 제공하는 데 사용되는 칩과는 매우 다릅니다."라고 기술 컨설팅 회사인 Together AI의 최고 경영자 비풀 베드 프라카쉬는 말합니다. "기계가 문제에 대해 '사고'하는 방식으로 수백만 개의 계산을 실행합니다."라고 설명합니다
따라서 기술 기업들은 점점 더 강력한 인공지능 기술을 구축하기 위해 점점 더 많은 수의 GPU를 사용하기 시작했습니다.
CPU 기반 컴퓨터와 GPU 기반 컴퓨터의 차이점

그 과정에서 Nvidia는 인공지능을 위해 특별히 GPU를 재구축하여 각 칩에 더 많은 트랜지스터를 집어넣어 매초마다 더 많은 계산을 실행할 수 있도록 했습니다. 2013년에 Google은 자체 A.I. 칩을 만들기 시작했습니다.
이 구글과 엔비디아의 칩은 컴퓨터 운영체제를 실행하도록 설계되지 않았고, 윈도우 노트북이나 아이폰을 작동하기 위한 다양한 기능을 처리할 수 없었습니다. 하지만 두 회사는 협력하여 인공지능의 탄생을 앞당겼습니다.
"이전 모델은 약 50년 동안 지속되었습니다."라고 구글의 새로운 인공지능용 실리콘 칩 개발을 총괄하는 엔지니어인 노름 주피는 말합니다. "이제 우리는 완전히 다른 방식으로 일을 할 수 있게 되었습니다."
칩은 가까울수록 좋습니다.
칩만 달라진 것이 아닙니다. GPU를 최대한 활용하려면 기술 기업은 칩 간의 디지털 데이터 흐름을 가속화해야 합니다.
저명한 인공지능 연구소인 앨런 인공지능 연구소를 위해 텍사스 오스틴에서 데이터 센터를 운영하는 서라스케일 클라우드 서비스의 최고 기술 책임자인 데이브 드리거스는 "모든 GPU는 다른 모든 GPU와 최대한 빨리 통신해야 합니다."라고 말합니다.
칩이 서로 가까울수록 더 빠르게 작동할 수 있습니다. 따라서 기업들은 가능한 한 많은 칩을 하나의 데이터센터에 집적하고 있습니다. 또한 칩에서 칩으로 데이터를 빠르게 스트리밍하기 위해 새로운 하드웨어와 케이블을 개발했습니다.

메타의 이글 마운틴 데이터센터는 솔트레이크시티 남쪽 유타의 레이크 마운틴 아래 계곡에 자리 잡고 있습니다. Meta는 인공지능 붐이 일어난 후 이 건물을 착공했습니다.
이는 기본적으로 컴퓨터 랙이 쌓여 있는 대형 건물인 데이터 센터의 작동 방식을 바꾸고 있습니다.
인공지능 붐이 일기 전인 2021년에 메타는 솔트레이크시티 남쪽에 한 시간 거리에 데이터 센터 두 곳을 오픈했고, 그곳에 세 곳을 더 짓고 있었습니다. 각각 엠파이어 스테이트 빌딩 크기만 한 이 시설들은 사막을 가로질러 옆으로 누워 있는 형태로 페이스북과 인스타그램 같은 회사의 소셜 미디어 앱에 전력을 공급하는 데 도움이 될 것입니다.
하지만 2022년 [OpenAI]가 ChatGPT(https://www.nytimes.com/2022/12/10/technology/ai-chat-bot-chatgpt.html)를 출시한 후 메타는 인공지능 계획을 재검토했습니다. 하나의 신경망을 구축하고 회사의 A.I.를 발전시키는 데 필요한 몇 주, 심지어 몇 달의 계산을 처리할 수 있도록 수천 개의 GPU를 새로운 데이터 센터에 집어넣어야 했습니다.
"모든 것이 하나의 거대한 데이터센터 크기의 슈퍼컴퓨터처럼 작동해야 합니다."라고 Meta의 데이터센터 담당 부사장인 레이첼 피터슨은 말합니다. "이는 완전히 다른 방정식입니다."
몇 달 만에 Meta는 다른 5개의 데이터센터 옆에 여섯 번째와 일곱 번째 유타 데이터센터를 착공했습니다. 70만 평방피트 규모의 이 시설에서 기술자들은 수만 달러에 달하는 GPU로 가득 찬 박스형 기계를 밀어 넣으며 각 랙을 인공지능 훈련에 사용되는 하드웨어로 채웠습니다.
메타는 2023년에 42억 달러의 구조조정 비용을 지출했는데(https://www.nytimes.com/2023/02/01/technology/meta-restructuring-charge.html), 이는 부분적으로는 미래의 데이터센터 프로젝트 중 상당수를 인공지능을 위해 재설계하기 위해서였습니다. 메타의 활동은 기술 업계 전반에서 일어나고 있는 변화를 상징적으로 보여주었습니다.
인공지능 기계에는 더 많은 전기가 필요합니다. 훨씬 더 많이.
GPU로 가득 찬 새로운 데이터 센터는 새로운 전력 수요를 의미했고, 전력에 대한 욕구가 지붕을 뚫을 정도로 높아졌습니다.
2023년 12월, 시라스케일은 오스틴에 위치한 139,000평방피트 규모의 기존 데이터센터를 임대했는데, 이 데이터센터는 미국 일반 가정 약 3,600가구에 전력을 공급할 수 있는 5메가와트의 전기를 사용했습니다. 내부에는 컴퓨터가 약 80열로 배열되어 있었습니다. 그런 다음 회사는 오래된 컴퓨터를 뜯어내고 인공지능을 위한 시설로 전환했습니다.
CPU로 가득 찬 건물에 전력을 공급하던 5메가와트는 이제 GPU로 가득 찬 8~10열의 컴퓨터만 구동하는 데 충분합니다. 서라스케일은 그리드에서 약 50메가와트의 전력으로 확장할 수 있지만, 그마저도 데이터 센터를 GPU로 채우지는 못합니다.
그리고 그것은 여전히 작은 편입니다. OpenAI는 약 300만 가구의 전기 사용량과 맞먹는 약 5개의 데이터 센터를 구축하는 것을 목표로 하고 있습니다.

텍사스주 오스틴에 위치한 Cirascale의 데이터 센터는 5메가와트의 전력을 소비하며, GPU로 가득 찬 8~10열의 컴퓨터에 전력을 공급할 수 있습니다.
크리스티 헴 클록, 뉴욕 타임즈
이러한 데이터센터는 더 많은 장비를 더 좁은 공간에 집적하는 것뿐만이 아닙니다. 인공지능이 작동하는 컴퓨터 칩은 기존 칩보다 훨씬 더 많은 전력을 필요로 합니다. 일반적인 CPU는 작동하는 데 약 250~500와트가 필요하지만 GPU는 최대 1,000와트를 사용합니다.
데이터 센터 구축은 궁극적으로 지역 유틸리티와의 협상입니다. 얼마나 많은 전력을 공급할 수 있을까요? 어떤 비용으로? 수백만 달러의 새 장비로 전력망을 확장해야 한다면 업그레이드 비용은 누가 부담할까요?
데이터 센터는 2023년 미국 전체 전력의 약 4.4%를 소비했는데, 이는 암호화폐 채굴에 사용되는 시설보다 두 배 이상 많은 전력입니다. 미국 에너지부에서 발표한 12월 보고서에 따르면 2028년에는 이 수치가 세 배로 증가할 것으로 예상됩니다.
인공지능 데이터 센터의 전력 소비량 ###
에너지부는 데이터 센터의 인공지능 서버가 2028년까지 2023년 사용량의 거의 8배에 달하는 326테라와트시를 소비할 것으로 추정하고 있습니다.
이 보고서를 주도한 로렌스 버클리 국립연구소의 아르만 셰하비 연구원은 "현재 업계에서는 시간이 곧 화폐"라고 말합니다. 그는 "앞으로 몇 년 동안은 이 속도가 느려질 것 같지 않다"며 "계속 구축하려는 움직임이 서두르고 있다"고 말했습니다
데이터센터 운영자들은 현재 미국에서 전력을 구하는 데 어려움을 겪고 있습니다. 유럽을 오가는 해저 케이블과 가까워 세계 최대의 데이터 센터 허브인 북부 버지니아 같은 지역에서는 사용 가능한 전력이 거의 소진된 상태입니다.
일부 인공지능 대기업은 원자력 발전으로 눈을 돌리고 있습니다. 마이크로소프트는 펜실베이니아에 있는 쓰리마일 아일랜드 원자력 발전소를 재가동 중입니다.
다른 기업들도 다른 길을 걷고 있습니다. 엘론 머스크와 그의 인공지능 스타트업인 xAI는 최근 더 빠른 해결책을 위해 청정 에너지를 우회했습니다: [멤피스의 새 데이터 센터에 자체 가스 터빈을 설치하는 것(https://www.npr.org/2024/09/11/nx-s1-5088134/elon-musk-ai-xai-supercomputer-memphis-pollution)입니다.
인공지능에 투자하는 벤처 캐피탈 회사인 래디컬 벤처스(Radical Ventures)의 파트너인 데이비드 카츠는 "제 대화는 '최첨단 칩을 어디서 구할 수 있을까'에서 '전력을 어디서 구할 수 있을까'로 바뀌었습니다."라고 말합니다.
인공지능은 너무 뜨거워지면 물로만 식힐 수 있습니다.
이처럼 비정상적으로 밀집된 인공지능 시스템은 컴퓨터 냉각 방식이라는 또 다른 변화를 가져왔습니다.
인공지능 시스템은 매우 뜨거워질 수 있습니다. 공기가 랙의 전면에서 순환하며 연산을 처리하는 칩을 통과하면서 열이 발생합니다. 시라스케일의 오스틴 데이터센터에서는 한 랙의 온도가 앞쪽에서 화씨 71.2도에서 시작하여 뒤쪽에서 96.9도까지 올라갔습니다.
랙이 제대로 냉각되지 않으면 기계는 물론 데이터센터 전체에 화재가 발생할 위험이 있습니다.
오클라호마주 북동쪽의 농장과 가축이 있는 프라이어 외곽에 위치한 Google은 이 문제를 대규모로 해결하고 있습니다.
13개의 Google 데이터 센터가 풀이 무성한 평지에 우뚝 솟아 있습니다. 이 캠퍼스에는 수만 대의 기계 랙이 있으며 콘크리트 건물 사이에 설치된 금속 및 전선 발전소에서 수백 메가와트의 전기를 사용합니다. 기계가 과열되는 것을 방지하기 위해 Google은 13개 건물 전체에 냉수를 펌핑합니다.
과거에는 Google의 수도관이 컴퓨터 랙 옆의 빈 통로를 통과했습니다. 냉수가 파이프를 통과하면서 주변 공기의 열을 흡수하는 방식이었죠. 하지만 랙이 인공지능 칩으로 가득 차면 물은 여분의 열을 흡수할 만큼 충분히 가까이 있지 않습니다.
기존 데이터센터

Google은 이제 수도관을 칩 바로 옆으로 연결합니다. 그래야만 물이 열을 흡수하여 칩이 계속 작동할 수 있습니다.
인공지능 데이터 센터

전기 장비로 가득 찬 데이터 센터에 물을 펌핑하는 것은 파이프에서 컴퓨터 하드웨어로 물이 누출될 수 있기 때문에 위험할 수 있습니다. 그래서 Google은 물을 화학 물질로 처리하여 전기가 통하지 않고 칩이 손상될 가능성을 낮춥니다.
물이 모든 칩의 열을 흡수하면 기술 회사는 물을 다시 식히는 방법도 찾아야 합니다.
대부분의 경우 데이터센터 지붕에 설치된 거대한 타워를 이용해 이 작업을 수행합니다. 사람이 땀을 흘리면 피부에서 땀이 증발하여 시원해지는 것처럼, 이 타워에서 물의 일부가 증발하여 나머지 물을 식혀줍니다.
"시원하고 건조한 아침에 자연적으로 발생하는 증발이 바로 프리 쿨링입니다."라고 Google의 데이터센터 담당 부사장인 조 카바는 말합니다.

구글의 인공지능 칩을 사용하는 컴퓨터로 가득 찬 구글 데이터센터 내부.
구글과 이 기술을 사용하는 다른 기업들은 데이터 센터에 공급되는 물을 계속 보충해야 하기 때문에 지역 상수도에 부담을 줄 수 있습니다.
Google 데이터 센터는 2023년에 전년 대비 17% 증가한 61억 갤런의 물을 소비했습니다. 가뭄에 직면한 캘리포니아 주에서는 250개 이상의 데이터 센터에서 매년 수십억 갤런의 물을 소비하고 있어 지역 관계자들 사이에서 경종을 울리고 있습니다(https://www.sacbee.com/opinion/op-ed/article297294554.html).
시라스케일을 비롯한 일부 기업은 물을 식히기 위해 에어컨과 같은 대형 냉각기를 사용합니다. 이렇게 하면 거의 모든 물을 재사용하기 때문에 지역 상수도 공급에 대한 압력을 줄일 수 있습니다. 하지만 이 과정에는 더 많은 전력이 필요합니다.
끝이 보이지 않습니다. 작년에 Google은 사우스 캐롤라이나, 인디애나, 미주리 등지에 11개의 데이터 센터를 착공했습니다. 메타는 LA 리치랜드 패리시에 있는 최신 시설은 센트럴 파크, 미드타운 맨해튼, 그리니치 빌리지, 로어 이스트 사이드 대부분을 커버할 수 있을 만큼 규모가 클 것이라고 말했습니다.
메타의 최고 경영자인 마크 저커버그는 지난 1월 페이스북 게시물을 통해 "올해는 AI의 결정적인 해가 될 것"이라며 "이제 건설에 나서자!"고 말했습니다
주요 그래픽의 출처 미국 전력 연구소(미국 데이터 센터 위치), Amazon, Microsoft, Google 및 Meta(대략적인 데이터 센터 위치), EnergySage, 에너지부 및 인구조사국(데이터 센터 소비량).
