샘 올트먼의 과장된 발언들, 그 간략한 역사

AI에 대한 낙관적 비전이 대형언어모델에 투영되며 형성된 ‘AI 열풍’은 기대 과열과 실망을 반복하면서 오늘날 거품 우려까지 이어지고 있다. 이러한 흐름에 샘 올트먼의 발언들이 어떤 역할을 했는지 살펴본다.

인공지능(AI)이 앞으로 어떤 일을 할 수 있을지에 대해 다소 황당하게 들릴 정도의 이야기를 들어본 적이 있을 것이다. 그런 아이디어를 가장 먼저 제시했거나, 최초 제시자가 아니더라도 가장 설득력 있고 영향력 있게 밀어붙인 인물은 오픈AI를 설립한 샘 올트먼(Sam Altman) CEO인 경우가 많다.

올트먼은 지금까지 10여 년간 미국 실리콘밸리에서 세계 최고 수준의 자금 조달가이자 설득가로 알려져온 인물이다. 2020년 전후로 오픈AI가 공개한 결과물들은 대형언어모델(LLM)을 둘러싼 열풍의 토대를 마련했다. 그러다 2022년 11월 챗GPT가 출시되면서 올트먼은 자신의 새로운 주장을 세계 무대에서 펼칠 기회를 얻게 됐다. 그의 새로운 주장이란 “AI 모델은 인간의 지능을 모방하며, 더 건강하고 부유한 ‘기술 유토피아’로 향하는 문을 열어준다”는 것이었다.

그 이후로 AI 열풍과 관련된 의제는 언제나 올트먼의 발언에 따라 설정됐다. 그는 ‘초지능 AI’를 인류에 이로운 존재로 묘사하기도 했고 반대로 재앙이 될 수 있다고 경고하기도 했다. 이러한 주장의 방향은 올트먼이 해당 발언을 통해 원하는 효과가 무엇인지, 자금 조달의 목적이 무엇인지, 또는 발언을 한 시점에 가장 위협적인 경쟁자로 떠오른 기술 대기업이 어디인지에 따라 달라졌다.

수년에 걸친 올트먼의 발언을 살펴보면 그의 관점이 오늘날 AI 열풍에 얼마나 큰 영향을 미쳤는지 명확하게 드러난다. 과장된 기대를 부추기는 인물들이 즐비한 실리콘밸리에서도 올트먼은 특히 눈에 띄는 존재다. 그는 LLM이 인간의 사고 과정을 모방할 수 있는지, 언어 자체가 지능을 만들어낼 수 있는지 등 아직 답을 알 수 없는 질문들을 언급하면서 이러한 질문들이 마치 이미 결론이 내려진 문제인 것처럼 말하는 데 주저함이 없었다.

올트먼이 AI에 대해 내놓는 주장들은 대부분 발언 시점에는 입증하기 어렵다. 그러나 우리를 설득시키는 한 가지 주장이 있다. 바로 ‘현재 우리가 AI와 함께 걷고 있는 이 길은 대단한 미래로도 끔찍한 결말로도 이어질 수 있는데, 그 방향을 바로잡으려면 오픈AI에 막대한 자금이 필요하다’는 것이다. 이런 의미에서 올트먼은 궁극의 ‘과장된 기대를 만들어내는 인물’이라 할 만하다.

올트먼의 말이 AI의 가능성에 대해 우리가 이해하고 있는 방식에 어떤 영향을 미쳐왔는지를 파악하기 위해 우리는 그가 AI에 대해 지금까지 했던 거의 모든 발언을 검토했다. (이와 관련해 올트먼에게 인터뷰를 요청했으나 응하지 않았다.)

그의 발언들을 따라가면 우리가 어떻게 현재 상황에 도달했는지 알 수 있다.

오만함: 미덕인가, 악덕인가? (2014)

2014년 당시 샘 올트먼은 스타트업 액셀러레이터인 와이콤비네이터(Y Combinator)를 이끌고 있었지만, 실리콘밸리 밖에서는 아직 크게 알려진 인물이 아니었다. 올트먼은 블로그 글을 통해 실리콘밸리의 오만함에 관한 <블룸버그 비즈니스위크> 기사 내용에 동의했다. 블로그 글에서 그는 “아직 장난감처럼 보이는 걸 만들면서 그게 세상을 바꿀 것이라고 주장할 때 문제가 생긴다”며 “그런 말은 사람들을 화나게 만들 뿐”이라고 강조했다.


‘선교사적 사명감’에서 탄생한 오픈AI (2015)

오픈AI는 인류에게 도움을 주는 범용인공지능(AGI)을 만들겠다는 목표로 2015년 설립됐다. 창립자들은 회사 소개글에 “인간 수준의 AI가 사회에 얼마나 큰 혜택을 줄 수 있을지 가늠하기 어려우며, 그런 AI가 잘못 만들어지거나 오용될 경우 사회에 얼마나 큰 피해를 줄지도 상상하기 어렵다”고 적었다. 이러한 오픈AI의 초기 상황에 대해 훗날 올트먼은 “당시 오픈AI의 창립자들은 언젠가 LLM을 만들게 되리라고는 전혀 예상하지 못했다”며 “AGI를 추구하는 과정에서 우리는 루빅스 큐브를 푸는 로봇 실험을 비롯해 정말 다양한 방법을 실험해보고 있었다”고 설명했다.

당시 AGI의 가능성을 진지하게 믿는 것은 매우 비주류적인 생각이었다. 올트먼은 나중에 미국의 기술 전문 매체 <와이어드(Wired)>와의 인터뷰에서 “2015년 당시에는 채용 과정에서 AI 연구자가 AGI를 진지하게 생각한다고 말하면 경력에 치명적인 낙인이 찍히는 분위기였다”며 “그러나 나는 AGI를 진지하게 받아들이는 사람을 원했다”고 말했다.

올트먼은 AI의 이점뿐 아니라 위협에 대해서도 목소리를 높였다. 2015년 2월 블로그 글을 통해 올트먼은 “아직 제대로 개발되려면 몇 년은 더 걸리겠지만, 인간을 능가하는 AI는 인류의 지속적인 존재를 위협하는 가장 큰 위험이 될 가능성이 크다”고 주장했다.

같은 블로그 글에서 그는 인간 지능을 알고리즘으로 간단히 설명할 수 있다는 생각에 대한 경이로움도 드러냈다. 그는 “우리는 현재의 기계 지능을 단순한 잔재주에 불과하다고 비난하지만 어쩌면 인간의 지능 역시 그런 수많은 잔재주들이 결합돼 나타난 결과일지도 모른다”고 적었다.


올트먼, AI의 다양한 가능성 제시 (2019)

오픈AI 초창기 올트먼은 AI가 유토피아와 같은 낙관적 미래를 가져올 것이라는 확고한 믿음을 갖고 있었다. 올트먼은 2019년 2월 한 인터뷰에서 “AI는 빈곤을 없애고, 기후변화를 해결하며, 수많은 인간 질병을 치료하고, 전 세계 모든 사람을 놀라울 정도로 잘 교육할 잠재력이 있다”고 말했다. 같은 인터뷰에서 그는 “인간 방사선 전문의보다 AI 방사선 전문의를 선호할 것이며 인간 전문의는 곧 쓸모없어질 것”이라고 주장했다. (이는 아직 실현되지 않았다.)

올트먼은 인류에 도움이 되는 AGI가 가능하며 심지어 실현될 가능성이 크다고 믿었다. 그러나 AGI가 어떤 형태의 기술에서 비롯될지에 대해서도, AGI 개발에 매진하는 것이 어떻게 수익으로 이어질지에 대해서도 명확히 하지 않았다. 그는 2019년 오픈AI CEO에 취임하면서 “우리가 언젠가 어떻게 수익을 창출하게 될지는 알 수 없다”고 밝혔다.


오픈AI, ‘규모의 법칙’에 관한 논문 발표 (2020년 1월)

LLM의 부상과 함께 상황은 훨씬 덜 추상적인 국면으로 접어들었다. LLM은 2017년에 본격적으로 등장했지만, 2020년 1월 오픈AI가 지금은 널리 알려진 논문을 발표하면서 결정적인 전환점을 맞았다. 오픈AI는 해당 논문을 통해 일반적으로 규모가 커질수록 모델이 더 똑똑해진다는 ‘규모의 법칙(scaling laws)’을 제시했다.


올트먼, 미래를 상대로 싸움을 걸다 (2020년 2월)

그로부터 한 달 뒤 진행된 비공식 대담 자리에서 올트먼은 이러한 성장 패턴이 언젠가는 둔화될 수밖에 없다는 점을 인정했다. 그러나 가까운 미래에 AI를 거품이라고 규정하는 사람들이 계속 등장한다고 해도 결국 그들이 틀렸다는 사실만 드러날 것이라고 예측했다. 올트먼은 “AI의 성장세는 위아래로 크게 요동칠 것이고 하락 국면이 몇 달, 심지어 몇 년간 이어질 수도 있다”며 “사람들은 이러한 성장세가 지금 당장 멈출 거라고 말하고 싶어 하고 지난 8년간 계속 그래왔지만, 실제로는 끊임없이 위쪽을 향하는 성장세가 이어져 왔다”고 강조했다.


올트먼, 부의 재분배 언급 (2021년 봄)

오픈AI가 여러 초기 언어모델을 공개한 뒤 2021년 봄 올트먼은 기술 진보가 가져올 사회경제적 충격에 관해 블로그에 장문의 글을 썼다. 올트먼은 해당 글에서 “이 기술 혁명은 멈출 수 없다”며 “똑똑한 기계 자체가 더 똑똑한 기계를 만드는 데 도움을 주는 혁신의 고리가 형성되면서 혁명의 속도가 더욱 가속될 것”이라고 말했다.

올트먼은 “AI를 통한 생산성 향상으로 노동과 재화의 가격이 급락할 것”이라면서 “그 혜택이 사회 전체에 고르게 돌아가게 하려면 급진적이고 새로운 부의 재분배 방식이 필요하다”고 주장했다. 예를 들어 모든 미국 시민에게 정부가 발행한 미국 대기업 지분을 지급하는 방안 등이 그런 방식에 해당한다. 나중에 그는 그러한 변화를 불가피하게 할 ‘무한에 가까운 지능’이 2030년경 등장할 수도 있다고 예측했다.


올트먼, GPT-3 출시와 함께 LLM을 인간 지능과 동일시하기 시작 (2021년 6월)

이전까지 올트먼은 LLM이 이러한 광범위한 변화를 촉발할 핵심 기술이 될 것이라고 단정적으로 말하지는 않았다. 그러나 오픈AI가 GPT-3를 출시하면서 상황이 달라졌다. 이 시점부터 그는 LLM을 인간 지능과 더 직접적으로 동일시하기 시작한 것으로 보인다.

올트먼은 <뉴욕타임스>와의 인터뷰에서 “세상에 대한 관찰을 받아들이고 이해하는 법을 배우며, 그러한 과정을 통해 다음에 무슨 일이 일어날지 예측할 수 있는 시스템이 있다면, 그 시스템은 지능에 매우 근접한 상태라고 생각한다”고 밝혔다.

올트먼은 LLM에서 인간의 뇌와 거의 같은 방식의 작동 원리를 볼 수 있다고 말했다. 그는 “내가 이해하고 믿기로는, 인간은 신경망을 따라 흐르는 에너지”라면서 “인식이 머릿속에 들어와서 신경망을 순환한 뒤 어떤 근육이 움직이는 것, 그게 전부”라고 설명했다. 다만 올트먼은 인간의 뇌와 달리 AI는 규모를 무한히 키우고 제한 없이 작동할 수 있다는 점을 강조했다. 그는 “모델은 규모를 키울 수 있으므로 그 능력치에 상한선이 없다”고 주장했다.

당시만 해도 기술 업계 외부에서는 LLM이 무엇인지 아는 사람이 거의 없었다. 업계 내부에서는 실제로 모델의 규모를 크게 확장할 수 있다는 점에 주목했지만, LLM이 인간의 뇌를 모방한다는 주장에는 결함이 있다고 지적하는 의견도 있었다. LLM에는 추론 능력이 없기 때문이었다. LLM은 흥미로운 기술이었지만, AGI를 구축하려는 전문가라면 시도해볼 수 있는 수많은 AI 기술 중 하나에 불과했다.


올트먼, 로드맵 제시 (2022년 2월)

2022년 2월 열린 한 세미나에서 올트먼은 LLM이 유토피아적 미래를 실현하는 것과 관련해 몇 가지 유의해야 할 점이 있다고 언급했다. 그러나 LLM의 발전 가능성에 명확한 상한선이 존재한다고는 말하지 않았다. 단지 모델의 규모를 키우는 것만으로는 충분하지 않을 것이라고 덧붙였을 뿐이다. 이어서 그는 오늘날 오픈AI의 로드맵처럼 보이는 구상을 제시했다. 

올트먼은 “우리는 더 많은 일을 할 수 있는 모델을 만들면서 AGI에 가까워질 것이라고 생각한다”며 “그 모델은 다양한 형태의 정보를 다루고 학습할 수 있으며, 오랜 시간에 걸쳐 작동하고, 복잡한 목표를 달성하며, 인간이 하듯이 필요한 학습 데이터를 스스로 선택하고, 특정 관심 분야의 책을 읽고, 실험을 하거나 똑똑한 친구에게 연락할 수 있을 것”이라고 설명했다. 이어서 그는 “그런 모델을 개발하다 보면 우리가 AGI와 비슷하다고 느낄 수 있는 무언가에 도달하게 될 것”이라고 덧붙였다.


생성형 AI의 빅뱅: 챗GPT의 등장 (2022년 11월)

2022년 11월 오픈AI는 챗GPT를 출시했다. 누구든 대화를 나눌 수 있는 인터페이스를 통해 LLM을 세상에 처음으로 소개한 것이다. 이후 수백만 명의 사람들이 실제로 챗GPT와 대화를 시작했다.

올트먼은 이러한 상황을 자신이 오랫동안 꿈꿔온 AI 미래로 향하는 한 단계로 여겼다. 그러나 그 문을 여는 계기가 LLM일 것이라고는 이전에 예상하지 못했던 것으로 보인다. 나중에 그는 블로그 글에 “언젠가 어느 시점에 임계점을 넘어서며 AI 혁명이 시작될 것임을 추상적으로 알고 있었지만, 놀랍게도 그 순간이 LLM이 되리라고는 예상하지 못했다”고 적었다.


비판에 맞서다 (2022년 12월)

이 무렵 올트먼은 <뉴욕타임스>와의 인터뷰에서 인간 지능을 매우 단순화해 설명했던 방식을 활용하여, LLM을 향한 비판에 적극적으로 반박하기 시작했다. 그는 챗GPT 출시 직후 X(구 트위터)에 “나는 ‘확률적 앵무새’이고 너도 마찬가지”라는 글을 올렸다. 이는 언어학자인 에밀리 벤더(Emily Bender) 교수 등을 비롯해 언어모델을 비판하던 이들이 제기한 주장, 즉 ‘LLM은 추론 능력 없이 인간의 언어를 흉내 낼 뿐이며 학습 데이터에 없는 새로운 지식을 발견할 수 없다’는 비판을 조롱한 것이었다. (이후 2024년 9월 오픈AI가 해당 문제를 해결하기 위해 추론 모델을 실험했을 때 올트먼은 다시 한번 “확률적 앵무새도 아주 높이 날 수 있다”는 글을 남겼다.)


올트먼, 완전한 비관론자가 되다 (2023년)

올트먼은 2023년 대부분의 시간 동안 세계를 순회하며 AI가 인류를 멸망시킬 수 있는지에 대해 논의했다. 2023년 1월 그는 “최악의 경우 모든 인류가 멸망할 것”이라고 말했다. 이 무렵 그는 미국 백악관과 의회를 오가며 AI가 재앙을 일으키지 않도록 통제할 수 있는 방법에 대해 의견을 밝혔다. (그러나 LLM이 실제로 그런 위협을 가할 수 있다는 증거를 제시하지는 않았다.)

때때로 올트먼은 AI 기술에 대한 기대가 지나치게 높다는 점을 인정하기도 했다. 그는 2023년 3월 <뉴욕타임스>와의 인터뷰에서 “장기적으로는 우리가 바라는 모든 것이 실현된다고 해도 단기적으로 현재 AI에 대한 과열된 기대는 완전히 통제 불능 상태”라고 언급했다. 그러나 이는 특정 모델이나 개별 시스템의 문제를 지적하는 수준에 그쳤을 뿐, LLM이라는 접근 방식 자체에 근본적인 한계가 있을 수 있음을 인정하는 발언은 아니었다.


산업계 전체가 열광하다 (2024년)

2024년에도 LLM의 본질적인 한계로 인해 AI에 대한 과열된 기대가 사라지는 일은 없었다. 기업들은 모든 영역에 AI를 도입하고자 했고, 엔비디아의 주가는 세 배로 뛰었다. 이에 따라 오픈AI의 매출도 증가했다. 올트먼은 “2025년 말쯤이면 AI 에이전트가 노동 시장에 합류해 기업의 생산성을 바꿀 것”이라고 예측했다.


올트먼, LLM이 AGI를 구현할 것이라고 주장 (2025년 1월)

올트먼은 성능이 계속 개선되는 LLM을 통해 AGI의 실현이 가까워지고 있다고 생각했다. 그는 블로그에 “이제 AGI를 어떻게 만들어야 하는지 알고 있다고 확신한다”고 적었다.

그러나 AI가 가져올 유토피아적 미래에 대해서는 여전히 약간 막연한 표현을 사용했다. 올트먼은 “우리는 현재 제품들을 사랑하지만 진정으로 바라는 것은 찬란한 미래”라면서 “초지능 도구는 우리가 혼자서는 해낼 수 없는 수준으로 과학적 발견과 혁신을 대폭 가속화하여 풍요와 번영을 가져올 수 있다”고 말했다.


오픈AI, 대규모 계약을 쏟아내다 (2025년 9월)

현재 올트먼은 AI가 가져올 유토피아적 미래를 가로막는 주요 요인으로 에너지와 반도체 칩의 공급 문제를 꼽고 있다.

지난 9월 올트먼은 “AI의 현재 발전 상황을 고려하면 머지않아 암을 치료하거나 지구상의 모든 학생에게 맞춤형 교육을 제공하는 일이 가능해질 수 있다”고 말했다. 블로그 글에 그는 “컴퓨팅 자원이 제한된다면 어느 쪽을 우선할지 선택해야 할 것”이라면서 “누구도 그런 선택을 하고 싶어 하지는 않을 테니 어서 문제를 해결하자”고 적었다. 이후 오픈AI는 여러 클라우드 컴퓨팅 기업들과의 대규모 계약을 잇달아 발표했다. 동시에 미국 전역에 새로운 AI 데이터센터를 구축하기 위해 5천억 달러(약 721조 원) 규모의 합작 프로젝트인 ‘스타게이트(Stargate)’ 프로그램도 개시했다.


AI 낙관론 (2025년 말)

2025년 말로 접어들며 AI를 둘러싼 분위기가 달라지고 거품 우려가 커지자 올트먼은 유토피아적 미래가 생각보다 멀지 않을 수도 있다는 뉘앙스를 내비치기 시작했다. 11월 오픈AI는 주요 대학에서 진행 중인 여러 프로젝트 사례를 공개했는데, 이들 프로젝트에서 GPT-5가 일종의 연구 보조원 역할을 맡아 아이디어를 도출하고 기존 연구 결과를 검토하는 데 활용됐다. 올트먼은 이를 두고 “앞으로 훨씬 더 많이 보게 될 활용 사례의 미리보기”라고 표현했다.

다만 이 논문이 발표되기 한 달 전 해당 연구의 주요 저자 중 한 명이 앞서 오픈AI의 모델이 이른바 ‘에르되시 문제(Erdős problems)’로 알려진 미해결 수학 문제의 일부를 해결했다는 주장을 철회해야 했다. 실제로는 모델이 사람들에게 잘 알려지지 않았을 뿐 인터넷 어딘가에 이미 공개돼 있던 해법을 찾아낸 것으로 밝혀졌기 때문이다.

12월에는 올트먼이 다시 의료와 교육 분야에서 AI의 가능성을 강조했다. 그는 사람들이 챗GPT를 개인 교사로 활용하거나, 스스로 질병을 진단하는 데 도움을 받고 있다고 말했다. (올트먼은 사용자 개개인의 성공 사례를 염두에 두고 이런 발언을 한 것으로 보이지만, AI의 의료 조언을 따랐다가 브롬중독증으로 사망 직전까지 갔던 남성의 사례처럼 AI의 위험성이 드러난 사례는 언급하지 않았다.)

결론

올트먼이 세상을 속인 것은 아니다. 오픈AI는 점점 더 인상적인 언어모델을 통해 수백만 명의 사용자를 끌어들이며 진정한 기술 혁명을 이끌어냈다. AI에 회의적인 이들도 LLM의 대화 능력이 놀라운 수준이라는 점만큼은 인정할 것이다.

그러나 올트먼의 과장된 메시지는 언제나 현재의 기술적 역량보다는 철학적인 ‘미래’를 더 강조해왔다. 그리고 이러한 전망은 더 많은 자본 투자와 더 우호적인 규제를 요구하는 논리로도 쉽게 이어진다. 올트먼은 LLM이 존재하기 훨씬 이전부터 부의 재분배가 필요할 정도로 강력한 AI를 상상했고, 동시에 인류가 다른 행성을 식민지화하는 미래도 그려왔다. 그 과정에서 반복적으로 풍요, 초지능, 더 건강하고 부유한 세계라는 미래에 대한 약속이 늘 먼저 제시됐고, 그에 대한 근거는 나중에 따라왔다.

LLM이 언젠가 한계에 부딪힌다 해도 기술 유토피아적 미래에 대한 올트먼의 신념이 흔들릴 이유는 거의 없어 보인다. 애초에 그의 비전은 현재 개발되어 있는 특정 모델의 종류와는 크게 상관없는 것이었기 때문이다.

The post 샘 올트먼의 과장된 발언들, 그 간략한 역사 appeared first on MIT 테크놀로지 리뷰 | MIT Technology Review Korea.


발행일: 2025년 12월 31일 21:00
원본 URL: https://www.technologyreview.kr/%ec%83%98-%ec%98%ac%ed%8a%b8%eb%a8%bc%ec%9d%98-%ea%b3%bc%ec%9e%a5%eb%90%9c-%eb%b0%9c%ec%96%b8%eb%93%a4-%ea%b7%b8-%ea%b0%84%eb%9e%b5%ed%95%9c-%ec%97%ad%ec%82%ac/
수집일: 2025년 12월 31일 21:01
출처: https://www.technologyreview.kr/feed/