AI는 지금 어디까지 왔나…지금 꼭 알아야 할 다섯 가지 흐름
MIT 테크놀로지 리뷰의 윌 더글러스 헤븐 수석 편집자가 2025년 현재 인공지능의 흐름과 상황을 짚어본다.
지난 6월 열린 사우스 바이 사우스웨스트 런던(SXSW London) 페스티벌에서 필자는 ‘AI에 관해 알아야 할 다섯 가지’라는 주제로 강연을 진행했다. 강연 내용은 현재 AI 분야와 관련하여 필자가 가장 중요하게 생각하는 다섯 가지 사항을 정리한 것이었다.
필자는 강연에서 일반 대중을 대상으로 2025년 현재 AI 분야에 관한 의견을 간략하게 소개했다. 강연에 관심이 있을지도 모르는 본지 독자들을 위해 이번 기사에서는 강연 내용을 공유하고자 한다. 필자는 이 강연이 모두에게 도움이 될 만한 내용을 담고 있다고 생각한다. 게다가 나름대로 재미있는 부분도 있다고 믿는다.
강연 영상은 여기에서 확인할 수 있다. 다음은 필자가 선정한 다섯 가지 사항이다. 이보다 더 중요한 내용이 있다고 생각한다면 필자에게 알려주었으면 좋겠다!
1. 생성형 AI는 이제 무서울 정도로 발전했다
사용자들은 기술의 빠른 발전을 당연하게 여길지도 모른다. 하지만 생성형 AI는 발전 속도가 너무 빨라서 필자 같은 전문가들도 그 속도를 따라잡기가 힘들 정도다.
몇 달 전 필자의 동료인 제임스 오도넬(James O’Donnell) 편집자는 MIT 테크놀로지 리뷰 편집팀에 음악 10곡을 공유했다. 그리고 생성형 AI로 제작한 곡과 인간이 만든 곡을 구분해 보라는 문제를 냈다. 답을 제대로 맞힌 사람은 아무도 없었다.
이 같은 현상은 음악에서뿐만 아니라 코딩, 로봇공학, 단백질 합성, 영상에 이르기까지 다양한 분야에서 일어나고 있다. 이는 사람들이 구글 딥마인드의 비오 3(Veo 3)와 같은 영상 생성 도구를 어떻게 활용하고 있는지만 봐도 확인할 수 있다. 게다가 이 기술은 모든 것에 적용되고 있다.
필자의 결론은? AI가 좋은 기술인지 나쁜 기술인지와 상관없이 이를 과소평가해서는 안 된다. AI는 대단한 기술이며 점점 더 발전하고 있다.
2. 환각은 결함이 아니라 기능이다
AI가 허위 정보를 생성하는 것을 환각(hallucination) 현상이라고 한다. 환각 현상의 예로는 고객센터 챗봇이 실제로는 존재하지 않는 환불 방안을 제시하는 경우, 변호사들이 존재하지 않는 판례로 가득 찬 변론 취지서를 제출하는 경우, 정부 연구 기관에서 존재하지 않는 학술 논문을 인용한 보고서를 발표하는 경우 등을 생각해 보면 된다.
우리는 환각 현상을 해결해야 할 문제로 묘사하는 말을 자주 듣곤 한다. 그러나 사실 이 현상은 생성형 AI의 본질에 가깝다. 생성형 모델은 무언가를 만들어내도록 학습되어 있기 때문이다.
따라서 생성형 AI가 거짓말을 지어내는 것은 전혀 놀랍지 않다. 오히려 생성형 AI가 지어낸 말이 종종 현실과 일치한다는 점이 훨씬 더 놀랍다. 이 문제는 왜 중요할까? 우리가 생성형 AI의 능력에 대해 제대로 이해할 필요가 있기 때문이다. 생성형 AI의 본질을 생각해 보면 환각 현상을 일으키지 않는 미래 버전의 등장을 기대하지 않는 편이 좋다는 생각이 들 것이다.
3. AI가 점점 더 많은 전력을 소비하고 있다
AI가 전력을 많이 소비한다는 말을 들어본 적이 있을 것이다. 전력은 특히 대형 모델을 학습시킬 때 가장 많이 소비되지만, 대형 모델 학습은 가끔 한 번씩만 있는 일이다.
그러나 상황이 바뀌고 있다. 이제 이러한 대형 모델을 매일 수억 명의 사용자들이 사용하고 있기 때문이다. 모델을 사용할 때는 학습시킬 때보다 훨씬 적은 전기가 사용되지만, 사용자 수가 폭증하면 전력 비용도 급증할 수밖에 없다.
예를 들어 챗GPT는 주간 사용자 수가 4억 명에 달한다. 챗GPT는 인스타그램에 이어 세계에서 다섯 번째로 방문자 수가 많은 웹사이트이며, X(구 트위터)보다도 순위가 높다. 다른 챗봇들도 챗GPT의 사용자 수를 따라잡고 있다.
따라서 기술 기업들이 사막에 새로운 데이터센터를 건설하고 전력망 개선을 위해 경쟁하는 것은 당연한 일이다.
사실 우리는 챗GPT와 같은 생성형 AI의 폭발적인 인기를 유지하는 데 정확히 얼마나 많은 전력이 필요한지 알 수 없었다. 기술 기업들이 이에 관한 정보를 거의 공유하지 않았기 때문이다.
그러나 상황이 바뀌기 시작했다. MIT 테크놀로지 리뷰의 편집자 몇 명이 연구진과 수개월간의 협력을 통해 오픈소스로 공개된 생성형 AI 일부에 관한 데이터를 분석하는 데 성공했다. (분석 결과는 미국판 MIT 테크놀로지 리뷰의 이 기사에서 확인할 수 있다.)
4. 대형언어모델(LLM)의 정확한 작동 원리를 아무도 모른다
당연히 우리는 LLM을 만드는 방법이나 모델이 아주 잘 작동하도록 만드는 방법을 모두 알고 있다. 1번 항목에서 언급했듯이 그렇기 때문에 생성형 AI가 놀라운 속도로 발전하고 있는 것이다!
그러나 LLM이 왜 그렇게 작동하는지에 대해서는 여전히 알지 못한다. 마치 언어모델이 외계에서 온 미지의 무언가인 것처럼 과학자들은 모델을 이리저리 찔러보고 살펴보며 그 본질을 파악하기 위해 노력하고 있다.
수백억 명이 사용하는 대중적인 기술을 우리가 이 정도로 이해하지 못하고 있었던 적은 없었다.
이 문제는 왜 중요할까? 우리가 AI 모델에 대해 제대로 이해하지 못하면, 모델이 무엇을 할 수 있고, 할 수 없는지에 대해서도 정확히 알 수 없을 것이다. 또한 모델의 행동을 통제하는 방법도 알 수 없을 것이며 환각 현상을 완전히 이해하지도 못할 것이다.
5. 범용인공지능(AGI)라는 말은 아무 의미도 없다
최근까지도 AGI에 대한 논의는 주류가 아니었다. 따라서 주류 연구자들은 이에 대해 언급하는 것 자체를 부끄럽게 생각했다. 그러나 AI의 성능이 개선되고 수익성도 높아지자 이제는 진지한 연구자들도 AGI를 곧 만들어낼 것이라고 자신 있게 주장하고 있다. AGI가 정확히 뭔지는 몰라도 말이다!
AGI는 이제 이런 의미로 통하고 있다. ‘다양한 인지 과제에서 인간과 유사한 성능을 발휘할 수 있는 AI.’
하지만 그게 무슨 의미일까? 그런 성능은 어떻게 측정할 수 있을까? 인간과 유사한 성능이라고 할 때의 ‘인간’은 어떤 인간을 말하는 것일까? 다양한 과제라는 것은 얼마나 다양한 과제를 말하는 것일까? 게다가 인지 과제에서 성능을 발휘한다는 것은 결국 ‘지능’을 표현하는 다른 방법이기 때문에 이 정의 자체가 ‘범용인공지능’이라는 말을 풀어서 설명한 것에 불과하다.
결국 요즘 사람들이 말하는 AGI는 단순히 현재보다 더 나은 성능의 AI를 의미하는 경우가 많다.
AGI라는 개념은 AI가 계속 발전할 것이라는 절대적인 믿음을 바탕으로 한다. 예전에도 계속 발전했으므로 앞으로도 발전할 것이라는 생각이다. 그러나 그런 일이 실제로 이루어질 것임을 보여주는 증거는 전혀 없다.
그렇다면 우리는 지금 어떤 단계에 와 있을까? 우리는 인간이 하는 일을 일부 모방하는 데 매우 뛰어난 기계를 만들고 있지만, 이 기술 자체에는 여전히 심각한 결함이 있다. 게다가 우리는 이 기술의 실제 작동 원리를 잘 몰라서 이해하기 위해 노력하고 있다.
필자는 우리가 인간처럼 행동하는 기계를 만들어냈지만 그 안에 인간과 같은 ‘마음’이 있을 거라고 상상하는 습관을 여전히 버리지 못하고 있다고 말하고 싶다. 이로 인해 AI가 할 수 있는 일에 대해 과장된 기대가 생기는 바람에 기술 낙관론자와 회의론자 사이에서 문화 전쟁이 벌어지고 있다고.
AI에 감탄하는 건 당연하다. 동시에 이 기술에 대한 많은 주장을 의심해보는 것도 옳다. AI는 아직 초기 단계에 있으며, 모든 것이 불확실한 상태다.
The post AI는 지금 어디까지 왔나…지금 꼭 알아야 할 다섯 가지 흐름 appeared first on MIT 테크놀로지 리뷰 | MIT Technology Review Korea.