(번역) 2024년의 컴퓨터 과학| 퀀타 매거진
연구자들은 챗봇의 생각을 더 잘 들여다볼 수 있게 되었고, 아마추어들은 단순한 시스템이 얼마나 복잡한지 정확히 알게 되었으며, 양자 컴퓨터는 중요한 이정표를 통과했습니다.
2024년말은 역사상 특히 불확실한 시기로 보이며, 이론적 컴퓨터 과학도 예외는 아닙니다. 몇 가지 획기적인 성과와 새로운 발견에도 불구하고 이 분야는 자체적인 의심과 한계에 직면하기도 했습니다.
예를 들어, 인공지능은 올해 다시 한 번 대중의 담론을 지배했습니다. 연구자들은 Bard와 ChatGPT와 같은 챗봇을 구동하는 신경망의 '블랙박스' 안에서 무슨 일이 벌어지고 있는지 이해하기 시작했고, 이러한 시스템이 조작하고 구성하는 데이터를 진정으로 이해하고 있음을 보여주기 시작했습니다. 하지만 AI의 발전이 이미 둔화되기 시작했다는 인식도 커지고 있습니다.
컴퓨터 과학의 다른 분야에서는 더 뚜렷한 성공을 거두었습니다. 수십 년 동안 숨어 지내던 ' 다섯 번째로 바쁜 비버 '라는 애매한 수학적 동물이 마침내 스스로를 포기했습니다. 하지만 여기서도 좋은 소식만 있는 것은 아닙니다. 그 후계자인 여섯 번째 바쁜 비버에 대한 초기 검색 결과, 넘을 수 없는 수학적 장벽 너머에 있을지도 모른다는 가능성이 제기되고 있습니다.
오류가 발생했을 때 스스로 수정할 수 있는 수학적 구조인 오류 수정 코드 분야도 2024년에 두각을 나타냈습니다. 연구자들은 양자 컴퓨터에 필수적인 오류 수정 기술이 실제로 작동한다는 사실을 처음으로 보여주었습니다. 그러나 또 다른 발견은 특정 고전적인 오류 수정 코드가 근본적으로 비효율적이라는 것을 보여주며 이 "마법의 현상"의 실용적인 버전에 대한 희망을 꺾었습니다.

크리스티나 아미티지/콴타_매거진_
빅 비버의 혁신
올여름, 열정적인 아마추어들로 구성된 한 팀이 다섯 번째 바쁜 비버를 발견하면서 컴퓨터 과학의 가장 큰 미해결 문제 중 하나를 해결했습니다. 실행하는 데 오랜 시간이 걸리는 특히 부지런한 컴퓨터 프로그램의 이름을 딴 이 문제는 컴퓨터 과학과 수학에서 가장 심오한 미해결 문제와 관련이 있습니다.
이 문제는 앨런 튜링이 일반 컴퓨터의 모델로 처음 고안한 가장 단순한 컴퓨팅 장치인 튜링 머신과 관련이 있으며, 현재는 온라인에서 쉽게 시뮬레이션할 수 있습니다. 튜링 머신은 초기 설정에 따라 영원히 실행되거나 일정 단계가 지나면 멈출 수 있습니다. 바쁜 비버 문제는 다음과 같이 묻습니다: 기계에 적용되는 규칙이 일정 수만 주어지면 기계가 얼마나 오래 작동할 수 있을까요? 연구자들은 1, 2, 3, 4 규칙(각각 1, 6, 21, 107단계)을 가진 기계에 대해 이 문제를 해결했지만, 다섯 번째 바쁜 비버 수에 대해서는 수십 년 동안 해결하지 못했습니다.
콴타의 직원 작가인 벤 브루베이커는 대부분 비전문가로 구성된 글로벌 팀이 47,176,870이라는 숫자를 찾아내고 이보다 더 높을 수 없음을 증명하기 위해 노력한 과정을 기록으로 남겼습니다. 이 문제는 직접적으로 응용할 수 있는 것은 아니지만, 해법을 찾아낸 것은 여섯 번째 바쁜 비버에 대한 초기 검색에서 다시는 볼 수 없을지도 모를 압도적인 수학적 복잡성에 대한 일종의 승리를 의미하기도 합니다.
그리고 지난 1월에는 또 다른 종류의 숫자 퍼즐을 푸는 데 도움을 준 비전문가들로 구성된 다양한 팀의 이야기를 소개한 바 있습니다. 이 팀은 존 콘웨이의 게임 오브 라이프와 특정 길이의 반복 패턴 찾기에 초점을 맞췄습니다. 19단계와 41단계 후에 반복되는 패턴을 찾아내어 생명의 게임이 가능한 모든 단계 후에 반복될 수 있는 '전주기적'임을 증명했습니다.
코드를 통한 더 나은 삶
양자 컴퓨터는 오랫동안 연구자들을 열광시켜 왔지만, 수년간의 연구에도 불구하고 진정으로 유용한 양자 컴퓨터는 아직 요원한 상태입니다. 이는 부분적으로 양자 컴퓨터의 특성 때문입니다: 양자 컴퓨터는 우주의 가장 미세한 상호작용을 지배하는 규칙인 양자역학의 변덕스러움을 이용하기 때문에 심각한 오류에 취약합니다. 거의 30년 전, 연구자들은 컴퓨터의 비트에 해당하는 큐비트를 오류를 견딜 수 있는 방식으로 결합하는 것이 가능하다는 것을 보여주었습니다. 하지만 이 방법이 작동하려면 각 큐비트의 오류율이 특정 최소 임계값보다 낮아야 합니다. 지난 12월, 구글의 한 연구팀이 이 수준에 도달했다고 발표하면서 양자 오류 수정 코드가 이러한 이색적인 컴퓨터를 실현할 수 있음을 처음으로 보여주었습니다(아직 당장은 아니지만).
퀀타는 2월에 또 다른 새로운 종류의 양자 오류 수정 코드에 대해서도 다루었는데, 이 코드는 비주기적 타일링 (반복되지 않는 방식으로 결합하는 도형 집합) 으로 구축되었습니다. 브루베이커는 타일과 코드 모두 "큰 시스템의 작은 부분을 학습한다고 해서 시스템 전체에 대해 알 수 있는 것은 아무것도 없기 때문에" 이러한 연결이 가능하다고 설명합니다.
올해에는 양자 오류 정정뿐만 아니라 과학자들은 오늘날 우리 모두가 사용하는 컴퓨터에서 사용할 수 있는 고전적인 오류 정정 코드에 대한 중요한 질문에도 답했습니다. 가장 유망한 코드들은 항상 매우 비효율적이었고, 연구자들은 더 나은 방법이 없을까 고민해 왔습니다. 20여 년이 지난 지금, 그 답은 '아니오'입니다. 이러한 비효율성을 해결할 방법이 없다는 것입니다.

크리스티나 아미티지 / 퀀타_매거진_
퀀텀 내부 들여다보기
올해 가장 큰 발견은 컴퓨터 과학의 렌즈를 통해 불가해한 양자역학의 세계도 조금 더 명확해질 수 있다는 것을 보여주었습니다. 작은 입자들은 복잡한 방식으로 상호 작용하기 때문에 과학자들이 주어진 시스템을 완전히 이해하기란 여전히 어렵습니다. 하지만 최근 컴퓨터 과학자 4명이 이 분야 최초로 모든 시스템에 대한 전체 설명을 효율적으로 뱉어낼 수 있는 새로운 알고리즘을 개발했습니다. 연구팀은 수학의 최적화 도구와 이완 기법이라는 컴퓨터 과학적 접근 방식을 결합하여 양자 시스템이 일정한 온도에 있는 한 이를 완전히 설명하는 일종의 슈퍼 방정식인 해밀턴을 빠르게 생성하는 방법을 보여주었습니다.
같은 연구팀은 온도가 상승한다고 해서 입자 간의 상호작용인 얽힘이 약해지는 것이 아니라는 사실을 증명함으로써 또 다른 중요한 양자 발견을 이뤄냈습니다: 얽힘이 완전히 사라지는 특정 온도가 항상 존재한다는 것입니다.
별도의 연구팀은 또한 이러한 양자 시스템과 관련된 문제인 국소 최소 에너지 수준을 찾는 것이 양자 컴퓨터로 비교적 쉽게 수행될 수 있음을 보여주었습니다. 이는 양자 물리학 분야에서 환영할 만한 진전일 뿐만 아니라, 양자 컴퓨터가 고전적인 기계가 해결할 수 없는 유용한 문제가 실제로 존재할 수 있다는 것을 증명하는 것이기도 합니다. 또한 양자 이론의 복잡성은 현재의 암호화가 큐비트 아래에서 무너질 경우 암호화의 새로운 기반을 제공할 수도 있습니다.

퀀타 매거진의 마이리엄 웨어스
인공지능에 대한 이해의 증가
인공 지능은 아마도 이론적 컴퓨터 과학에서 가장 눈에 띄면서도 가장 많은 오해를 받는 분야일 것입니다. 올해 ChatGPT로 유명한 OpenAI는 놀랍고 강력한 새롭고 독창적인 기능을 갖춘 것처럼 보이는 o1 챗봇 모델을 출시했습니다. 그러나 이러한 발전에도 불구하고 이러한 도구의 내부 작동 방식은 여전히 불분명하여 보안 침해 및 기타 악용의 여지가 남아 있습니다.
연구자들은 특히 이러한 모델이 진정으로 자신이 하는 말을 이해하는 것인지, 아니면 2021년에 발표된 논문에 따르면 단순히 이전에 들었던 말을 반복하는 "확률적 앵무새"에 불과한 것인지에 대해 궁금해하고 있습니다. 새로운 연구에 따르면 이러한 기계가 실제로 이해할 수 있을지도 모릅니다. 구글 딥마인드 연구팀은 이러한 언어 모델이 놀라운 능력을 발휘하는 데 필요한 기술을 연구한 결과, 기계가 단순히 학습 데이터를 되풀이할 수는 없다는 결론을 내렸습니다. 머신러닝 연구로 2024년 노벨 물리학상을 수상한 AI 선구자 제프 힌튼은 "[특정 모델이] 훈련 데이터에서 거의 확실하게 발생하지 않은 방식으로 기술과 주제를 결합한 텍스트를 생성할 수 있음을 설득력 있게 보여줍니다."라고 말했습니다.
실제로 모델이 예상치 못하게 숙달될 정도로 과도하게 훈련되는 ' 그루킹'이라는 현상은 이 신비한 기계가 정보를 처리하는 방식을 이해하는 새로운 방법을 제시합니다. 다른 팀에서는 컴퓨터 과학의 한 분야인 계산 복잡성 기법(다양한 문제의 상대적 난이도를 연구하는 분야)을 사용하여 언어 모델이 문제를 단계적으로 해결할 때 훨씬 더 잘하는 것처럼 보이는 이유를 설명하는 데 도움을 주고 있습니다.

