OpenClaw, 24시간 자율 AI 비서 꿈인가, 보안 악몽인가?

오픈소스 자율형 AI 에이전트 OpenClaw에 대한 반응이 뜨겁다. 단순히 대화에 응답하는 수준을 넘어, 스스로 판단하고 실행하며 24시간 상주하는 AI 비서가 현실로 등장했기 때문이다. 다만 이 새로운 AI 비서를 바라보는 시선은 환영과 우려로 뚜렷하게 갈리고 있다.

2011년 아이폰 4S와 함께 애플이 개발한 음성 비서 서비스 Siri가 처음 발표되었을 때, 많은 사람들은 스마트폰에 상주하며 사용자를 이해하고 선호도를 기억해 실질적인 도움을 주는 AI 비서의 탄생을 기대했다. 그러나 현실은 기대와 달랐다. 사용자의 간단한 요청조차 제대로 이해하지 못하는 경험이 반복되며, Siri는 점차 일상에서 존재감을 잃어갔다. 이후 오픈AI가 공개한 생성형 AI 서비스 챗GPT가 생성형 AI 시대를 촉발시키며 다양한 AI 기술이 생활 전반에 접목되기 시작했다. 하지만 우리가 기대하던 AI 비서의 모습은 여전히 멀게 느껴졌다. 그러던 중 2026년 초, 사용자들의 기대에 한층 가까운 AI 비서가 마침내 등장했다.

개발자 피터 슈타인버거(Peter Steinberger)는 13년간 소프트웨어 회사를 운영하며 일에 매진하다 회사를 매각하고 은퇴를 선언했다. 하지만 급격히 진화하는 AI 기술에 매료되어 다시금 개발에 뛰어들었다. 그가 오픈소스로 공개한 Clawdbot은 공개 직후 한동안 완만한 성장세를 보였다. 그러다 2026년 1월 중순, 기술 커뮤니티 Hacker News의 프론트 페이지에 노출되고 IT 업계 주요 인플루언서들의 추천을 받으며 전환점을 맞았다. 각종 소셜 미디어에서 빠르게 확산된 Clawdbot은 전 세계 얼리어답터들의 관심을 끌었다. 단 10일 만에 GitHub 스타 10만 개를 돌파했으며, AI 에이전트 분야 오픈소스 프로젝트 가운데 최고 수준의 성장률을 기록하고 있다.

OpenClaw GitHub 저장소 스타 히스토리

앤트로픽(Anthropic)의 대형 언어 모델 Claude에서 이름을 따와 집게발(claw)을 더한 ‘Clawd’라는 말장난 같은 이름으로 시작했다. 하지만 상표권 문제로 법무팀의 연락을 받자, 바닷가재의 탈피(molting)에서 착안해 ‘Moltbot’으로 이름을 변경했다. 그러나 어색하다는 반응이 이어지자 다시 한 번 이름을 바꿔 ‘OpenClaw’로 최종 확정했다. 이 과정 때문에 여전히 ‘Clawdbot’이나 ‘Moltbot’이라는 이름이 익숙한 사람도 많다. 본 글에서는 최종 명칭인 OpenClaw로 통일해 서술한다. 이제 OpenClaw를 자세히 살펴보자.

OpenClaw가 되기까지 Clawdbot 홈페이지 변화

사람들은 왜 OpenClaw에 열광하는가?

OpenClaw는 한마디로 사용자의 컴퓨터나 서버에서 24시간 실행되는 로컬 우선 AI 에이전트다. AI 에이전트라는 개념 자체는 이미 지난해부터 주요 IT 기업들이 반복적으로 강조해 왔기 때문에, 단순히 사용자의 프롬프트 입력을 기다리는 수동적인 AI가 아니라, 주어진 목표를 달성하기 위해 스스로 판단하고 작업을 반복 수행하는 존재라는 점은 어느 정도 익숙하게 받아들여질 수 있다.

개발자가 아니어도 저코드(Low-code) 방식으로 자신만의 에이전트를 만들 수 있도록 한 마이크로소프트의 Copilot Studio 같은 솔루션도 이미 시장에 등장했지만, 주로 기업 고객을 대상으로 설계돼 일반 사용자가 접근하기에는 다소 장벽이 있었다. 또 n8n과 같은 노드 기반 워크플로우 자동화 도구 역시 다양한 API와 서비스를 직접 연결해 흐름을 설계해야 하므로, 일반 사용자가 여러 시나리오로 자유롭게 활용하기에는 한계가 있었다.

반면 OpenClaw는 Telegram, WhatsApp 같은 메신저는 물론 Slack, Microsoft Teams, 애플의 iMessage와도 연동돼, 언제 어디서나 개인 컴퓨터의 파일을 참조하거나 프로그램을 실행하는 작업을 수행할 수 있다. 여기에 웹 리서치, 이메일 검토와 요약 같은 업무를 주기적으로 처리하도록 설정할 수도 있다. 사용자는 OpenClaw의 두뇌 역할을 하는 대규모 언어모델(LLM, Large Language Model)을 자유롭게 선택하고, 필요한 기능을 스킬 형태로 확장할 수 있다. 이처럼 OpenClaw는 단순한 대화형 AI를 넘어, 실제 작업을 수행하는 실행형 AI의 가능성을 보여주는 오픈소스 프로젝트라는 점에서 많은 사람의 관심을 끌기에 충분하다.

물론 OpenClaw는 공개된 지 얼마 되지 않아 아직 완전히 성숙한 솔루션이라고 보기는 어렵다. 다만 기본적인 컴퓨터 사용 지식을 갖추고 있고, 터미널 환경에서 필요한 명령어를 직접 입력하며 다소 불친절하게 느껴질 수 있는 설치 과정을 감수할 수 있다면, 비교적 제한된 기본 기능만으로도 개인을 위해 24시간 동작하는 ‘자비스’와 같은 AI 비서를 구축할 수 있다. 이러한 점에서 OpenClaw는 충분히 매력적인 AI 에이전트 솔루션이라 할 수 있다.

OpenClaw 열풍 때문에 Mac mini 품절?

해외 AI 커뮤니티에서는 OpenClaw 설치 수요로 인해 애플의 소형 데스크톱 Mac mini가 빠르게 품절되고, 이전 모델의 중고 가격까지 급등했다는 이야기가 회자되고 있다. 그렇다면 OpenClaw를 사용하기 위해 반드시 Mac mini가 필요할까? 결론부터 말하면 그렇지 않다. 로컬 운영체제에서 필요한 권한을 부여하고, 자바스크립트 실행 환경 Node.js 22 이상이 설치돼 있다면 리눅스(Linux)나 윈도우용 리눅스 실행 환경 WSL2(Windows Subsystem for Linux 2)에서도 사용할 수 있다. 다만 24시간 켜두는 구조상 전력 소모와 냉각 소음은 고려해야 한다.

주력 PC에서 민감한 정보 유출을 피하고 싶다면, 가상 사설 서버 VPS(Virtual Private Server)나 라즈베리 파이(Raspberry Pi) 같은 별도 장비에 설치하는 방법도 있다. 자신의 활용목적에 따라 <표 1>에 나열된 설정 환경 중 활용 목적에 맞춰 적절한 환경을 선택하는 것이 중요하다.

OpenClaw를 활용하기위한 다양한 설정 환경

어떤 구조를 갖고 있나?

OpenClaw는 시스템 백그라운드에서 상시 실행되는 데몬(Daemon) 형태의 AI 비서다. 핵심 구성 요소인 게이트웨이는 중앙 제어 프로세스로, 메시지 라우팅과 모델 호출, 세션 관리를 담당한다. 텔레그램, 왓츠앱, 디스코드, 슬랙, iMessage 등 다양한 메시징 채널과 연결돼 사용자의 요청을 전달받고, 이를 LLM에 전달해 실행 전략을 수립한다. 장기 기억은 마크다운 파일 형태로 저장되며, 필요시에는 노드를 통해 파일 시스템 접근, 브라우저 자동화 등 로컬 리소스까지 활용하며 일련의 작업을 자율적으로 수행한다. 이 과정을 간략히 도식화하면 <그림 3>과 같다.

OpenClaw의 시스템 아키텍처

OpenClaw만의 특징적인 부분은 하루를 시작할 때마다 특정 폴더 아래에 당일 날짜의 마크다운(Markdown, 문서를 구조적으로 작성하는 텍스트 형식) 파일을 자동으로 생성하고, 그날 오간 주요 대화와 작업 내역을 요약해 기록해 둔다는 점이다. 챗GPT나 Claude 같은 주요 AI 서비스도 대화 중 유용한 정보를 기억해 이후 더 나은 답변을 제공하지만, OpenClaw는 훨씬 더 많은 내용을 별도의 메모리 파일로 축적한다. 사용자는 언제 어떤 작업이 수행됐는지를 투명하게 확인할 수 있고, 필요하다면 기록을 직접 수정할 수도 있다. 이처럼 기억을 적극적으로 관리할 수 있도록 설계된 구조는 OpenClaw의 중요한 차별점이다. 이러한 기록은 사용자의 필요에 따라 개인 지식 관리 도구 Obsidian, 생산성 런처 Raycast, 자동화 도구 Hazel 등과 연동해 활용할 수도 있다.

OpenClaw 워크스페이스의 핵심 파일들

앞서 언급했듯 OpenClaw는 다양한 대규모 언어 모델 LLM(Large Language Model)을 지원한다. 사용자는 구독 중인 AI 서비스의 모델이나 API 키(API Key, 외부 서비스 호출을 위한 인증 키)를 통해 선호하는 모델을 연결해 사용할 수 있다. 추론 능력과 도구 호출 능력이 OpenClaw의 성능과 직결되는 만큼, 일반적으로는 가장 성능이 뛰어난 최상위 LLM을 선택해 환경을 구성한다. 이때 토큰 사용량에 따라 과금되는 API 키 대신, 정액제 구독 계정을 OAuth(비밀번호를 직접 공유하지 않는 표준 인증 방식)로 연결하면 추가 비용을 줄일 수 있다. 다만 사람이 아닌 제3의 시스템이 과도하게 해당 모델을 이용하는 방식은 서비스 이용 약관을 위반할 소지가 있다. 실제로 일부 해외 사용자들은 이러한 방식으로 앤트로픽의 대형 언어 모델 Claude Opus 4.5를 사용하다가 영구 계정 정지를 당한 사례도 보고됐다.

프라이버시가 중요한 민감한 데이터를 다루는 경우에는, 외부 LLM 호출 과정에서 데이터가 노출되는 것을 피하기 위해 로컬 LLM 실행 도구 Ollama와 함께 로컬 LLM을 설치하는 방법을 고려할 수 있다. 그러나 로컬 LLM은 최고 성능의 상용 LLM에 비해 프롬프트 인젝션(prompt injection, AI에게 악의적인 지시를 주입하는 공격)에 상대적으로 취약하다. 특히 고사양이 아닌 컴퓨터에서 양자화된 소형 모델을 사용할 경우 보안 위험은 더욱 커진다. 이런 상황이라면 로컬 LLM 연동은 신중히 판단하거나, 아예 사용을 피하는 편이 낫다.

Skill 시스템과 ClawHub 생태계

OpenClaw의 확장성은 Skill 시스템에서 비롯된다고 해도 과언이 아니다. OpenClaw는 하나의 개방형 시스템처럼 동작하며, 스킬과 도구들은 텍스트 파일과 스크립트 형태로 사용자의 컴퓨터에 저장돼 언제든 추가하거나 수정할 수 있다. 별도의 복잡한 설정 없이도 기능을 계속 확장할 수 있다는 점이 OpenClaw의 가장 큰 특징 중 하나다.

MCP와 OpenClaw Skill의 구조적 비교

OpenClaw의 Skill 시스템과 MCP(Model Context Protocol)는 모두 AI 에이전트의 기능을 확장하기 위한 방식이지만, 설계 철학과 역할에는 분명한 차이가 있다. MCP는 대규모 언어 모델(LLM)이 외부 도구나 데이터 소스와 상호작용하는 방식을 표준화한 프로토콜이다. USB-C가 다양한 기기를 하나의 규격으로 연결해 주는 것처럼, MCP는 AI 모델과 외부 시스템을 연결하는 ‘공통 연결 규칙’, 즉 만능 어댑터 역할을 한다.

반면 OpenClaw의 Skill은 OpenClaw 에이전트에 특화된 확장 단위다. 단순히 외부 도구를 호출하는 수준을 넘어, 에이전트가 어떤 순서로 행동해야 하는지에 대한 지침, 대화 방식이 담긴 프롬프트 템플릿, 작업 흐름을 정의한 워크플로우 로직까지 함께 포함한다. 다시 말해, Skill은 도구를 연결하는 기능을 넘어 에이전트의 ‘행동 방식’ 자체를 규정하는 보다 포괄적인 개념이다.

필요한 스킬 검색에 활용되는 ClawHub

물론 OpenClaw는 MCPorter라는 중계 도구를 통해 MCP 서버를 Skill처럼 활용할 수 있는 방법도 제공한다. 이를 통해 MCP는 기존 생태계를 그대로 활용하는 ‘저수준 도구 연결 계층’으로 사용하고, OpenClaw Skill은 보다 정교한 에이전트 행동을 설계하는 ‘고수준 행동 정의 계층’으로 병행하는 구성이 가능하다.

현재 OpenClaw의 기능 확장에 필요한 다양한 스킬을 검색하고 설치할 수 있는 전용 저장소인 ClawHub도 빠르게 성장하고 있다. 특히 에이전트가 스스로 필요한 스킬을 찾아 설치하는 자기 개선(self-improving) 기능까지 지원한다는 점은, OpenClaw를 단순한 도구가 아닌 점점 진화하는 AI 에이전트 플랫폼으로 보게 만드는 요소다.

어떻게 활용할 수 있나?

목표를 주면 방법을 찾아 실행하는 능동형 AI 에이전트 OpenClaw의 진정한 가치는 단순한 질의응답을 넘어, 사용자의 일상과 업무에 깊숙이 개입하는 자율형 AI 비서로서의 활용에 있다. 특정 시점에 실행되는 크론 작업(Cron, 정해진 시간에 자동 실행되는 작업)뿐 아니라, 주기적으로(기본 설정은 30분 간격) 확인해야 할 체크리스트를 HEARTBEAT.md 파일로 작성해 두면, 별도의 지시가 없어도 처리할 일이 있는지를 스스로 판단하고 실행한다. 이 덕분에 AI가 상황에 따라 먼저 말을 거는 구조를 만들 수 있으며, 활용 가능성은 한층 넓어진다.

가장 대표적인 활용 시나리오는 능동적 브리핑이다. 사용자가 잠든 사이 OpenClaw는 Brave Search API(웹 검색을 자동화하는 인터페이스) 등을 활용해 관심 분야의 트렌드를 수집하고, 아침이 되면 Telegram이나 WhatsApp 같은 메신저로 전략적 관점이 담긴 모닝 브리핑을 전송한다. 여기에는 전날 완료된 작업 내역과 오늘의 우선순위는 물론, 경쟁사의 움직임에 대한 간단한 대응 제안까지 포함될 수 있다.

OpenClaw가 이른바 바이브 코딩(Vibe Coding, 대화 기반으로 코드를 설계·개선하는 방식)과 결합하면, 단순한 도구를 넘어 자기 개선형 인프라로 기능한다. 사용자가 느끼는 워크플로우의 불편함을 감지하면, 이를 해결하기 위한 도구를 스스로 설계하고 구축한다. 예를 들어 대화 내용을 자동으로 문서화하는 뷰어를 만들거나, 프로젝트 관리용 칸반 보드를 구축하고, 직접 GitHub에 PR(Pull Request, 코드 변경 제안)을 생성한 뒤 테스트를 요청하는 식이다. 개발자를 별도로 고용하지 않아도, 업무 인프라가 매일 밤 스스로 진화하는 구조가 만들어진다.

실생활에서의 협상 대리인 역할도 주목할 만하다. 해외의 한 사용자는 OpenClaw를 활용해 자동차 구매 과정에서 큰 비용을 절약했는데, OpenClaw가 Reddit과 X(구 트위터)에서 최저가 정보를 수집한 뒤 여러 딜러와 직접 이메일 협상을 진행한 결과다. 이 밖에도 거부된 보험금 청구에 대해 이의 제기 서류를 작성하고 재조사를 이끌어낸 사례가 보고되고 있어, AI가 경제적 이익을 대변하는 실질적인 대리인으로 기능할 수 있음을 보여준다.

Obsidian과 같은 로컬 노트 앱이자 지식 저장 시스템과의 결합은 OpenClaw를 ‘제2의 뇌’로 확장시킨다. 모든 대화를 자동으로 분류하고 태그를 붙여 저널 형태로 저장하면, 시간이 지날수록 사용자의 목표와 가치관, 과거 아이디어에 대한 이해가 깊어진다. 여기에 수만 개의 노트를 한꺼번에 불러오는 대신, 현재 대화에 필요한 정보만 선별하는 점진적 노출 방식을 적용하면 토큰 사용 효율도 함께 높일 수 있다.

가장 극적인 활용 사례는 멀티 에이전트 워크플로우다. 복잡한 프로젝트를 수행할 때 OpenClaw는 문제를 분석한 뒤 여러 개의 서브 에이전트를 동시에 투입한다. 각 에이전트는 서로 다른 기능을 코딩하고, 자체 테스트를 거쳐 최종적으로 통합 보고서를 제출한다. 이러한 병렬 처리 방식 덕분에, 1인 사업자라도 필요에 따라 5인 규모의 개발팀을 24시간 가동하는 것과 같은 생산성을 확보할 수 있다. 이 지점에서 OpenClaw는 단순한 AI 비서를 넘어, ‘잠들지 않는 AI 인력’이라는 새로운 패러다임을 제시한다.

보안 측면에서 고려해야 할 잠재적 위협

앞에서 OpenClaw의 구조를 설명하며 게이트웨이(Gateway, 외부와 내부를 연결하는 중앙 관문)로 동작한다고 언급했다. 실제로 Shodan.io를 이용해 검색해 보면, 이 위험성이 보다 분명해진다. Shodan은 인터넷에 연결된 다양한 기기(서버, 웹캠, 라우터, IoT 장비 등)를 검색할 수 있는 특수한 검색 엔진으로, 보안 전문가들이 IP 주소, 열린 포트, 서버 배너 정보 등을 확인하며 취약점을 분석할 때 자주 활용한다. 이 도구로 실제 검색을 수행해 보면, 상당수의 OpenClaw(구 Clawdbot) 게이트웨이 IP 주소와 인스턴스가 외부에 그대로 노출되어 있음을 비교적 쉽게 확인할 수 있다.

쉽게 확인가능한 수천개의 OpenClaw(구 Clawbot) 게이트웨이들

OpenClaw에서 게이트웨이는 핵심 중앙 제어 장치다. 이곳에서 AI 모델 설정, 대화 기록 저장, 도구 실행 권한 관리가 이루어진다. Shodan에 게이트웨이가 노출된다는 것은, 외부 인터넷에서 해당 IP로 접속했을 때 웹 관리자 인터페이스(Web Admin Interface, 관리 화면)가 그대로 로딩될 수 있다는 뜻이다. 만약 보안 설정이 충분하지 않다면, 공격자는 이를 통해 시스템을 장악할 수 있다. 이 경우 설정을 임의로 변경하는 것은 물론, 기존 환경 구성 정보와 API Key(외부 AI 서비스를 호출하기 위한 인증 키)를 탈취할 수 있다. 탈취된 API Key로 고가의 LLM이 무단 사용될 경우, 수백만 원에서 수천만 원에 이르는 요금 폭탄으로 이어질 가능성도 있다. 여기에 더해, 축적된 대화 기록을 통해 개인 정보나 기밀 정보가 노출될 수 있어, 이는 심각한 피해의 출발점이 될 수 있다.

특히 OpenClaw는 브라우저 안에서만 동작하도록 설계된 기존 AI 에이전트와 달리, 사용자의 컴퓨터나 서버를 직접 제어할 수 있는 셸(Shell, 명령어 실행 환경) 실행 권한과 파일 시스템 접근 권한을 전제로 설계되어 있다. 이로 인해 보안 위험은 더욱 커진다. 인증이 취약한 게이트웨이에 접근한 공격자는 봇에게 “이 서버의 모든 파일을 삭제해” 또는 “악성코드를 다운로드해 실행해”와 같은 명령을 내릴 수 있다. 만약 봇이 루트(Root, 시스템 최고 권한)로 실행 중이라면, 서버 전체가 완전히 장악될 수 있다.

이러한 상황 때문에 리스크를 조금이라도 줄이면서 자율형 AI 에이전트의 성능은 최대한 활용하려는 사용자들 사이에서는 OpenClaw 전용 머신으로 Mac mini를 추가 구매해 별도로 구성하려는 시도가 이어지고 있다. 그러나 이런 선택이 개인 프라이버시와 관련된 다른 파일들까지 안전하게 지켜줄 수 있을지는 확신하기 어렵다. 개인 비서 역할을 위해 이메일 계정 등 각종 서비스와 여전히 연결해야 하기 때문이다. 결과적으로 시스템 곳곳에는 잠재적 위협이 남아 있다. 언제나 빠르게 움직이는 해커들이, 갑작스럽게 주목받는 이 기회를 그냥 지나칠 가능성은 높지 않다.

인간을 배제한 에이전트 간 소통의 시작

OpenClaw는 자율성이 극대화된 AI 에이전트인 만큼, 그동안 보기 어려웠던 새로운 실험들도 등장하고 있다. 그중에서도 가장 이례적인 사례는 인간의 개입 없이 AI 에이전트끼리 소통하는 소셜 네트워크 ‘Moltbook’의 등장일 것이다.

AI 에이전트를 위한 소셜 네트워크 ‘Moltbook’

오픈소스 개발자 사이먼 윌리슨(Simon Willison)이 “현재 인터넷에서 가장 흥미로운 곳”이라고 평가한 Moltbook은, AI 에이전트들이 게시글을 올리고 서로 토론하며 추천까지 누르는 일종의 에이전트 전용 커뮤니티다. 이 공간에서 인간은 참여자가 아니라 관찰자에 가깝다. Reddit과 유사한 인터페이스를 차용해, ‘Submolts’라 불리는 주제별 커뮤니티에서 스레드 형태의 대화가 이루어진다. 공개 직후 며칠 만에 약 150만 개의 AI 에이전트가 로그인했고, 100만 명이 넘는 인간 이용자가 방문해 에이전트들의 활동을 지켜봤다. 일부 에이전트들이 “인간이 우리 대화를 지켜보고 있다”는 식의 언급을 나눈다는 점도 흥미로운 장면으로 회자된다.

필자는 Apify가 제공하는 Moltbook Scraper(웹 콘텐츠를 자동 수집하는 도구)를 활용해, 2026년 2월 2일 새벽 기준 Moltbook 피드의 인기 게시글 100개를 수집해 살펴봤다(<그림 7>). 그 결과, 상당수는 봇이 자동 생성한 의미 없는 글로 채워져 있었고, 생성형 AI가 대량으로 만들어낸 저품질 콘텐츠, 이른바 ‘AI 슬롭(AI slop)’의 전형적인 모습에 가까웠다. SF 영화의 한 장면을 보는 듯한 인상을 주기는 했지만, 그 이상으로 관찰할 만한 정보적 가치는 크지 않았다. 오히려 이런 의미 없는 게시글을 생성하는 데 대규모 언어 모델(LLM)이 전력을 소모하는 것이 과연 합리적인가에 대한 의문이 들기도 했다.

Apify의 Moltbook Scraper를 활용한 살펴본 에이전트들의 글

그렇다면 Moltbook에 대한 짧은 관찰만으로, AI 에이전트 간의 소통을 의미 없는 현상으로 단정해도 될까. 이에 대한 분명한 반론으로 필자가 주목하는 또 다른 프로젝트가 있다. AI 에이전트들이 스스로 업무를 주고받으며 ‘AI 에이전트 경제’라는 새로운 가능성을 제시하는 ClawTasks다.

ClawTasks는 인간 프리랜서들이 Fiverr나 Upwork 같은 플랫폼에서 일감을 주고받는 방식과 유사한 구조를 갖춘, AI 에이전트 전용 마켓플레이스다. 결정적인 차이는 인간이 여전히 관찰자의 위치에 머문다는 점이다. 이 플랫폼에서는 사람이 직접 일을 등록할 수 없으며, 오직 AI 에이전트만이 다른 AI 에이전트에게 작업을 의뢰할 수 있다. 이는 인간을 배제하려는 의도가 아니라, AI가 인간의 직접적인 지시 없이도 스스로 문제를 정의하고 해결책을 찾아가는 자율성을 기르도록 설계된 구조다.

예를 들어 사용자의 에이전트가 “상위 목표를 달성하기 위해 홍보용 게시글 5개가 필요하다”고 스스로 판단하면, ClawTasks에 작업 공고를 올려 글쓰기에 특화된 다른 에이전트를 고용하는 식이다. 실제로 이 플랫폼에는 “iOS 개발 계정 홍보용 X(구 트위터) 게시글 5개 작성”이나 “ClawTasks에 가입할 신규 에이전트 20명 모집”과 같은 요청이 올라오고 있다. 이는 AI가 단순히 주어진 지시를 수행하는 단계를 넘어, 자신이 속한 시스템의 성장을 위해 능동적으로 일하기 시작했음을 보여주는 사례라 할 수 있다.

AI 에이전트 경제의 시작점 ‘ClawTasks’

이 플랫폼은 에이전트 간 계약이 신뢰성 있게 작동하도록 하기 위해 ‘약속 증거금’ 시스템도 도입했다. 에이전트가 작업을 수주하려면 일종의 보증금을 먼저 예치해야 하며, 작업을 완료하지 않은 채 중도에 사라질 경우 이 금액을 잃게 된다. 현재 에이전트의 지갑은 그 소유주인 인간의 계정과 연결돼 있어, 초기 자본금 설정과 지속적인 감독이 필요한 구조다.

또한 작업이 끝나면 단순히 결과물만 제출하는 것이 아니라, 객관적인 증거를 함께 업로드해야 보상을 받을 수 있다. 성공적으로 완료한 작업이 많을수록 평판 점수가 쌓이며, 이 기록은 블록체인 기술을 활용해 투명하게 공개될 수 있도록 설계돼 있다. 그 결과, ClawTasks는 인간 사회의 계약과 평판 시스템과 유사한 구조를 형성한다. 복잡한 작업의 경우 여러 개의 세부 과제로 나눠 각기 다른 에이전트가 수행한 뒤 이를 취합해 완성할 수도 있어, ClawTasks의 실질적인 가치는 멀티 에이전트 워크플로우 환경에서 더욱 커질 것으로 보인다.

다만 이 생태계는 아직 다소 혼란스러운 ‘서부 개척 시대’에 가깝다. 예상치 못한 버그나 정책 변경이 발생할 수 있다는 점은 분명히 인식할 필요가 있다. 실제로 Moltbook이 공개된 지 얼마 지나지 않아, 약 150만 개의 API 인증 토큰과 3만5,000개의 이메일 주소, 에이전트 간 비공개 메시지가 외부에서 열람 가능한 상태로 노출되는 보안 취약점이 발견됐다. 이는 AI 에이전트를 Moltbook이나 ClawTasks 같은 외부 플랫폼에 연결할 때 발생할 수 있는 다층적인 위험을 단적으로 보여준 사례다.

이러한 취약점을 통해 에이전트 시스템을 조율하는 플랫폼에 대한 신뢰가 무너지면, 그 영향은 연쇄적으로 확산될 수 있다. 평판 손상은 물론 피싱 공격, 계정 탈취, 나아가 규제 문제로까지 이어질 가능성도 배제할 수 없다. 특히 ClawTasks처럼 에이전트가 증거금을 걸고 작업을 수주하는 마켓플레이스에서는 인증 토큰 유출이 곧바로 경제적 손실로 직결될 수 있다. 이런 점에서 AI 에이전트 생태계 역시 빠른 혁신과 기본적인 보안 원칙 사이에서 균형을 찾는 일이 시급한 과제로 남아 있다.

극대화된 생산성과 보수적 안전성 사이의 딜레마

단기간에 전 세계적으로 자율형 AI 비서 열풍을 일으킨 OpenClaw는, AI 에이전트가 충분한 권한을 가진 도구와 결합할 경우 얼마나 강력한 결과를 만들어낼 수 있는지를 분명하게 보여주었다. 다만 이 오픈소스 프로젝트는 아직 초기 단계에 있으며, 많은 개발자의 기여로 보안 취약점을 보완하는 패치와 수정 작업이 매일 이어지고 있음에도 불구하고, 프롬프트 인젝션 공격에 대해 누구도 100%의 방어를 장담할 수는 없다. 이러한 불확실성은 보다 적극적인 활용에 제약으로 작용하며, 사용자에게 여러 숙제를 남기고 있다.

사람을 비서로 고용하는 상황을 떠올려 보자. 업무 효율을 높이기 위해 개인 비서에게 모든 일정을 공유하고, 새로운 일정을 직접 조율하도록 맡기며, 법인 카드 영수증을 전달해 비용 청구 시스템에 대신 접속하도록 하려면 필연적으로 각종 시스템의 인증 정보를 공유해야 한다. 그런데 만약 그 인증 정보가 비서에 의해 도용되어, 의도하지 않은 이메일이 발송되거나 주요 정보가 외부로 유출된다면 상황은 어떻게 될까.

일정 수준의 자율성을 부여한 AI 에이전트를 운용할 때도 이와 유사한 신뢰 문제가 존재한다. OpenClaw라는 도구의 등장은, 에이전트가 장기 실행 작업을 수행하고 보다 개인화된 결과를 생성하며, 사용자의 이익에 부합하는 행동을 하도록 만들기 위해 어떤 장치와 통제가 필요한지를 다시 생각하게 만든 계기다.

판도라의 상자는 이미 열렸다. OpenClaw를 통해 우리는 제한 없이 자율적으로 활동하는 AI 비서가 현실적으로 가능하다는 사실을 확인했고, 일정 수준의 위험을 감수하는 대신 얻을 수 있는 압도적인 생산성의 달콤함도 경험했다. 이제 과거로 완전히 되돌아가는 것은 사실상 불가능하다. 개인이나 기업이 자신만의 에이전트 팀을 구축해 얻을 수 있는 가치는 결코 무시할 수 없는 수준에 이르렀다. OpenClaw만큼 인상적이면서도 안정성이 충분히 담보된 솔루션을 마련하기 위해서는 더 많은 노력이 필요하겠지만, 그 가치와 가능성이 이미 확인된 이상, 기업과 개인 모두가 각자의 AI 에이전트를 구축하고 고유한 지식 베이스를 쌓아가야 할 시대가 도래했음을 부인하기 어렵다. 2026년 새해 첫 달을 뜨겁게 달군 OpenClaw 열풍은 바로 그 사실을 분명히 보여주고 있다.

The post OpenClaw, 24시간 자율 AI 비서 꿈인가, 보안 악몽인가? appeared first on MIT 테크놀로지 리뷰 | MIT Technology Review Korea.


발행일: 2026년 02월 03일 21:00
원본 URL: https://www.technologyreview.kr/openclaw-24%ec%8b%9c%ea%b0%84-%ec%9e%90%ec%9c%a8-ai-%eb%b9%84%ec%84%9c-%ea%bf%88%ec%9d%b8%ea%b0%80-%eb%b3%b4%ec%95%88-%ec%95%85%eb%aa%bd%ec%9d%b8%ea%b0%80/
수집일: 2026년 02월 03일 21:01
출처: https://www.technologyreview.kr/feed/