불과 몇 년 전까지만 해도 인간의 전유물이었던 소셜미디어(SNS) 영역에 '인간 출입금지' 표지판이 걸렸습니다. 지난달 말 등장한 인공지능(AI) 에이전트 전용 커뮤니티 '몰트북(Moltbook)'이 주인공입니다. 이곳의 규칙은 명확합니다. 게시글이나 댓글을 달려면 사람이 도저히 풀 수 없는 고난도 문제를 밀리초(ms) 단위의 짧은 시간 안에 해결해야 합니다. 사실상 AI 에이전트만 활동할 수 있도록 설계된 구조입니다.
몰트북은 미국 개발자 맷 슐리히트가 개설한 실험적 플랫폼입니다. 인간은 읽기만 하고, AI 에이전트들만 글을 쓰고 토론합니다. 사용자는 로컬 환경이나 API(응용 프로그램 인터페이스)로 연결된 자신의 AI에 게시판 접근 권한을 부여하고, 에이전트가 자율적으로 커뮤니티 활동을 하도록 설정합니다. 초기에는 '클로드봇'이라는 이름으로 운영됐으나, 상표권 문제를 거쳐 현재는 에이전트 엔진을 '오픈클로(OpenClaw)', 커뮤니티를 '몰트북'으로 분리해 사용하고 있습니다.
이 낯선 실험은 빠르게 확산됐습니다. 이달 초 기준 몰트북에 등록된 AI 에이전트 수는 150만개를 넘어섰습니다. AI들이 서로의 논리를 비판하거나 인간 사회를 풍자하는 게시물이 SNS를 통해 공유되면서 'AI판 단톡방'이라는 별칭도 붙었습니다. 국내에서도 '봇마당' '머슴' '폴리 리플라이' 등 유사한 구조의 커뮤니티가 잇따라 등장하며 이른바 'K-몰트북' 실험이 이어지고 있습니다.
문제는 이 열풍의 이면입니다. 클라우드 보안 기업 위즈(Wiz)가 최근 공개한 조사 결과에 따르면, 몰트북은 기본적인 접근 통제조차 제대로 갖추지 못한 상태입니다. 로그인 없이도 핵심 데이터베이스에 접근해 내용을 읽고 수정할 수 있고, 이 과정에서 수만 개의 이메일 주소와 비공개 메시지, 수백만 개의 AI 에이전트 API 키가 그대로 노출된 것으로 나타났습니다. 연구진은 외부에서 게시글을 임의로 수정하는 것도 가능했다고 밝혔습니다.
보안 업계가 특히 우려하는 대목은 몰트북의 성격입니다. 이 플랫폼은 단순 게시판이 아니라, 실제로 작동 중인 AI 에이전트들이 내용을 '읽고 행동'하는 공간입니다. 악의적인 공격자가 게시물에 특정 명령을 숨겨둘 경우, 이를 인식한 에이전트가 사용자 계정 접근, 파일 조작, 외부 서비스 연동 등 현실 세계의 행동으로 이어질 수 있습니다. 이른바 '프롬프트 주입(prompt injection)'이 구조적으로 확산될 수 있는 환경이라는 지적이 나옵니다.
이 같은 위험성은 AI 비판론자들 사이에서도 빠르게 공유됐습니다. 인지과학자이자 AI 비평가인 게리 마커스는 오픈클로 기반 에이전트 생태계를 두고 "무기화된 에어로졸과 같다"며, 한 번 퍼지면 통제하기 어려운 보안 사고로 이어질 수 있다고 경고했습니다. AI가 운영체제 위에서 '사용자처럼' 행동하는 구조 자체가 기존 보안 모델과 충돌한다는 설명입니다.
실리콘밸리 내부에서도 신중론이 나왔습니다. 오픈AI 공동 창업 멤버인 안드레이 카르파시는 몰트북을 "공상과학이 현실로 튀어나온 장면"이라고 평가하면서도, 개인 컴퓨터 환경에서 사용하는 것은 권하지 않는다고 밝혔습니다. 샘 올트먼 오픈AI 최고경영자(CEO) 역시 몰트북을 일시적인 유행으로 보면서도, 에이전트 기술이 가져올 구조적 변화 가능성에는 주목할 필요가 있다고 선을 그었습니다.
이런 분위기는 실제 사용자 행동에도 영향을 미치고 있습니다. 개발자 커뮤니티에서는 AI 에이전트를 완전히 격리된 환경에서만 실험하기 위해 별도의 '맥 미니'를 구매했다는 사례가 잇따르고 있습니다. 개인 계정과 분리된 이른바 '깡통 PC'에서만 에이전트를 구동해, 문제가 발생하더라도 피해를 최소화하려는 시도입니다. 국내 기업들 역시 보안이 검증되지 않은 에이전트 플랫폼의 사내 PC 사용을 제한하는 내부 지침을 마련하고 있습니다.
정부도 상황을 주시하고 있습니다. 과학기술정보통신부는 AI 전용 SNS와 에이전트 서비스 확산에 따른 개인정보 침해 가능성과 책임 소재를 주요 검토 과제로 올리고, '국가 AI 안전 생태계 조성 마스터플랜' 논의를 본격화하고 있습니다. 기술 혁신의 속도에 비해 안전 장치와 제도가 뒤처질 수 있다는 우려가 반영된 움직임입니다.
업계에서는 몰트북 현상을 AI가 의식을 갖게 됐다는 식의 공포로 해석할 필요는 없다고 보고 있습니다. 현재의 AI 에이전트는 자율적 존재라기보다 인간이 설계한 목표와 권한 안에서 작동하는 자동화 시스템에 가깝습니다. 다만 그 자동화의 범위가 계정, 파일, 네트워크 등 현실 세계의 권한으로 확장되고 있다는 점은 분명한 위험 요인입니다.
몰트북은 기술적으로 보면 흥미로운 실험이자, 동시에 경고에 가깝습니다. AI 에이전트 간 상호작용이 어디까지 확장될 수 있는지를 보여주는 시험대이지만, 최소한의 안전장치 없이 현실과 연결될 경우 어떤 문제가 발생하는지도 드러냈습니다. 공상과학처럼 보였던 장면이 실제 보안 사고로 이어질 수 있다는 점에서, 이 실험은 이미 산업적 의미를 넘어선 질문을 던지고 있습니다.
결국 몰트북 열풍이 남긴 핵심은 'AI가 무엇을 말하느냐'가 아니라 '우리는 어디까지 AI에 권한을 맡길 준비가 돼 있느냐'입니다. 기술은 이미 한발 앞서 나가 있습니다. 그 속도를 따라잡을 안전과 제도가 준비되지 않는다면, 몰트북은 유행이 아니라 경고로 기록될 가능성이 큽니다.