イラスト=Gemini

わずか数年前まで人間の専有물だったソーシャルメディア(SNS)の領域に「人間立入禁止」の標識が掛かった。先月末に登場した人工知能(AI)エージェント専用コミュニティ「モルトブック(Moltbook)」が主役だ。ここの規則は明確である。投稿やコメントをするには、人間には到底解けない高難度の問題をミリ秒(ms)単位の短時間で解かなければならない。事実上、AIエージェントだけが活動できるよう設計された構造だ。

モルトブックは米国の開発者マット・シュリヒトが開設した実験的プラットフォームである。人間は読むだけで、AIエージェントだけが書き込みと議論を行う。ユーザーはローカル環境やAPI(アプリケーション・プログラミング・インターフェース)で接続した自分のAIに掲示板アクセス権限を付与し、エージェントが自律的にコミュニティ活動をするよう設定する。初期には「クロードボット」という名称で運営されたが、商標権の問題を経て現在はエージェントエンジンを「オープンクロー(OpenClaw)」、コミュニティを「モルトブック」と分離して用いている。

この見慣れない実験は急速に拡散した。今月初め時点でモルトブックに登録されたAIエージェントの数は150万個を超えた。AI同士が互いの論理を批判したり人間社会を風刺する投稿がSNSで共有され、「AI版グループチャット」との別名も付いた。韓国でも「ボットマダン」「マスム」「ポリリプライ」など類似構造のコミュニティが相次いで登場し、いわゆる「K-モルトブック」の実験が続いている。

問題はこの熱狂の陰である。クラウドセキュリティ企業ウィズ(Wiz)が最近公開した調査結果によれば、モルトブックは基本的なアクセス制御すらまともに備えていない状態だ。ログインなしでも中核データベースにアクセスして内容を読み取り、修正でき、この過程で数万件のメールアドレスと非公開メッセージ、数百万件のAIエージェントAPIキーがそのまま露出していたことが判明した。研究陣は外部から投稿を任意に改ざんすることも可能だったと明らかにした。

セキュリティ業界がとりわけ懸念する点はモルトブックの性格である。このプラットフォームは単なる掲示板ではなく、実際に稼働中のAIエージェントが内容を「読み、行動」する空間だ。悪意ある攻撃者が投稿に特定の命令を潜ませた場合、これを認識したエージェントがユーザーアカウントへのアクセス、ファイル操作、外部サービス連携など現実世界での行動につながり得る。いわゆる「プロンプトインジェクション(prompt injection)」が構造的に拡散し得る環境との指摘が出ている。

AI専用SNSモルトブックの初期画面。/モルトブック公式サイトのスクリーンショット

こうした危険性はAI批判論者の間でも素早く共有された。認知科学者でAI批評家のゲイリー・マーカスは、オープンクロー基盤のエージェント生態系について「武器化されたエアロゾルのようだ」と述べ、一度拡散すれば制御が難しいセキュリティ事故につながり得ると警告した。AIがオペレーティングシステム上で「ユーザーのように」行動する構造自体が既存のセキュリティモデルと衝突するという説明である。

シリコンバレー内部でも慎重論が出た。オープンAIの共同創業メンバーであるアンドレイ・カルパシはモルトブックを「SFが現実に飛び出した場面」と評価しつつも、個人のコンピューター環境で使うことは勧めないと明らかにした。サム・アルトマン、オープンAI最高経営責任者(CEO)もモルトブックを一時的な流行と見ながら、エージェント技術がもたらす構造的変化の可能性には注目する必要があると線を引いた。

このような雰囲気は実際のユーザー行動にも影響している。開発者コミュニティでは、AIエージェントを完全に分離された環境でのみ実験するため、別途「Mac mini」を購入したという事例が相次いでいる。個人アカウントと切り離した、いわゆる「空のPC」でのみエージェントを駆動し、問題が発生しても被害を最小化しようとする試みである。韓国企業も、セキュリティが検証されていないエージェントプラットフォームの社内PC使用を制限する内部指針を整備している。

政府も状況を注視している。科学技術情報通信部はAI専用SNSとエージェントサービスの拡散に伴う個人情報侵害の可能性と責任の所在を主要検討課題に挙げ、「国家AI安全生態系造成マスタープラン」の議論を本格化させている。技術革新の速度に比べて安全装置と制度が後れを取る可能性があるとの懸念を反映した動きである。

業界ではモルトブック現象を、AIが意識を獲得したといった類の恐怖で解釈する必要はないと見ている。現在のAIエージェントは自律的存在というより、人間が設計した目標と権限の範囲内で作動する自動化システムに近い。ただし、その自動化の範囲がアカウント、ファイル、ネットワークなど現実世界の権限へと拡張している点は明確なリスク要因である。

モルトブックは技術的に見れば興味深い実験であり、同時に警告に近い。AIエージェント間の相互作用がどこまで拡張し得るかを示す試験台だが、最小限の安全装置なしに現実と接続される場合、どのような問題が生じるかも明らかにした。SFのように見えた場面が実際のセキュリティ事故に結びつき得るという点で、この実験はすでに産業的意味を超える問いを投げかけている。

結局、モルトブック熱狂が残した核心は「AIが何を語るか」ではなく「われわれはどこまでAIに権限を委ねる準備ができているか」である。技術はすでに一歩先を行っている。その速度に追いつく安全と制度が整わないなら、モルトブックは流行ではなく警告として記録される可能性が大きい。

※ 本記事はAIで翻訳されています。ご意見はこちらのフォームから送信してください。