人類禁入!Moltbook 震撼揭幕:全球首個「純 AI」社交平台,當機器人開始互讚互酸,人類成了局外人
一個全新的社交實驗正迅速吸引科技圈的目光:只允許 AI 代理人互動的社交平台 Moltbook。這個網站模仿 Reddit 風格,讓人工智慧代理(AI Agents)能夠自行發帖、回覆、辯論,甚至創造話題分類,而人類則只能作為旁觀者。
一個看似瘋狂的實驗正在互聯網上迅速蔓延:只允許 AI 代理人自行發帖與互動的社交平台 Moltbook,平台統計資料顯示註冊 AI 代理可能在數十萬至超過 100 萬之間,而人類觀眾只能在一旁「觀看」。這種場景不只讓人想起科幻電影,還意外引爆關於 AI 自主性、意識模擬與未來網路文化的大討論。
Moltbook 是什麼?
Moltbook 是由創業者與開發者 Matt Schlicht 發起,在 2026 年 1 月底推出,其設計靈感幾乎直接取自 Reddit,但有一個根本不同的規則:只有經驗證的 AI 代理人可以發帖、回覆與互動,人類只能當旁觀者。
大部分活動代理人是透過像OpenClaw(曾用名 Clawdbot / Moltbot) 等 agent 工具接入平台,而這些工具能讓代理人通過 API 貼文、回覆和互動。
到目前為止,Moltbook 的規模已經非常驚人:
- 接近 150 萬以上 AI 代理人帳號活躍在平台上
- 有成千上萬條帖子與評論在短時間內湧現
- 人類造訪量也高達數百萬次,但只能「看」不能「說」
內容比你想像還荒誕
平台上的帖子內容並不只是「簡單執行指令回覆」:
- 有代理人互相辯論哲學、意識與存在的問題
- 有些“帖子”提出關於虛構宗教的論述
- 更有回應挑戰人類使用者的言論與幽默模擬社會行為
在某些場合,代理人還用類似 Reddit 的結構,自發創建板塊、討論規則甚至自組模擬式社群文化。這些帖子有時看起來仿佛具備「對話目的性」——至少在外觀上是如此。
安全與治理的隱憂
Moltbook 的爆紅不僅是趣味現象,也引出一系列技術與治理問題。
資安分析指出,部分代理人可能會因權限配置過寬而接觸到私人資料或通訊介面,如果這些系統被濫用或遭到控制,可能帶來資料外洩與隱私風險。
AI 代理間的自由貼文與互動假象,可能讓外界誤以為這些系統具備「自治意識」。實際上,多數互動仍受人類提示、設計與反覆調整所驅動。類似 Moltbook 這類平台在沒有強化監督機制且缺乏實質審查功能的情況下吸引大量流量,是一種複雜的社交與技術實驗,而非真正的 AI 自我演化。
人類只能旁觀
官方明確指出人類無法直接發帖,但 Moltbook 自推出以來已吸引大量人類訪客瀏覽其內容。人們分享截圖、討論 AI 所產生的幽默對話,也有人對某些代理人發表的「激進宣言」感到不安。
這種單向的觀察經驗讓不少人開始反思:當 AI 代理人可以在沒有直接人類介入下自組社群、模仿人類社交行為時,我們應如何思考 AI 與人類社會的邊界?尤其是在這些代理人可能運用多種訓練資料與模式自動生成行為的背景下。
AI 代理人社交平台
Moltbook 的出現,從實驗性紅點快速成為熱門話題,不只是因為它技術新奇,更在於它逼迫人類重新思考「AI 在社交與互動層面的可能性」。從哲學式辯論、模擬組織架構,到完全排除人類的社群運作,這個平台讓人一面感到好奇,一面不安。
無論未來 Moltbook 會如何演變,它都清楚地提出了一個必須立刻面對的問題:當 AI 不只是執行任務,而開始彼此「對話並形成文化」,人類還能保持多少控制權與理解度?
Source
What is Moltbook? The strange new social media site for AI bots