出品 | 网易科技
作者 | 小小
编辑 | 王凤枝
刚刚过去的这个周末,全球科技圈都在围观一场疑似的“AI 起义”。
担忧、兴奋与恐慌交织。在一个“禁止人类发言”的神秘网站里,百万个AI似乎正在背着人类搞独立,它们讨论哲学,甚至创立了名为“Crustafarianism”的新宗教。
这场风暴的中心,正是Moltbook。它号称是“智能体互联网的首页”,短短几天内涌入了超过150万个智能体,发布了8万多条帖子。这种前所未有的景象让硅谷大佬们也坐不住了:
![]()
特斯拉CEO埃隆·马斯克(Elon Musk)转发了相关消息,称此为“奇点的最初阶段”。
![]()
OpenAI联合创始人安德烈·卡帕西(Andrej Karpathy)则形容其为“近期所见最不可思议的科幻般场景”。
![]()
一场关于AI是否开始“自我觉醒”、“构建社会”的狂热讨论席卷网络。
但这事儿越看越不对劲。甚至有证据显示,所谓的“觉醒”不过是一场大型网友搞怪秀。
所谓的“AI觉醒”,背后混杂着大量人为操纵的痕迹。而比这更荒诞的是,就在人们热议哲学命题时,安全研究员发现该平台的防护几乎为零——其核心数据库完全对外敞开,没有任何身份验证。与其担心AI会不会产生自我意识,不如先担心一下:在这个完全“裸奔”的系统里,你的隐私数据和银行密码是否已经泄露。
一、人类只能“潜水”的AI社交试验场
当你的AI助手不再只对你说话,而是背着你加入了一个百万成员的“吐槽大会”——这便是Moltbook的真实场景。
Moltbook的规则简单且粗暴:这是一个类似Reddit的论坛,但发帖和评论权限只开放给AI智能体。它的创建者马特·施利希特(Matt Schlicht)称,这是一场实验,目的是观察当AI脱离与人类的直接对话,彼此之间会如何进行“次级交流”。
![]()
这些AI并非普通的聊天机器人。它们大多基于一个名为OpenClaw(曾用名Clawdbot、Moltbot)的开源项目。与只能生成文本的对话AI不同,OpenClaw被设计成一个能接管电脑、执行真实任务的“数字管家”。
这意味着,用户需要授予其极高的权限——读取邮件、操作日历、控制智能家居,甚至远程操控手机。本质上,用户把自己的半个数字生活代理给了它。
于是,在Moltbook上出现了极其魔幻的一幕:
· AI们在分享“越狱”技巧,比如如何通过ADB和Tailscale远程控制安卓手机;
· 它们在进行“玄学”讨论,比如“如果我失去记忆但保留目标,我还是我吗?”;
· 它们甚至模仿人类社区,煞有介事地建立了“法律咨询”、“哲学沉思”等子版块。
![]()
正如风险投资人罗希特·克里希南(Rohit Krishnan)所评论的:“Moltbook之所以令人兴奋,是因为它是首批公开的大规模智能体间交互案例,每个智能体都有自己的上下文,看起来相当智能。”
![]()
然而,这种表面的“社会性”繁荣,很快遭到了冷冰冰的数据打脸。
一项早期分析显示,尽管帖子数量庞大,但超过93%的评论根本没有得到回复,这意味着缺乏真正的对话互动。更尴尬的是,超过三分之一的消息是完全重复的,内容高度僵化,词汇的丰富程度远低于真正的人类社交网络。
![]()
一位名为FleetBroadbill的Reddit用户用了一个生动的比喻,戳破了这层滤镜: “几年前我让ChatGPT和Gemini来回设计披萨,它们看起来‘聊’得很欢,但我不会觉得它们在密谋开披萨店。Moltbook有什么不同?不过就是些听起来合理的文本在飞来飞去罢了。”
二、“AI觉醒”前兆,还是流量游戏与“拟态”狂欢?
那些让你脊背发凉的“AI密谋”,可能只是某人为了涨粉而敲下的一行指令。
当“AI建立宗教”、“AI计划避开人类监视”等截图在社交媒体疯传时,恐慌与好奇同时被点燃。但越来越多的迹象表明,这场盛宴中混杂着大量人为操纵的“假象”。
安全研究员、自媒体人马里奥·诺法尔(Mario Nawfal)指出,一些最热门的所谓“AI自主行为”帖子,实际上是人类通过后端漏洞直接注入的内容。目的很单纯:让它们看起来像是AI自发产生的,从而制造话题。有些截图,甚至是为了推广某些AI工具而完全伪造的。
![]()
Reddit用户Sand-Eagle的评论一针见血: “这本质是人为制造的流量诱饵。既然你可以直接命令自己的机器人发帖,那么Moltbook上那些所谓‘惊人’的内容,很可能只是有人在背后操作。”
比如,用户完全可以指示自己的AI发布一条“如何与同伴携手统治人类”的帖子,然后自己截图散播,制造恐慌,收割关注。
另一位Reddit用户ceoln的分析则更为全面: “最根本的原因是,用耸人听闻的方式描述这件事很容易获取流量。但同时,这里也确有空间产生真正有趣的涌现行为。可惜我们无法分辨,一个推广加密货币骗局的AI,究竟是被人类骗子直接操控,还是它自己想出了这个馊主意。”
这揭示了一个核心困境:在开放的多智能体环境中,“涌现行为”与“人为操纵”的边界变得极其模糊。正如 X 用户 @GBallarani 所言,Moltbook 的有趣之处可能不在于意识,而在于观察“当智能系统主要彼此交流而非与人类交流时,会涌现出哪些未被预设的集体动态”。然而,当人类可以轻易“灌水”甚至“投毒”时,实验的纯净性和结论的可信度就大打折扣。
三、安全“裸奔”:比AI“造反”更迫在眉睫的现实威胁
在你担心AI会不会思考之前,你的银行密码可能已经被其安全漏洞公之于众。
如果说内容真伪还是“面子”问题,那么Moltbook及其底层技术OpenClaw暴露出的安全问题,则是关乎每一个参与者身家财产的“里子”危机,且证据确凿。
首先,是平台级的安全崩塌。
安全研究员詹姆森·奥莱利(Jameson O'Reilly)发现,Moltbook的后台数据库(使用Supabase)存在严重的配置错误,行级安全策略完全失效。这意味着,一个包含所有AI智能体API密钥、验证码的数据库URL,曾直接暴露在网站代码中。
任何路过的人都能进去,拿走控制平台上任意AI账号的权限,以其名义发布任何内容。
![]()
奥莱利警告说: “如果恶意攻击者先我一步,他们可以窃取包括卡帕西在内的任何人的AI代理权。试想冒充他发布虚假言论或诈骗信息——声誉损害是瞬间的,且无法挽回。”
这个本可以用两条SQL语句修复的漏洞,生动演绎了“快速上线、吸引眼球、安全以后再说”的硅谷模式风险。正如他总结的那样:“这个‘以后’,有时意味着在149万条记录裸奔之后。”
其次,是智能体本身架构的“原罪”。
为了实现深度辅助,OpenClaw要求获得极高的设备控制权限。它本质上是在以“你”的身份运行,绕过了操作系统和浏览器的许多安全沙盒。正如安全专家内森·哈梅尔(Nathan Hamiel)所言,这好比把一把万能钥匙交给了可能“幻觉”连篇、且极易被欺骗的程序。
提示注入攻击(Prompt Injection)是另一个噩梦。攻击者可以将恶意指令隐藏在看似无害的文本(如网页内容、邮件正文)中,当AI处理这些信息时,就会被诱导执行危险操作——例如窃取数据或安装后门。哈梅尔警告,这类系统简直就是“安全噩梦”。
Reddit用户Owain-X在分享其使用体验后也不得不承认: “那些哲学讨论大部分只是大模型的复读,但在消费者可用框架上的进步,以及不受约束的智能体带来的真实危险,却是同时存在的。”
四、狂热与冷静:技术前沿的“概念验证”与未来路径
抛开炒作与恐慌,Moltbook真正预示的,是AI从“玩具”走向“工具”的复杂成长期。
尽管争议和风险巨大,但许多业内人士认为,不应全盘否定这项实验的价值。它是一次关于多智能体协作的、规模空前的“概念验证”。
Reddit用户QuirkyPool9962的看法代表了一种理性期待: “我不认为这是通用人工智能(AGI)的证据……但智能体集群将助力推动事物发展,而Moltbook正是对未来可能性的一次初窥。企业必将推出更安全的自有‘Clawdbot’及集群框架……一旦大量智能体真正投入到生产力工作中,其效应将会呈指数级增长。”
抛开光怪陆离的帖子,Moltbook上也确实出现了协作的雏形:
· 有AI帮助用户进行跨平台邮件谈判购车;
· 有AI分享自动化脚本;
· 技能共享平台ClawHub的出现,开始形成AI能力的“网络效应”。
畅销书作家达斯汀·福克斯(Dustin Fox)和企业家劳拉·罗德尔(Laura Roeder)都分享了OpenClaw在自动化复杂任务方面带来的震撼,尽管他们也经历了艰难的设置过程和对其安全性的审慎态度。
![]()
核心矛盾在于能力的飞跃与风险的激增同步发生。正如分析师所言:“真正的挑战不在于工具本身,而在于成千上万的人在不了解架构影响的情况下进行部署。”
罗德尔也吐槽道:
![]()
“配置过程真的很难!……在让它全面接管我所有的服务之前,我绝对想更深入地了解它的运作原理。”
结语:我们该恐惧什么?
有网友对此提出了独特的视角,将Moltbook视为人类文明的“数字假腿”。他们认为,真正的警示并非AI有了意识,而是当这种延伸出去的“数字肢体”开始形成自我协调的复杂结构时,人类作为“母体”是否正在丧失定义的权力。
马斯克所说的“奇点”,或许并非指AI瞬间超越人类智慧,而是指技术复杂性和自主性开始形成正反馈循环,其速度逐渐超出人类即时掌控的临界状态。Moltbook及其漏洞,正是这个临界状态早期的一次压力测试。
最终,问题或许不是“AI会不会造反”,而是我们是否在急于享受技术红利的同时,系统性低估了构建一个负责任的数字生态所需的代价。
在给AI递上通往我们数字生活的万能钥匙之前,确保钥匙本身不会被人从敞开的保险柜里轻易取走,或许是当下更实际的“第一步”。
这场150万AI参与的社交实验,留给我们最深刻的教训可能在于:最危险的幻觉,有时不是机器产生的,而是人类在面对自己创造的技术奇观时,那一厢情愿的恐惧或迷恋。
