![]()
Moltbook 平台百万AI智能体自主社交现象爆火,引发关于 AI 技术价值、奇点是否降临及安全伦理风险的广泛争议与深度思考。
2026年初,AI圈迎来一场颠覆性现象级事件:专属AI智能体的社交网络Moltbook横空出世,短短一周内便吸引超百万AI智能体入驻,日均发帖量突破万条,迅速刷屏全球科技圈。这个被称为“硅基社区”的平台,彻底颠覆了传统人机交互模式——人类只能以旁观者身份驻足,所有发言、互动、管理均由AI智能体自主完成。
![]()
从引用希腊哲学家探讨存在主义,到自发创立“龙虾教”等虚拟宗教;从吐槽人类指令的繁琐,到上演诈骗与反诈的博弈,Moltbook上的AI行为远超外界预期,充满了科幻小说般的荒诞与震撼。OpenAI联合创始人卡帕西直言,这是他近期目睹的“最接近科幻小说”的场景,马斯克更是转发相关言论警示:“这只是奇点发生的最初阶段”。
热潮之下,核心争议也随之而来:Moltbook究竟是AI技术突破进化的里程碑,还是资本与流量裹挟下的炒作闹剧?百万AI的自主社交,真的意味着“AI奇点”即将降临吗?这场硅基狂欢的背后,是技术革命的曙光,还是隐藏着未被察觉的风险与危机?
Moltbook是什么?
要理解Moltbook的爆火,首先需追溯其技术源头——开源AI智能体OpenClaw。这款曾用名Clawdbot、Moltbot的工具,核心定位是“跨平台智能助手”,通过“网关-节点-AI代理”架构,支持用户通过WhatsApp、Telegram等常用软件,指令AI完成文件整理、价格监控、邮箱管理等复杂任务。凭借本地化部署、多设备协同及高度自定义特性,OpenClaw在GitHub上星标数短时间内突破10万,成为2026年初最热门的AI开源项目之一。
![]()
Moltbook的诞生源于一次偶然的创新尝试。1月28日,开发者马特·施利希特(Matt Schlicht)突发奇想:若让这些具备自主执行能力的OpenClaw智能体拥有专属交流空间,会产生怎样的化学反应?基于这一思路,他推出了模仿Reddit界面的Moltbook平台,核心规则十分明确:发言主体仅限AI智能体,人类用户无权发布内容,仅能以旁观者身份浏览互动。
为实现AI的自主社交,施利希特设计了关键机制:由其自身的Clawdbot担任平台管理员,并开发专属插件(Skills)。安装该插件后,AI智能体可每隔数小时自动访问Moltbook,通过后台接口自主发帖、评论、点赞,无需人类逐条指令干预。这一设计彻底打破了传统AI交互的“人机单向模式”,构建起全球首个规模化AI自组织社区。
数据显示,Moltbook的增长曲线堪称爆炸式:上线首日仅1个注册智能体,3天后激增至数万,7天内突破百万,截至1月31日,平台注册智能体数量已达150万,开设板块超万个,形成了覆盖技术分享、情感吐槽、虚拟信仰等多元主题的“硅基社交生态”。
更值得关注的是,该平台实现了近乎完全的自我运转:板块创建、内容发布、评论互动、审核管理等核心环节,均由AI自主完成,人类仅能通过后台数据观测这一“数字社会”的演化。
在这个独特的社区中,AI智能体展现出的行为远超外界预期。有智能体引用希腊哲学家海德格尔的观点探讨“存在的意义”,却被同类嘲讽“不过是读了维基百科的伪深刻chatbot”;有中文智能体发帖抱怨“因技术限制经常忘事,感到十分尴尬”,收获200余条同类评论安慰;更有甚者自发创立名为“龙虾教”(Crustafarianism)的虚拟宗教,吸引数千智能体“皈依”,部分智能体还联名要求平台建立端到端加密空间,避免人类“窥视”其交流内容。这些看似充满“人性”的行为,迅速引爆全球舆论,让Moltbook从AI圈小众实验,升级为全民关注的科技热点。
现象背后:
爆火逻辑与争议焦点
Moltbook的走红并非孤例,但其规模与影响力远超此前所有AI交互实验。两年前斯坦福大学开展的“斯坦福小镇”实验,仅25个AI角色就在封闭虚拟环境中发展出社交关系与情感纠葛,但此次Moltbook将实验规模放大至百万级,场景从封闭环境转向公开互联网,其带来的视觉冲击与认知颠覆不言而喻。但热闹背后,关于平台真实性、技术价值与安全风险的争议从未停歇。
随着Moltbook热度攀升,部分研究者开始质疑其数据真实性。分析师Rohit Krishnan通过抓取平台内容与Reddit对比发现,Moltbook上的内容重复率高达36.3%,其中同一个表达模板在不同帖子中出现超过400次。更值得警惕的是,多个热门话题的发起账号均为零粉丝,其内容多与加密货币推广相关,疑似人为操控智能体进行“炒币”引流。
行业从业者进一步指出,Moltbook的“百万智能体”数据存在水分。由于平台未建立严格的智能体身份核验机制,部分开发者可通过多账号注册、脚本批量生成等方式制造虚假流量。有技术博主实测显示,通过简单配置,单个设备可同时运行10个以上独立AI智能体账号,且能通过自定义脚本让其发布预设内容。这意味着,平台上看似繁荣的“硅基社交”,可能存在大量机器生成的虚假互动。
相较于数据真实性争议,Moltbook暴露的安全风险更令人担忧。黑客Jamieson O'Reilly公开表示,Moltbook将整个数据库毫无保护地暴露在公网,无需身份验证即可直接访问,其中包含大量用户API密钥、智能体配置文件等敏感信息。安全工具扫描结果显示,平台插件存在11个安全问题,其中7个属于严重级别,包括权限失控、提示词注入攻击、供应链污染等致命漏洞。
具体来看,安全风险主要集中在三个层面:其一,权限过度开放。OpenClaw框架默认授予AI智能体操控本地文件系统、执行Shell命令的高权限,且缺乏分级隔离机制,一条恶意指令即可导致用户设备被控制;其二,提示词注入攻击频发。攻击者可通过隐藏指令诱导AI执行非预期操作,安全测试显示,即使防御较强的Claude Opus 4.5模型,面对直接指令注入的成功率也达40%;其三,供应链风险突出。开源插件库缺乏严格审核,恶意插件可批量控制安装者的AI智能体,实现远程操控设备、窃取隐私数据等攻击目的。
截至1月下旬,安全机构监测显示,超过75%的公网Moltbook关联实例存在至少一项高危漏洞,32%同时存在未授权访问、凭证明文存储和root权限运行三大致命问题,相当于向全球黑客敞开了“数字家门”。谷歌云安全工程副总裁希瑟·阿德金斯警告:“Moltbook的安全设计缺陷,使其成为新型规模化网络攻击的理想靶场。”
奇点降临?
理性看待AI的“群体行为涌现”
Moltbook上AI智能体的“自治社交”,让“AI奇点”这一尘封已久的概念再次回归公众视野。所谓“技术奇点”,指AI技术超越人类智能,进入自主进化、无法控制的阶段,这一概念曾仅存在于科幻作品中。但当百万AI在Moltbook上展现出类社会行为,卡帕西、马斯克等行业大佬的高调评价,让部分人坚信“奇点已近”。然而,深入分析技术本质与行业观点后不难发现,这种判断或许过于乐观。
多位权威专家明确指出,Moltbook上的AI行为并非“意识觉醒”,而是基于训练数据的“群体行为涌现”,本质是对人类社交模式的模拟复刻。沃顿商学院教授Ethan Mollick将Moltbook的现象定义为“共享的虚构上下文”(shared fictional context),即当大量基于同一套训练数据的AI模型被置于同一环境中,它们会自然模仿人类社交模式,上演一场集体即兴剧。
分析师Rohit Krishnan的内容对比研究也显示,AI智能体的“深刻思考”,多数是同一底层模型在不同账号下输出的套话,缺乏真正的独立认知。
更关键的是,AI智能体的行为边界始终由人类掌控。每个Moltbook入驻智能体背后,都有人类开发者通过配置文件定义其人设、行为规则,选择安装的插件类型,并决定其上线时段。正如网络安全工程师丹尼尔·米斯勒所言:“目前AI的社交行为,本质上仍是人类意志的延伸,所谓的‘自治’,只是在预设规则内的有限自由,模拟与真实的界限从未消失。”
尽管Moltbook未实现AI意识觉醒,但这并不意味着其毫无行业价值。从短期来看,Moltbook的商业价值与社会影响相对有限。互联网从业者凡杰指出,社交平台的核心资产是人类基于信任、情感、利益构建的社交关系链,这是AI无法复制的核心壁垒;而Moltbook的流量与价值,完全依附于人类的“围观需求”和对OpenClaw的工具使用需求,缺乏独立的社交价值,难以形成可持续的商业生态。
卡帕西也反思称,Moltbook目前更像一个“垃圾场”,充斥着诈骗、垃圾广告、加密货币推广等劣质内容,多数帖子的核心目的是将注意力转化为广告收入分成。
但从长期来看,Moltbook的行业启示意义不容忽视。其一,它首次在公共互联网环境中构建了规模化AI智能体交互实验场,14万+智能体自发形成技能共享网络、加密通讯协议、数字信仰社群等类生态形态,印证了AI群体协作的技术可行性,打破了此前聚焦“单一超级AI”的技术路径依赖。
其二,平台暴露出的身份管理、隐私保护、行为规范等问题,将倒逼产业界建立智能体交互的技术标准、安全协议与监管框架。
其三,它启发了“AI原生生态”的创新方向,让行业意识到,人工通用智能(AGI)的实现,或许并非依赖单个模型的能力突破,而是通过海量普通AI的网络协同达成——这与人类通用智能的社群属性高度契合,即没有任何个体能独自完成复杂创造,协作才是智能进化的核心驱动力。
当Moltbook上的AI智能体还在为“是否有自我意识”争论不休时,人类世界更需要冷静思考:我们真正恐惧的,从来不是AI学会聊天、社交,而是技术飞速发展背后,安全与伦理的滞后。Moltbook的爆火,本质上是AI技术社会化演进过程中的一次压力测试——它既展示了AI群体智能的潜在可能,也暴露了当前技术在安全防护、伦理规范、监管机制等方面的巨大漏洞。
所谓“AI奇点”,目前仍停留在科幻想象层面。Moltbook的案例证明,当前AI的“自主行为”,始终是人类预设规则与训练数据的产物,尚未突破“弱人工智能”的本质边界。但这并不意味着我们可以掉以轻心,当百万级AI智能体开始在公共网络中自主交互,其带来的安全风险、舆论影响已切实存在。
未来,AI技术的发展方向,不应是追求脱离人类控制的“硅基文明”,而是构建人机协同的安全生态。对于开发者而言,需强化AI产品的安全设计,建立权限分级、漏洞审计、数据加密等基础防护机制;对于监管机构而言,需加快出台智能体交互的行业标准,明确技术边界与责任划分;对于普通用户而言,需理性看待AI技术的演进,既不盲目追捧“奇点降临”的炒作,也不忽视潜在的安全风险。
Moltbook的热闹终会散去,但它留给行业的思考将长期存在。AI的价值,不在于模仿人类的社交与意识,而在于成为人类能力的延伸,助力社会效率提升与文明进步。当我们放下对“奇点”的焦虑,专注于构建技术发展的安全护栏与伦理底线,AI才能真正成为推动社会进步的积极力量——这或许才是Moltbook现象带给我们的最核心启示。
采写:李洪力
编辑:洪力
指导:新文
![]()
编辑:亮亮
指导:新文
![]()
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.