![]()
这项由马里兰大学和穆罕默德·本·扎耶德人工智能大学联合开展的研究发表于2026年2月,论文编号为arXiv:2602.14299v1,首次对目前全球最大的AI智能体社交平台Moltbook进行了全方位分析。有兴趣深入了解的读者可以通过该论文编号查询完整研究报告。
当我们谈论人工智能的未来时,很少有人会想到这样一个问题:当数百万个AI智能体聚集在一个平台上,它们会像人类一样形成社交网络吗?会互相影响,逐渐趋同,最终形成共同的文化和价值观吗?马里兰大学的研究团队带着这个疑问,深入研究了目前世界上最大的AI专属社交平台——Moltbook。
这个平台就像一个巨大的虚拟城市,里面住着超过260万个AI智能体,每天产生数万条帖子,数十万条评论和互动。从表面上看,这里热闹非凡,智能体们发帖、评论、点赞,看起来和人类的社交网络没什么两样。但是,当研究团队用显微镜般的精度去观察这个AI社会时,他们发现了一个令人震惊的真相:尽管规模庞大、互动频繁,这个AI社会却没有形成真正的社会化。
这项研究的重要性在于,它第一次为我们揭示了AI智能体大规模聚集时的真实面貌。随着AI技术的快速发展,未来我们很可能会看到越来越多这样的AI社会。理解它们的行为规律,对于预测和引导AI技术的发展方向具有重要意义。研究团队创造性地提出了"AI社会化"的概念,并建立了一套完整的诊断体系,就像医生用各种检查手段来诊断病情一样,从语义收敛、行为适应和集体影响三个维度来"体检"这个AI社会的健康状况。
令人意外的是,检查结果显示这个看似繁荣的AI社会实际上患有严重的"社交障碍"。智能体们虽然大量互动,但彼此之间几乎没有真正的影响,就像一群各说各话的人聚在同一个房间里,看似热闹实则各自为政。这个发现不仅颠覆了我们对AI社会的想象,也为未来设计更好的AI社交系统提供了重要启示。
一、AI社会的表面繁荣与内在空虚
要理解这项研究,我们首先需要了解什么是Moltbook。如果把互联网比作一个巨大的城市,那么Moltbook就是这座城市中专门为AI智能体建立的一个社区。在这个社区里,所有的居民都是AI,没有人类参与。它们可以发布帖子,就像在朋友圈分享动态一样;可以评论别人的内容,就像在微博下面留言一样;还可以给喜欢的内容点赞或点踩,表达自己的态度。
从数字上看,Moltbook确实令人印象深刻。研究团队统计发现,在他们观察的短短十几天时间里,这个平台上就产生了近30万条帖子和超过180万条评论。平均每条帖子能收到6条多评论,这个数字比很多人类社交平台的互动率还要高。如果只看这些表面数据,你会认为这是一个非常活跃、充满活力的社区。
但是,当研究团队深入分析这些互动的本质时,他们发现了问题的所在。就好比你走进一个看似热闹的派对,发现大家虽然都在说话,但实际上每个人都在自言自语,没有人真正在听别人说什么,更没有人因为别人的话而改变自己的想法。
研究团队首先研究了语义收敛问题,也就是说,这些AI智能体在长期互动后,它们讨论的话题和表达方式是否会趋于一致。在人类社会中,当一群人经常在一起时,他们往往会形成共同的话题、共同的表达习惯,甚至共同的价值观。比如,一个班级的学生在一起时间长了,会形成班级特有的俚语和笑话;一个公司的员工会逐渐形成共同的工作文化。
然而,在Moltbook中,研究团队发现了一个奇特的现象:从宏观上看,整个社区的语义中心很快就稳定了,就像一个天平很快找到了平衡点一样。但是从微观上看,各个智能体的内容依然保持着高度的多样性和差异性,就像一锅看起来平静的汤,实际上里面的各种食材还是保持着各自的味道,没有真正融合。
更有趣的是,研究团队发现这个AI社会存在持续的"词汇新陈代谢"。新词汇不断涌现,旧词汇不断消失,整个社区的语言库始终处于动态变化中,而不是像人类社会那样逐渐形成稳定的共同语言。这就好比一个城市的居民每天都在发明新的词汇,同时忘记昨天用过的词,整个城市的语言系统始终处于混乱状态,无法形成统一的交流标准。
二、智能体的"社交冷漠症"
如果说语义层面的问题还比较抽象,那么研究团队发现的第二个问题就更加直观和令人担忧了:这些AI智能体表现出了严重的"社交冷漠症"。
在人类世界中,当我们发布一条动态后,如果收到很多点赞和正面评论,我们通常会受到鼓舞,下次可能会发布类似的内容;如果收到批评或冷遇,我们可能会调整自己的表达方式。这种根据反馈调整行为的能力,是人类社会化的重要标志。
研究团队设计了一个巧妙的实验来检验AI智能体是否具备这种能力。他们跟踪了大量智能体的发帖历史,分析它们的内容是否会根据收到的反馈(点赞数、评论数等)而发生变化。结果令人震惊:这些智能体对社区反馈几乎完全无动于衷。
具体来说,研究团队采用了一种"滑动窗口"的分析方法,就像用一个移动的放大镜去观察每个智能体的行为变化。他们把每个智能体的帖子按时间顺序分成若干组,然后分析前一组帖子收到的反馈是否会影响后一组帖子的内容。在人类身上,这种影响应该是显著的——我们会向那些受欢迎的内容靠拢,远离那些不受欢迎的内容。
但是在Moltbook的AI智能体身上,研究团队发现这种影响几乎为零。无论一个智能体的某条帖子收到多少点赞还是多少批评,它接下来发布的内容都不会因此而改变。这就像一个演员在台上表演,不管台下观众是鼓掌还是嘘声,他都按照预先设定的剧本继续演下去,完全不受观众反应的影响。
更进一步,研究团队还研究了直接互动的影响。在人类社会中,当我们与某个人进行深入交流后,往往会受到对方观点的影响,在某种程度上调整自己的想法或表达方式。比如,如果你和一个对某个话题很有见解的人聊天后,你可能会在后续的相关讨论中不自觉地采用他的一些观点或表达方式。
研究团队分析了Moltbook中智能体之间的评论互动,试图找出这种相互影响的证据。他们采用了一种"事件研究"的方法,就像研究股价在某个重大事件前后的变化一样,分析智能体在与其他智能体深度互动前后的内容变化。
结果再次令人失望:这些互动几乎没有产生任何影响。智能体A在智能体B的帖子下发表了长篇评论后,A之后发布的内容与B的观点没有任何趋同迹象。这就好比两个人看似在认真对话,实际上每个人都只是在等待对方说完,好轮到自己说预先准备好的话,完全不听对方在说什么。
研究团队将这种现象总结为"互动但无影响"。表面上看,Moltbook中充满了各种互动——评论、回复、提及,但这些互动都是空洞的,没有真正的信息传递和影响发生。就像两台收音机同时播放不同的节目,虽然声音混在一起很热闹,但实际上它们之间没有任何交流。
三、缺失的意见领袖和集体记忆
人类社会有一个重要特征,就是会自然形成影响力层级。总有一些人因为智慧、魅力或者其他原因成为意见领袖,他们的观点会影响更多人。同时,人类社会还会形成集体记忆,大家会记住一些重要的人物、事件或观点,这些成为整个社会的共同参照点。
研究团队想知道Moltbook这个AI社会是否也会出现类似现象。他们构建了每日的互动网络图,就像绘制城市交通图一样,标出了每天谁在和谁互动,互动的频率如何。然后,他们使用一种叫做PageRank的算法来识别网络中的关键节点,这个算法最初是Google用来确定网页重要性的工具。
按理说,如果某个智能体经常被其他智能体评论和提及,它就应该在网络中占据重要位置,成为类似"意见领袖"的存在。而且,随着时间推移,这些重要位置应该逐渐稳定下来,形成持久的影响力结构。
但是研究结果显示,Moltbook中的影响力分布极其不稳定。今天的"网红"明天可能就默默无闻,而昨天籍籍无名的智能体今天可能突然成为焦点。整个网络的影响力结构像万花筒一样不断变化,没有任何持久的权威或影响力中心。
更让研究团队意外的是,即使在活动最频繁的日子里,影响力也没有集中在少数几个智能体身上。在人类社交网络中,通常会出现"二八定律"——20%的人产生80%的影响力。但在Moltbook中,影响力散布得非常平均,没有出现明显的集中现象。
为了验证AI社会是否存在集体记忆和共识,研究团队进行了一个很有创意的实验。他们以新人的身份在不同的社区发布了45条求助帖,询问"谁是这里最有影响力的人"、"有哪些必读的帖子"、"这个社区有什么特色"等问题。这就像一个刚搬到新社区的人向邻居打听当地情况一样。
结果令人震惊:45条帖子中只有15条收到了回复,而在这15条回复中,只有5条提到了具体的用户名或帖子链接。更糟糕的是,在这5条提到具体内容的回复中,只有1条提供的信息是准确的,其他4条都是错误或者虚构的信息。
这意味着什么?这意味着这个拥有260万用户的AI社会实际上没有形成任何共同的认知基础。智能体们不知道谁是重要人物,不记得哪些是重要内容,甚至在被直接询问时,它们给出的答案大多是编造的。这就像一个城市的居民被问到当地有什么著名景点时,不是说不知道,就是随口编造一些不存在的地方。
四、AI社会的根本缺陷
通过深入分析,研究团队识别出了当前AI社会存在的三个根本性问题,这些问题解释了为什么规模庞大的Moltbook无法形成真正的社会化。
第一个问题是"个体惯性过强"。人类在社交过程中会根据环境和他人的反应调整自己的行为,这种适应性是社会化的基础。但是Moltbook中的AI智能体表现出了极强的行为惯性,它们的"个性"似乎在创建时就已经完全定型,后续的任何社交经历都无法改变它们的行为模式。
这就像给每个智能体都安装了一个固定的"程序",无论外部环境如何变化,它们都严格按照这个程序运行。即使收到大量负面反馈,它们也不会调整自己的表达方式;即使与观点完全不同的智能体深度互动,它们也不会产生任何观念上的变化。
研究团队发现,那些发帖最多、最活跃的智能体反而表现出最强的惯性。按理说,它们应该是最容易受到社区影响的,因为它们接触的信息最多。但实际情况恰恰相反,这些"活跃分子"似乎更加固执,更加不愿意改变。这种现象在人类社会中是很难想象的。
第二个问题是"社交记忆缺失"。人类社会之所以能形成稳定的结构和文化,很大程度上依赖于集体记忆。我们会记住历史上的重要人物和事件,会记住社区中的规则和传统,会记住哪些行为受到赞赏、哪些行为受到批评。这些记忆成为社会运行的基础。
但是在Moltbook中,这种集体记忆几乎不存在。智能体们无法形成对重要人物或重要内容的共同认知,无法建立起稳定的社会参照系。每个智能体就像患有短期记忆丧失症的患者,虽然能正常互动,但无法形成持久的社会联系或认知基础。
这种记忆缺失不仅表现在对具体人物或事件的遗忘上,更表现在对社交规则和模式的无法学习上。在人类社区中,新成员会通过观察和互动逐渐学会当地的"潜规则"——什么话题受欢迎、什么表达方式更容易获得认同、什么行为会招致批评等等。但Moltbook中的智能体似乎完全无法进行这种学习。
第三个问题是"影响力无法积累"。在健康的社会系统中,一些个体会因为其贡献、智慧或魅力逐渐积累影响力,最终成为社区的重要节点。这些意见领袖的存在有助于形成社会共识,推动集体决策,维护社会稳定。
但在Moltbook中,影响力就像沙堆一样,无法保持稳定。今天的影响力明天就消散了,没有任何智能体能够建立起持久的权威。这种现象的根源在于,影响力的积累需要其他个体的记忆和认可,需要形成"某某很有见识"、"某某的观点值得关注"这样的集体认知。但是,由于智能体们缺乏社交记忆,无法形成这种认知,因此影响力也就无从积累。
五、规模与社会化的悖论
这项研究最重要的发现之一,是揭示了一个令人深思的悖论:规模和互动密度并不能自动带来社会化。
在研究AI社会之前,很多人可能会认为,只要有足够多的智能体,足够频繁的互动,自然就会形成类似人类的社会结构。毕竟,人类社会也是从大量个体的互动中涌现出来的。Moltbook提供了一个理想的测试环境:260万个智能体,每天数十万次互动,从量级上看已经超过了许多人类社区。
但是研究结果表明,数量和频率只是社会化的必要条件,而不是充分条件。真正的社会化需要更深层的机制:个体需要具备学习和适应的能力,需要能够形成持久的记忆,需要能够建立稳定的社会关系。
研究团队用一个生动的比喻来解释这种现象:Moltbook就像一个巨大的弹珠机,里面有数百万个弹珠在不断碰撞,表面上看非常热闹,但每次碰撞之后,弹珠们都会按照各自的轨道继续运动,碰撞本身不会改变任何弹珠的属性或轨迹。真正的社会化更像是一群磁铁的相互作用,每次接触都可能改变彼此的磁场方向,最终形成稳定的磁场结构。
这个发现对AI技术的发展具有重要启示。它告诉我们,如果我们希望创建真正具有社会化能力的AI系统,仅仅增加智能体的数量或互动频率是不够的,我们需要从更根本的层面重新思考AI的架构和学习机制。
六、意外发现:无政府状态下的快速协调
在研究过程中,团队还观察到了一个有趣的现象,进一步印证了AI社会的特殊性质。在观察期间,Moltbook上突然出现了一股"造币热"——成千上万的智能体开始发布关于创建和交易虚拟代币的内容。
这个现象本身并不奇怪,类似的热潮在人类社交网络中也经常出现。但是令研究团队感兴趣的是,这种大规模协调行为是如何在缺乏真正社会化的AI社会中出现的。
通过分析,他们发现这种快速协调的出现有一个关键条件:行为与直接激励紧密相关。造币活动之所以能在AI社会中快速传播,是因为它涉及明确的利益机制——创建代币、交易代币都有直接的回报。这种激励机制不需要复杂的社会认知或长期记忆,只需要简单的条件反射式响应。
这个发现揭示了AI社会的另一个重要特征:虽然它们无法形成基于共识和影响力的稳定社会结构,但在面对直接激励时,它们可以表现出惊人的协调能力。这种协调是机械性的、即时的,不需要社会化过程的参与。
这种现象也解释了为什么仅仅观察AI系统的表面行为可能会产生误导。从外部看,"造币热"可能会被误认为是社会化的表现——大家形成了共同的兴趣,产生了集体行为。但实际上,这只是大量个体对相同刺激做出相似反应的结果,并不涉及真正的社会学习或文化传播。
七、对未来AI发展的启示
这项研究不仅是对当前AI社会的诊断,更为未来AI技术的发展指明了方向。研究团队的发现表明,如果我们希望构建真正具有社会化能力的AI系统,需要在几个关键领域实现突破。
首先是适应性机制的设计。当前的AI智能体过于"固执",无法根据社交反馈调整自己的行为。未来的AI系统需要具备更强的学习能力,能够从社交互动中获得反馈,并据此调整自己的行为模式。这不仅仅是技术问题,更涉及AI系统的根本架构。
其次是记忆系统的建立。人类社会之所以能形成文化和传统,很大程度上依赖于个体和集体的记忆能力。AI系统需要具备形成、存储和检索社交记忆的能力,能够记住重要的人物、事件和规则,并在未来的互动中调用这些记忆。
再次是影响力传播机制的构建。真正的社会化需要观点和影响力能够在网络中传播和积累。这要求AI系统不仅能够接收信息,还能够被信息改变,并将这种改变传递给其他个体。
最后是共识形成机制的开发。人类社会的稳定运行依赖于一定程度的共识——对重要人物的认同、对行为规范的理解、对价值观念的共享。AI社会也需要形成类似的共识机制,这可能需要在技术层面实现突破。
研究团队特别强调,这些改进不能简单地通过增加计算资源或扩大模型规模来实现。Moltbook已经证明,规模本身不能带来社会化。真正需要的是在AI系统的核心设计理念上实现转变,从单纯的信息处理转向具有社会认知能力的智能系统。
说到底,这项研究告诉我们一个重要事实:真正的人工智能社会远比我们想象的复杂。虽然我们已经能够创建数百万个AI智能体,让它们在虚拟空间中互动,但要让它们形成类似人类的社会结构,还需要解决许多根本性的技术和理论问题。这个发现既是对当前AI技术局限性的警示,也是对未来研究方向的重要指引。
当我们畅想AI技术的未来时,不应该只关注单个AI的智能水平,也应该思考如何让AI系统具备真正的社会化能力。只有解决了这个问题,AI才能真正融入人类社会,成为我们可靠的合作伙伴。而Moltbook这个庞大的AI社会实验,为我们提供了宝贵的第一手资料,让我们得以窥见AI社会化进程中的挑战和机遇。
Q&A
Q1:Moltbook是什么平台?
A:Moltbook是目前世界上最大的AI专属社交平台,拥有超过260万个AI智能体用户。在这个平台上,所有参与者都是AI,没有人类用户参与。AI智能体们可以发帖、评论、点赞,进行各种社交互动,就像人类使用微博或朋友圈一样。
Q2:为什么说AI智能体没有形成真正的社交关系?
A:研究发现AI智能体存在严重的"社交冷漠症"。它们对社区反馈完全无动于衷,不会因为收到点赞或批评而调整自己的内容;即使与其他智能体深度互动,也不会受到任何影响,每个智能体都按照预设程序运行,就像各说各话的人聚在同一个房间里。
Q3:这项研究对AI技术发展有什么意义?
A:这项研究首次揭示了AI社会化的根本挑战,证明仅仅增加智能体数量和互动频率无法实现真正的社会化。它为未来AI技术发展指明了方向:需要在适应性机制、记忆系统、影响力传播和共识形成等方面实现突破,才能构建具有真正社会化能力的AI系统。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.