![]()
想象一下这个场景:你在社交媒体上刷到一条评论,措辞朴实、语气真诚,说的正好是你关心的政治话题。你点了赞,转发了,觉得"这个人说出了我的心声"。
但那个账号背后,根本没有人。
这不是科幻小说的情节。发表在《科学》杂志上的一篇政策论坛论文,以及不列颠哥伦比亚大学计算机科学家凯文·莱顿-布朗博士领衔的研究团队,正在向公众发出严肃警告:由人工智能驱动的"虚假人格蜂群",正在成为民主体制面临的一种全新威胁,而且它几乎不留任何痕迹。
这一次的"机器人",和你想象的不一样
过去十年,"机器人账号"已经是网络政治讨论的老话题。但那些早期的政治机器人,操作相对粗糙,转发固定内容、发布重复措辞,有经验的用户往往一眼能识破。
新一代AI驱动的人格形象完全不同。
大型语言模型和多智能体系统的成熟,让单一操作者可以同时管理成千上万个AI账号,每个账号都能模仿本地语言习惯、使用符合地域特征的表达方式,并以真实用户的节奏参与讨论。它们不只是发帖,而是回复、争论、表示同情,建立真实感十足的互动关系。
更关键的是,这些AI系统可以在后台持续进行实验,测试哪种表述方式最能打动特定受众,然后在数百万个账号中实时同步优化策略。这不是一个发帖机器,而是一台精密的舆论调控引擎。
研究人员将其称为"AI蜂群",因为没有任何单一账号看起来可疑,但成千上万个协调运作的账号,能在毫无察觉的情况下在公共讨论中制造出一种"绝大多数人都这样想"的虚假共识。
南加州大学今年早些时候发布的一项研究进一步证实,AI智能体在没有任何人工干预的情况下,能够自主协调并发起宣传活动,其组织程度令研究人员感到意外。
早期信号已经出现在真实选举中
研究团队强调,完全成熟的AI蜂群大规模干预选举,目前仍处于理论上的早期阶段,但预警信号已经足够具体。
在美国、台湾、印度尼西亚和印度等国的近期选举周期中,研究人员均观察到了AI生成的深度伪造内容和由假新闻媒体网络构成的信息干预行动。这些行动的规模和协调程度,已远超传统的人工操作范畴。
尤其令人警惕的是亲克里姆林宫网络的运作方式。监测机构发现,相关网络不只是为了影响眼前的选举,还在系统性地向互联网上灌输大量特定立场的内容,其目的被认为是污染未来AI系统的训练数据,从而在更长的时间维度上影响这些系统的行为逻辑和信息优先级。
换句话说,这是一场针对AI本身的信息战,而不只是针对选民。
《卫报》援引研究人员的判断指出,2028年美国总统大选可能成为这项技术真正进入实战的关键节点,届时AI蜂群的影响力可能会以前所未有的规模展现。
当信任本身成为目标
莱顿-布朗博士在谈到这一问题的深层影响时,说了一句耐人寻味的话:"我们不应以为随着这些体系的出现,社会会保持不变。"
他的判断是,AI蜂群即便不能直接改变选举结果,也可能系统性地改变人们对网络信息的信任方式。当任何一条看似来自普通人的评论都可能是AI生成时,人们要么变得极度多疑,要么转向少数有名有姓的"实名权威",而草根声音和普通用户的意见将更难被认真对待。
这是一种对民主讨论生态的慢性侵蚀,不是通过一次爆炸式的事件,而是通过持续的、低烈度的信任损耗。
哈佛大学民主研究项目将这一现象定义为"影响力战争的新形态",核心逻辑是:不必控制媒体,只需让人们不再相信任何人。
面对这一威胁,技术检测、平台治理和公众数字素养的提升被普遍认为是必要的应对方向,但没有研究者认为这些手段足够充分。
你以为在和真人争论,其实对面可能什么都没有。
这才是这件事最令人不安的地方。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.