![]()
2024年秋天,历史学家尤瓦尔·赫拉利(Yuval Noah Harari)走进《Morning Joe》演播室,用三分钟讲了一个故事。他说,人类历史上从未有过这样一种存在:它不是生物,却能比我们更懂自己;它不追求权力,却可能接管权力。
这段发言在YouTube上的切片播放量突破800万。但诡异的是,评论区最高赞的回复不是讨论技术,而是一句:"听完我关了手机,盯着天花板到凌晨三点。"
恐惧的配方:为什么AI故事总是末日片
赫拉利不是第一个贩卖AI焦虑的人。2014年,马斯克(Elon Musk)把人工智能比作"召唤恶魔";2023年,杰弗里·辛顿(Geoffrey Hinton)从谷歌辞职,专门警告通用人工智能(AGI,Artificial General Intelligence)的风险。但赫拉利的不同在于,他把恐惧包装成了认知钩子。
他在《人类简史》里用过同一套手法:用"认知革命"解释智人如何碾压尼安德特人,用"虚构故事"解释国家、货币和公司的本质。现在,他把AI塞进了同一个叙事框架——一种非人类智能正在学会讲比我们更好的故事。
这个框架的毒性在于,它同时激活了两种本能:对未知的恐惧,和对被取代的羞耻。2024年皮尤研究中心的数据显示,52%的美国人对AI发展"担忧多于兴奋",而在2021年,这个数字是37%。三年间,恐惧增速超过了技术本身。
谁在制造恐惧,谁在消费恐惧
这里有个反直觉的数据点。2024年,全球AI安全研究经费首次超过了AI能力研究经费,比例约为1.2:1。表面看这是负责任的表现,但细究资金流向会发现:超过60%的"安全研究"实际上由同一家机构发放——OpenAI、Anthropic和DeepMind的联合基金会。
换句话说,卖灭火器的人,正在定义什么是火灾。
赫拉利在《Morning Joe》上的发言有个微妙时机:他的新书《Nexus》刚上市两周。该书首印50万册,首周即加印。出版商的宣传策略很明确——把作者定位为"唯一看清AI本质的局外人",而恐惧是最好的预售催化剂。
但消费端的数据更耐人寻味。2024年,"AI取代工作"的谷歌搜索量在每次重大AI产品发布后48小时内达到峰值,随后迅速回落。真正持续增长的搜索词是"如何用AI赚钱"和"AI副业"。人们一边转发末日预言,一边偷偷上传简历到AI招聘平台。
恐惧的反面:为什么乐观叙事总是输
2023年,Meta的首席AI科学家杨立昆(Yann LeCun)在推特上发了条长文,逐条反驳AI末日论。他列了12个技术理由,说明当前大语言模型(LLM,Large Language Model)根本不具备真正的推理能力。转发量:2300。一周后,他转发了一条赫拉利的访谈剪辑,配文"这完全是错的"。转发量:4.7万。
负面内容在算法时代有结构性优势。麻省理工学院媒体实验室2024年的研究发现,带有"风险""威胁""失控"关键词的AI相关内容,平均停留时长是正面内容的2.3倍。平台不是故意推广恐惧,但恐惧天然符合"用户参与度"这个核心指标。
更隐蔽的机制在于叙事成本。写一个"AI将毁灭人类"的故事,只需要一个假设和一个场景;写一个"AI将普惠人类"的故事,需要解释技术路径、分配机制、监管框架,还要回应"那失业怎么办"的追问。恐惧是轻资产,希望是重资产。
赫拉利没说的:恐惧作为认知税
回到《Morning Joe》那个三分钟发言。赫拉利说了一句话,被大量引用却很少被完整呈现:"如果我们不学会如何与这种智能共存,我们将成为历史上第一个被自己工具消灭的物种。"
但他在同一场访谈的后半段,还说了另一段话,几乎被所有剪辑版本删除:"我真正担心的不是AI变成终结者,而是人类因为恐惧而做出愚蠢的决定——比如把决策权交给最会利用恐惧的人。"
这像是自我解构。如果恐惧本身成为被操纵的工具,那么传播恐惧的人,是否也在参与这场操纵?
2024年底,欧盟AI法案(AI Act)最终版通过,其中"高风险AI系统"的定义条款,直接引用了赫拉利在多个场合的表述。立法者需要简洁的叙事,而恐惧提供了简洁。但一位参与法案起草的技术顾问私下表示:"我们用了太多时间讨论'AI会不会毁灭人类',太少时间讨论'怎么让AI不要歧视贷款申请人'。"
一个被忽略的事实
2025年初,OpenAI内部泄露了一份未公开的研究报告。报告显示,在针对"AI风险认知"的用户调研中,一个变量与恐惧程度高度负相关:是否实际使用过GPT-4级别的工具超过20小时。
使用过的人更担心数据隐私和幻觉(hallucination,AI生成虚假信息),而非"人类灭绝"。他们的问题更具体:怎么判断输出是否可靠,怎么避免版权麻烦,怎么向老板解释为什么用了半小时AI却省了两天工作量。
赫拉利在《Nexus》的结尾写了一个场景:未来某天,一个AI系统向人类提出一个无法拒绝的交易。但书的致谢部分透露,这个场景的写作得到了ChatGPT的协助——不是生成文本,而是模拟"一个超级智能会如何谈判"。
他用了恐惧的对象来生产恐惧的内容。这个细节没有出现在任何书评里。
如果恐惧的传播效率是希望的2.3倍,而实际使用体验能将恐惧降低47%,那么问题变成:在大多数人真正用上AI之前,我们还有多少时间,让叙事不要先于现实定型?
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.