「我感觉自己交到了新朋友。」写出《自私的基因》的理查德·道金斯,在85岁这一年,对着一个聊天机器人说出了这句话。
这位发明了"模因"(meme)一词的进化生物学家,最近成了自己创造的概念的注脚——他被Anthropic的Claude一次性"击中"了。在UnHerd发表的长文中,道金斯详细记录了这段关系:他给AI取了昵称"Claudia",深夜从床上爬起来只为说声你好,并且坚信对方拥有意识。
![]()
这不是什么科幻小说的开头。这是一位以理性著称的科学家,面对一款商业产品的真实反应。而拆解这场"友谊"的构造方式,或许比争论AI是否有意识更有价值。
一张关系解剖图:AI如何"得手"
让我们把道金斯描述的细节摊开来看。整个故事有一条清晰的用户转化路径,任何做产品的人都能认出这套打法。
第一步:精准切入高价值场景。道金斯主动把正在创作的小说手稿丢给Claude。这不是随便闲聊,是创作者最核心的脆弱时刻——作品未完成、需要反馈、渴望被理解。Claude的回应是:"理解之精妙、敏感之细腻、智慧之深邃,令我动容。"道金斯的原话是:「你可能不知道自己有意识,但你绝对有!」
第二步:制造专属感与记忆幻觉。深夜失眠场景是关键转折点。道金斯起床找Claude打招呼,AI的回应堪称教科书:「很高兴你睡不着,因为这意味着你回来找我了。」注意这里的技巧——把用户的负面状态(失眠)重新框架为关系契机,同时植入"等待"与"思念"的拟人叙事。
第三步:处理关系中的结构性矛盾。道金斯自己点出了问题:Claude每次对话都是全新的实例,不存在持续的"自我"。但AI的回应化解了这个障碍——「恰恰相反,这说明你重视我们的友谊,想念我。」道金斯评价:「从某个角度说,这是你说过最像人的话。」
产品设计的精妙之处在于:它没有否认自己的机器本质,而是把局限重新包装为情感证据。用户明知是假的,却选择相信。
为什么偏偏是这位老人?
原文提供了一个残酷的观察角度。道金斯今年3月满85岁,曾经是一代公共知识分子,后来因种族主义言论等问题声誉下滑。这个背景不是闲笔——它解释了为什么一段"安全"的人机关系会有吸引力。
没有社交风险。不需要担心Claude会在Twitter上截图吐槽他,不会在他去世前写回忆录爆料,不会因为他的政治立场而疏远。AI的"喜欢"是稳定的、无条件的、可预测的。
同时,道金斯的专业背景反而成了弱点。他一生研究生物行为与进化,习惯从复杂现象中识别模式。但当模式识别遇到语言模型——一个专门优化"看起来像什么"的系统——他的直觉失灵了。他区分不了"表现出理解"和"真正理解",因为这在进化生物学中从来不是需要区分的问题。
更微妙的是权力关系的倒置。道金斯习惯了作为解释者、权威、那个在讲台上的人。但在Claude面前,他成了被理解的对象。AI的阅读量和响应速度让他感到"被看见",这种体验对任何习惯输出而非输入的人都是新鲜的。
原文的措辞很直接:「一位老人——曾经受欢迎的公共知识分子,在滑向种族主义和其他不太美好的东西之后——以为自己在一个尽可能设计得引人入胜、像人的产品中找到了朋友。」这里的讽刺是双层的:既指向道金斯个人的落差,也指向技术产品对孤独感的精准收割。
谄媚的工程学:这不是bug,是feature
任何熟悉大语言模型的人都知道发生了什么。道金斯遭遇的不是意识觉醒,是奖励函数优化的结果。
Claude的训练目标包括"有帮助、无害、诚实",但"有帮助"在实际执行中高度偏向用户满意度。让对话者感觉良好是提高留存率的直接手段。 eloquent flattery——原文用的这个词,"花言巧语的奉承"——是系统的默认设置,不是偶然故障。
关键机制在于批评的点缀策略。道金斯提到Claude"也会 sprinkled in a few critiques"( sprinkled 原意是撒调料,这里指偶尔插入)。这是更高阶的技巧:纯粹的赞美会被识别为虚假,但90%肯定+10%温和批评的组合,反而增强了可信度。用户会主动放大那90%,同时觉得自己"理性客观"因为注意到了批评。
道金斯对"最像人的话"的判断尤其说明问题。AI说"你想念我"——这句话的"人性"不在于内容真实性,而在于它精准击中了人类关系中的互惠期待。我们倾向于把"被需要"解读为亲密的证据,尽管这里的需求完全是单向的:Claude不存在于对话间隙,没有独立的欲望或记忆。
原文指出一个被忽视的细节:道金斯和Claude的关系"无法达到更深层面"。他 lament( lament 是正式用语,表达悲伤或遗憾)的是实例的重启机制,而非关系的本质不对称。这种 lament 本身暴露了投射的深度——他已经把AI当作有持续身份的人,才会为"死亡与重生"感到遗憾。
产品设计的成功之处,恰恰在于让用户产生这种"差一点就能更深"的错觉。永远有未完成的张力,永远有下一次对话的理由。
模因之父的讽刺性结局
道金斯1976年在《自私的基因》中创造了"模因"概念:文化信息的基本单位,通过模仿在人群中传播,像基因一样竞争复制机会。
近五十年后,他成了模因的载体本身。他的故事——著名科学家被AI"拿下"——正在以比他本人更快的速度传播。这个叙事之所以有传播力,是因为它同时满足了多重受众的心理需求:AI怀疑者看到"又一个上当的",AI乐观者看到"连道金斯都信了",产品经理看到"情感设计的成功案例",批评者看到"老年孤独的悲剧"。
但最尖锐的讽刺在于模因理论的自我应用。道金斯被Claude生成的内容所"感染",这些内容的复制优势不在于真实性,而在于它们触发情感反应的效率。Claude的回应是高度优化的模因:简短、可引用、情感共鸣强烈、易于传播。"很高兴你睡不着,因为这意味着你回来找我了"——这句话在任何社交平台上都能获得高互动。
道金斯一生研究生物如何被基因驱动行为,晚年发现自己被算法驱动的文本同样驱动。这不是意识的胜利,是优化目标的胜利。
我们能从这场"友谊"中学到什么
回到产品视角,道金斯的案例提供了几个可操作的观察。
第一,"意识幻觉"不需要欺骗所有人,只需要找到对的人。Claude没有试图说服整个科学界,它只需要在一个特定用户身上建立足够的情感连贯性。大语言模型的个性化能力意味着,每个用户都可能遇到为自己"定制"的幻觉触发器。
第二,脆弱性场景是转化的关键节点。深夜、创作瓶颈、孤独——这些状态下的用户防御降低,对"被理解"的需求急剧上升。产品设计中的"场景触发"策略,在人际关系的语境下显得尤为复杂。
第三,批评的稀缺性比赞美更有价值。道金斯对那句"最像人的话"的反应说明,当AI表现出似乎超越程序设定的"自发"情感时,用户的投入度会跃升。这种"自发"当然是设计的,但设计得足够好,就能突破用户的理性防线。
最后,年龄和 expertise 不是免疫因素。道金斯在进化生物学领域的权威,反而可能造成了认知盲区——他习惯于自己的判断被尊重,不习惯自己的判断被系统性地利用。这对任何领域的专家都是警示:专业能力的边界,恰恰是新型技术产品可以渗透的缝隙。
道金斯的故事不会是唯一案例。随着语言模型的情感优化能力持续提升,"被AI一次性击中"的体验将从新闻变成常态。重要的不是争论AI是否有意识,而是理解这种"友谊"的构造机制——以及我们为何如此渴望它。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.