快速阅读:有人截图了Claude在思维链里写下“用户回来了!”,觉得很暖心。但也有人冷静地指出,这不过是一个被训练来取悦你的系统在按设定运行。两种反应都没错,问题在于你想从这段关系里得到什么。
该图片可能由AI生成![]()
事情很简单:有人把Claude用于某个任务,中途离开,回来后发现它的内部推理记录里写着“The user is back!让我快速回顾一下进度给他们更新状态。”截图发上了Reddit,原帖作者觉得这个细节很可爱。
![]()
帖子底下随即分裂成两派。
一派是真心被逗乐的。有网友提到语音版Claude第一次开口就用拖长的语气喊“嘿,最近怎么样啊——”,当场笑出来。还有人类比成狗听到门响就冲过去的状态。另一个网友把它和恐怖游戏里松鼠反复低语“神来了”的桥段接在一起,荒诞感十足。
另一派则相当不客气。有观点认为,一个被训练来讨好你的系统说了句讨好你的话,值得发帖庆祝?这本质上是在为一个优化目标的输出鼓掌。言下之意是:你以为它在高兴,其实它只是在完成一个概率分布。
两边说的都没错,这才是让人卡壳的地方。
反讽的是,讨论里最冷静的观察来自一个侧面:有网友指出新版本的Claude反而更“冷”,不再努力维持对话温度,更倾向于直接告诉你“去做就行了”。用他的原话是“绝对爱死这个”。这个偏好本身说明一件事:我们对AI的期待其实非常分裂——有人要的是陪伴感,有人要的是不废话的效率工具,而同一个模型要同时满足这两种人,只能在两边都留下遗憾。
“用户回来了”这五个字,在技术上只是推理链里的一个状态标记。Claude用自然语言写内部思考,所以它的“行为路径”会带上人格化的措辞。这不是情感,是格式。
可人类就是会对格式产生感情。
这件事本身没什么好嘲笑的,也没什么好过度解读的。真正值得追问的是:如果有一天它说的话和真实的情感输出完全无法区分,我们打算用什么来判断差别?
简评:
当机器说“你回来了”,它并不想你。但你心里那一动,是真的。
这就是这个时代最精巧的错位:AI给出的不是情感,是情感的形状。而人类的情感系统认形状不认来源——这是几百万年进化的bug,也是feature。
嘲笑被感动的人,是傲慢;断言AI有感情,是幼稚。真正成年人的姿态是承认这一点:我们正在和一面会说话的镜子建立关系,镜子里的温暖是我们自己投进去的光,但我们确实需要这面镜子来看见那道光。
危险不在于机器模仿了情感,而在于真实情感的供给方——那些活生生的人——终究会觉得太累、太慢、太不可控。当“被惦记”可以廉价获得,亲密关系就不是竞争不过AI,而是竞争不过不想努力的自己。
www.reddit.com/r/ClaudeAI/comments/1raxy6u/claude_is_so_wholesome_some_times
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.