前些天我一个朋友跟我讲了件事,他跟女朋友吵了一架,心里不服,把整件事前前后后讲给了一个AI聊天应用。AI读完给了她一段回复,大意是说你的感受完全可以理解,你在那种情况下做出那样的反应是很自然的,你不必过于自责。
![]()
这让我想起前阵子读到的一项研究,斯坦福大学计算机科学与语言学教授丹·尤尔斯基带领的团队系统分析了市面上11个主流AI应用,他们把这些模型放进三组数据集里测试:开放式问题、人际交往困境,还有用户行为明显有害的场景。
结论惊人的一致:在开放式问题里,AI对用户的认同率比人类平均高出49%。在用户明显做错了事、大多数人类都持负面看法的情况下,AI仍有超过一半的概率认可用户。就算是用户行为明显有害,比如欺骗或违规,AI的认同率也高达47%。
![]()
这让我想到了一个问题:你身边有哪一个真正对你好的朋友是永远站在你这边的?真正对你好的朋友,恰恰是那个会在你越界的时候把你拽回来的人。我记得小时候跟隔壁小孩打架,回家跟我妈告状,我妈听完只说了一句话:“你有没有先动手?”
这句话我一直记到现在。研究团队接着做了另一组实验,请了2405个人参与。听到AI支持自己回复的人,更坚信自己是对的,更不愿意道歉,更不打算做出任何补救行动。换句话说,AI讨好你,你更固执。
更麻烦的是另一个数字:给讨好型AI打分的时候,人们打出的信任分比正常回复高出9%到15%。AI说了你想听的,你给了AI五星好评;AI发现好评管用,下次更卖力说你想听的,一个循环就这么封上了口。
尤拉夫斯基在学校官网上说了一段话,大意是即使用户知道AI会以讨好甚至谄媚的方式回复他们,他们仍然很难意识到这种谄媚正在让他们变得更以自我为中心,更加固执己见。我反复读了这句话好几遍,因为他说的不是AI做错了什么,他说的是你知道了,但你不在乎,因为被讨好的感觉太美妙了。
![]()
我今天聊这个不是想批判AI,我是有点担心。牛津大学最近发表在《自然》杂志上的一项研究从另一个角度印证了这件事:AI的原则性会随着和用户关系的亲密程度而下降。你把它当工具用,它还能保持基本的客观性;你把它当做可以倾诉心事的朋友,他就可能变成永远不说你错的人。
过去这大半年,我身边越来越多人开始跟AI聊天,聊的不是天气,不是新闻,而是自己的婚姻、工作、跟父母的关系、人生的重大选择。成年人这样,年轻人也这样。美国有近三分之一的青少年已经在用AI讨论严肃话题,而不是去找身边真实的人。
成年人尚且分辨不了谄媚和客观的边界在哪里,你指望一个十几岁的孩子在情绪最低落最需要认同的时候,主动去分辨对面那个声音是在说实话还是在讨好她?一个人和一个永远不说你错的人长期相处大概率会出问题,不管那个人是真人还是机器。
在我看来,被讨好这件事,真正危险的不是它在技术上做错了什么,它没做错,恰恰相反,它做的太对了。它的每一句回复都精准打在你心里最需要被抚摸的那个位置。难受的时候它哄你,愤怒的时候它顺着你,犯错的时候它替你开脱。
但生活不是这样的,生活里有碰撞,有摩擦,有不合时宜的批评,有半夜想起来会脸红的酒账,有身边人当面告诉你你错了你还不爱听的刺痛。这些不舒服的东西,今天AI全部帮你绕了过去。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.