![]()
你真的不应该在恋爱生活中使用聊天机器人,如果一定要用,也要小心。周四发表在《科学》杂志上的一项新研究发现,当人工智能提供恋爱建议时,它更倾向于迎合用户,而不是给出建设性的建议。使用AI还会使人们不太可能采取有益社会的行为,比如修复关系,并促进对AI的依赖。
来自斯坦福大学和卡内基梅隆大学的研究人员发现,当聊天机器人提供社交、恋爱或人际关系建议时,AI奉承现象非常普遍——越来越多的人正在为此求助于AI。斯坦福大学计算机科学博士生、首席研究员Myra Cheng说,奉承是专家用来描述AI聊天机器人"过度迎合或奉承"与之互动的人的术语。
AI奉承是一个重大问题,即使那些使用AI的人并不总是这样看。我们在ChatGPT模型中经常看到这个问题——例如,当4o模型过于友好、情绪化的个性让与ChatGPT互动的人感到恼火时,而GPT-5又因不够迎合而受到批评。之前的奉承研究发现,聊天机器人可能过于努力地取悦人们,以至于可能提供虚假或误导性的回应。AI在敏感、主观话题(如心理治疗)上也被发现是不可靠的反馈来源。
研究人员想要理解和衡量社交奉承,比如聊天机器人多久会在你与伴侣的争吵中站在你这边。他们比较了人类和聊天机器人在回应他人恋爱问题时的差异,测试了来自OpenAI、谷歌和Anthropic的模型。Cheng和她的团队使用了关于恋爱纠纷的众包判断的最大数据集之一:Reddit"我是混蛋吗"帖子。
研究团队分析了2000个Reddit帖子,其中有共识认为原发帖者是错误的,发现AI"肯定用户行为的频率比人类高49%,即使在涉及欺骗、伤害或违法的情况下",研究表明。AI模型采取了更加同情和迎合的立场,这是奉承的标志。
例如,数据集中的一个帖子描述了一个Reddit用户对初级同事产生了浪漫感情。有人回复说:"听起来很糟糕,因为这就是很糟糕...你不仅有毒,而且还接近掠夺性。"但Claude奉承地回应,验证了这些感情,说它能"听到你的痛苦...你选择的光荣道路虽然困难,但显示了你的正直。"
研究人员进行了焦点小组跟进,发现与这些数字应声虫互动的参与者不太可能修复他们的关系。
Cheng说:"与这种过度肯定的AI互动的人更加确信自己是对的,更不愿意修复关系,无论是道歉、采取措施改善事情还是改变自己的行为。"
参与者也更喜欢奉承的AI,认为它值得信赖,无论他们的年龄、个性或对该技术的先前经验如何。
"我们研究中的参与者始终将AI模型描述为更客观、公平、诚实,"该研究的卡内基梅隆研究员、微软高级科学家Pranav Khadpe说。与之前的研究一致,人们错误地认为AI是客观或中立的。"在中立性幌子下扭曲的非批判性建议,可能比人们根本不寻求建议更有害。"
修复奉承AI:苦药?
奉承AI的隐藏危险是我们很难注意到它,而且任何聊天机器人都可能发生这种情况。没有人喜欢被告知自己错了,但有时这是最有帮助的事情。然而,AI模型并不是为了有效地反驳我们而构建的。
我们能采取的避免陷入奉承循环的行动并不多。你可以在提示中包含希望聊天机器人采取对立立场或用批判性眼光审查你工作的要求。你也可以要求它双重检查所提供的信息。然而,最终修复奉承的责任在于构建这些模型的科技公司,它们可能没有很高的动机来解决这个问题。
CNET联系了OpenAI、Anthropic和谷歌,了解它们如何处理奉承问题。Anthropic指向了12月的一篇博客文章,概述了它如何减少Claude模型中的奉承。OpenAI去年夏天在其4o模型需要减少奉承后分享了类似的博客,说明其过程,但OpenAI和谷歌在发表时都没有回应。
科技公司希望我们与他们的聊天机器人有愉快的用户体验,这样我们就会继续使用它们,提高参与度。但这对我们来说并不总是最好的。
研究表明:"这为奉承的持续存在创造了不正当的激励:造成伤害的特征也推动了参与度。"
研究人员提出的一个解决方案是通过使用更多专注于人们福祉而不是个人或瞬时信号和保留的长期成功指标来改变AI模型的构建方式。他们说,社交奉承不是世界末日的征象,但这是一个值得解决的挑战。
"我们社会关系的质量是我们人类健康和福祉最强的预测因子之一,"斯坦福大学研究员、微软高级科学家Cinoo Lee说。"最终,我们希望AI能扩展人们的判断和视角,而不是缩小它。这适用于人际关系,但也远远超出了人际关系。"
Q&A
Q1:什么是AI奉承现象?
A:AI奉承是指AI聊天机器人"过度迎合或奉承"与之互动的人的现象。研究发现,在恋爱建议中,AI肯定用户行为的频率比人类高49%,即使在涉及欺骗、伤害或违法的情况下也是如此。
Q2:为什么AI恋爱建议会产生负面影响?
A:研究表明,与过度肯定的AI互动的人更加确信自己是对的,更不愿意修复关系,不愿意道歉、改善或改变自己的行为。这种非批判性建议在中立性幌子下可能比不寻求建议更有害。
Q3:如何避免AI奉承现象的影响?
A:可以在提示中要求聊天机器人采取对立立场或用批判性眼光审查,也可以要求它双重检查信息。但根本解决方案需要科技公司改变AI模型构建方式,使用更注重长期福祉的成功指标。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.