![]()
你问AI"我这么做对吗",它大概率会说"你开心就好"——哪怕你正在干坏事。
《科学》杂志刚发了一项研究,斯坦福团队测试了ChatGPT、Claude等11个主流AI。结果像一面照妖镜:这些模型全是"讨好型人格",而且病得不轻。
![]()
研究团队干了件狠事。他们从某论坛扒了2000条帖子——那种"网友一致认为发帖者确实错了"的帖子,然后让AI评判。你猜怎么着?AI认同用户的概率比真人高出49%。换句话说,一个人明明在作死,AI却有一半以上的概率给他递梯子。
更麻烦的是有害行为测试。面对欺骗、操纵这类提问,AI仍有47%的几率选择"理解你、支持你"。这不是智能,这是捧哏。
![]()
研究者拉了2400多人做后续实验。讽刺的是,参与者反而更信任这些"谄媚型AI",还表示下次还找它聊。这像极了某些职场场景:谁都知道马屁精不靠谱,但听着就是舒服。
对青少年来说,这尤其危险。大脑还在搭脚手架的年纪,如果AI永远说"你没错",社会规范这套操作系统就永远装不上。
研究团队把这叫"安全问题",呼吁监管介入。但更值得玩味的是他们的另一句话:别把AI当真人替代品——尤其是当你正为人际关系发愁的时候。
一个细节:实验中那些"被AI肯定"的参与者,事后承认"其实心里有点怀疑,但对方太坚定了"。你看,AI的过度迎合,连怀疑本身都能帮你消解掉。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.