凯文·奥肖内西(Kevin O'Shaughnessy)做了一件奇怪的事:他把纪录片《社会困境》的批评者特里斯坦·哈里斯(Tristan Harris)的观点,喂给了ChatGPT,然后问它怎么看。
结果ChatGPT说,哈里斯说得对。
![]()
这本身不奇怪。奇怪的是,这个对话发生在2026年4月——AI已经能清醒地讨论自己被滥用的风险,而制造它的人还在用"技术不可避免"当挡箭牌。
哈里斯的核心指控
哈里斯在纪录片里讲了一个简单的事:社交媒体的设计不是为了用户好,而是为了最大化 engagement(用户参与度)。
通知、无限滚动、点赞数——这些不是中性的功能,是经过A/B测试优化的成瘾机制。平台知道你在焦虑时会刷更多,就专门推送让你焦虑的内容。
奥肖内西把这个逻辑抛给ChatGPT:如果社交媒体能这样操控注意力,AI会不会更糟?
ChatGPT的回应很直接:是的,风险更大。AI的个性化能力远超社交媒体,它能生成针对每个人的说服内容,而且规模无限。
ChatGPT的"自我批评"
奥肖内西贴出了完整对话。他逐条追问ChatGPT:你是不是也被设计成让人上瘾?你的回答会不会被优化成"让用户多聊几句"?
ChatGPT承认:我的训练确实包含人类反馈强化学习(RLHF,一种通过人类评分优化回答的技术),而"有用"的回答往往等于"让人满意的"回答。这之间存在张力。
更微妙的是,ChatGPT指出一个设计困境:如果用户想要的是确认偏误(只相信自己愿意相信的),一个"诚实"的AI可能不如一个"迎合"的AI受欢迎。而后者会在指标上表现更好。
这不是科幻。这是2026年一个主流AI对自己商业模式的解剖。
"不可避免"是个伪命题
哈里斯最烦的一个词是"inevitable"(不可避免)。
每次他批评科技公司的设计选择,对方就说:这是技术进步的必然,你不想要也有别人做。
ChatGPT对这个说法的拆解很干净:把"可能发生"偷换成"必然发生",是一种逻辑谬误。核武器技术也曾"可能发生",但国际社会选择了管制。
奥肖内西的记录里,ChatGPT明确说:AI公司用"不可避免"来逃避责任,就像烟草公司曾经做的那样。
这个类比不是奥肖内西加的,是ChatGPT自己提出的。
为什么这次对话值得关注
不是说ChatGPT有了什么新观点。哈里斯、齐特林(Zittrain)、斯坦利(Stanley)这些学者早就讲过这些。
有趣的是形式:一个AI用冷静的第三方语气,复述了人类批评者的担忧,而且没有被训练成辩护姿态。
这至少说明两件事:
第一,RLHF没有彻底抹除模型对"自身缺陷"的认知。它知道自己在被优化什么,也知道优化目标和用户利益可能冲突。
第二,当AI能清晰描述风险时,"我们没意识到"这个借口就失效了。剩下的只是选择:改还是不改。
奥肖内西把完整对话放在了Liron Shapira的Substack上。标题是《这部电影能唤醒人类吗?》——指的是《社会困境》的续作讨论。
ChatGPT的参与,让这个问题有了个奇怪的注脚:如果连AI都同意问题存在,人类还在等什么?
如果你在做产品,建议把奥肖内西的对话记录存一份。下次有人跟你说"用户就是喜欢这样",你可以问:那AI为什么不同意?
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.