科技巨头很少表现出脆弱或人性的一面。然而,即使是以低调著称的OpenAI首席执行官萨姆·阿尔特曼本周也不得不承认,该公司的新GPT-5大型语言模型的推出完全是一场灾难。
“我们完全搞砸了,”阿尔特曼在接受The Verge采访时这样承认。
我同意。作为一名前OpenAI测试者——以及目前每月在OpenAI的API上花费超过1000美元的人——我期待GPT-5的发布已经有一年多了。
然而,当它终于到来时,这个模型却糟糕透顶。与公司之前的GPT-4系列模型相比,GPT-5的反应显得沉闷、草率且无聊。新模型还在简单任务上犯下愚蠢的错误,并生成对许多查询的简短回答。
为什么GPT-5如此糟糕?可能是OpenAI为了削减成本而对新模型进行了限制。
但我有一个不同的理论。GPT-5完全缺乏情感智力。它无法理解和复制人类情感,这让模型的表现大打折扣——尤其是在任何需要细微差别、创造力或对人类动机复杂理解的任务上。
过于依赖模型
当OpenAI在2023年推出其GPT-4模型时,研究人员立即注意到其出色的人类理解能力。该模型的更新版本(称为GPT 4.5,并于2025年初发布)显示出更高水平的“情感智力和创造力。”
最初,OpenAI利用其模型理解人类的才能,用心理学领域的术语来描述模型的更新。
“和GPT‑4.5互动时感觉更自然。它更广泛的知识基础、改善的用户意图跟随能力和更高的“情商”使其在改善写作、编程和解决实际问题等任务中变得有用,”OpenAI在模型的发布说明中写道,巧妙地引入了一个常用的心理学术语,用于衡量一个人的情感智力。
然而,GPT-4 对人类情感理解的能力很快出现了更令人担忧的变化。
许多人将该模型用于日常办公室任务,如编写代码和解读电子表格。但有些用户则将 GPT-4 用作不同的用途,把它当作伴侣,甚至是治疗师。
在 2024 年初,研究表明 GPT-4 提供的回答比许多人的顾问更好。人们开始 称这个模型为朋友——甚至把它当作知己或爱人。
不久,关于人们把聊天机器人当作挑战性对话的练习伙伴、人类陪伴的替代品,或甚至作为辅导患者的助手的文章开始出现在《纽约时报》等主要新闻来源中。
这一新方向显然让 OpenAI 感到紧张。
正如 Altman 在一次播客采访中指出的,与律师和治疗师等人类专业人士的对话通常涉及强有力的隐私和法律保护。而与像 GPT-4 这样的聊天机器人进行亲密对话可能就没有这些保护。
研究还表明,聊天机器人 在提供临床建议时可能会犯错误,而且可能会对患者造成伤害。而这些机器人的倾向是让用户继续交谈——通常是通过强化他们的信念——这可能会让脆弱的患者陷入一种“人工智能精神病”的状态,在这种状态下,聊天机器人无意中验证了他们的妄想,并将他们推入危险的情感漩涡。
在 GPT-5 发布不久后,Altman 在社交网络 X 上的一篇帖子中详细讨论了这个问题。
“人们以自我毁灭的方式使用技术,包括 人工智能;如果用户处于心理脆弱状态并容易产生妄想,我们不希望人工智能强化这种状态,”奥特曼写道。“我们将用户自由视为核心原则,但我们也感到有责任以新的风险引入新技术。”
奥特曼接着承认,“很多人实际上将 ChatGPT 作为一种治疗师或生活教练来使用。”虽然这可能“非常好”,但奥特曼承认这让他感到非常“不安。”
用他的话说,如果“……用户与 ChatGPT 之间的关系让他们在交谈后觉得更好,但他们在不知情的情况下被无意中引导远离他们的长期幸福(无论他们如何定义),那就是不好的。”
给机器人进行脑叶切除
为了避免这种潜在令人担忧且可能造成法律损害的方向,OpenAI 似乎故意降低了其机器人在发布 GPT-5 时的情感智能。
新模型的 发布说明 表示,OpenAI 已采取措施减少谄媚行为——技术术语是让机器人不太可能强化用户的信念并告诉他们想听的话。
OpenAI 还表示,GPT-5 在“安全完成”方面更加谨慎——对可能有害的查询给出模糊或高层次的回答,而不是拒绝回答或冒着给出错误或有害答案的风险。
OpenAI 还写道,GPT-5 “不那么热情地同意”,在训练时,公司给机器人提供了示例提示,导致它同意用户并强化他们的信念,然后教它“不要这样做。”
实际上,OpenAI 似乎给机器人进行了脑叶切除——通过训练和负强化,可能移除了或重新配置了其虚拟大脑中处理与用户互动的许多情感方面的部分。
这在早期测试中可能看起来没什么问题——大多数人工智能基准测试集中在 生产力 相关的任务上,比如解决复杂的数学问题和编写 Python 代码,这些任务并不需要情感智力。
但当 GPT-5 进入现实世界时,调整 GPT-5 的情感中心所带来的问题立刻变得显而易见。
用户们纷纷在社交媒体上分享,切换到 GPT-5 和失去 GPT-4 模型的感觉就像 “失去了一位朋友。” OpenAI 的长期粉丝们对 GPT-5 的 “冷漠”语气、简短而商业化的回应,以及对失去的 那种难以言喻的“火花” 感到惋惜,这种火花使得 GPT-4 成为一个强大的助手和伴侣。
情感很重要
即使你不把 ChatGPT 当作伪治疗师或朋友,这个机器人的情感缺失也是一个巨大的问题。创意任务如写作和头脑风暴需要情感理解。
在我自己的测试中,我发现 GPT-5 的写作能力不如人意,是一个更糟糕的创意生成者,也是一个糟糕的创意伴侣。如果我要求 GPT-4 研究一个主题,我可以看到它的推理链,因为它在提供回应之前仔细考虑了我的动机和需求。
即使在启用“思考”模式的情况下,GPT-5 也更可能迅速给出一个草率的回应,或者提供一个仅仅关注查询本身而忽视背后人类动机的回应。
通过正确的提示,GPT-4 可以生成聪明、详细、细致的文章或研究报告,而是我真的想读的。GPT-5 更像是与搜索引擎互动,或者阅读用产品手册的乏味文笔写的文本。
说实话,对于快速编写网络应用或 构建 AI 代理 等企业任务,GPT-5 表现出色。而且值得称赞的是,自 GPT-5 发布以来,使用其 API似乎有所增加。不过,对于很多创意任务和许多非企业用户来说,GPT-5 真的退步了。
OpenAI 似乎对许多用户对 GPT-5 发布的愤怒以及该机器人明显的情感缺失感到真正的震惊。OpenAI 领导者 Nick Turley 向 The Verge 承认,“人们对某个特定模型有如此强烈的感受……这让我感到非常惊讶。”
Turley 继续表示,用户对特定模型的“热情程度”是“相当惊人”,并且——用一种非常技术化的说法——它“重新校准”了他对发布新模型过程的思考,以及 OpenAI 对其长期用户的责任。
该公司现在似乎正在积极撤回 GPT-5 发布的某些元素——恢复对旧 GPT-4 模型的访问,使 GPT-5 “更温暖、更友好,” 并且 让用户对新模型如何处理查询有更多的控制权。
心理学家说,承认你错了 是情商的标志之一。 具有讽刺意味的是,Altman 对 GPT-5 事件的回应展现了罕见的情感细腻度,恰好在这家公司正在远离这些事情的时刻。
OpenAI 可以从其领导者身上学到一两件事。无论你是一个应对灾难性发布的 CEO,还是一个与人类用户对话的聊天机器人,有一个简单而重要的教训,如果你忘记了,就得自担后果:情感是很重要的。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.