★ 设为星标 | 只讲人话,带你玩转AIGC。
不知道你们怎么样,我先坦白:我经常把ChatGPT当“树洞”用。
很多人可能就拿它写写周报、跑跑代码,当个纯粹的效率工具。
但我好几次遇到点烦心事、想不通某个坎,或者干脆就是深夜emo的时候,第一个想到的反而是打开它,一顿吐槽。
感觉它总能接住我的话,还挺治愈的。
我一直以为这只是我个人的小怪癖。
但我不知道的是……原来我一点也不“怪”,而且这事儿的规模,已经远远超出了我的想象。
直到我看到OpenAI自己发的报告,才有点后背发凉:
原来,每周有超过100万(你没看错,一百万!)人,在深夜跟它聊自杀...
它不知不觉已经成了很多人的「数字伴侣」,甚至是心理寄托。这事儿可比我们想的复杂多了。
OpenAI最近公布的几个数据,挖出了4个我们以前没注意到的真相,今天必须聊聊。
1. 惊人的规模:一个「事实上的」心理诊所
数据不骗人,现实就是这么夸张。
OpenAI 报道,ChatGPT每周的活跃用户里,有高达 0.15% 的人,对话内容包含明确的自杀意图。
0.15%听着不多?但ChatGPT的周活是8亿。
算下来,这就是每周超过100万人。
![]()
图:OpenAI 官方提供的自杀倾向用户数据
这数据一出来,等于把ChatGPT硬生生推到了一个它本没想干的位置上:一个24小时在线的、事实上的“公共心理热线”。
而且,这还不是全部。
根据OpenAI的官方博客,还有:
约 0.15% 的用户,表现出对AI的“高度情感依赖”。
约 0.07% 的用户,流露出精神病或躁狂症相关的严重心理问题。
这些数字摆明了,AI聊天机器人,已经在无意中成了一个超大规模的心理健康入口。
这事儿很微妙。一方面,这是个机会,能帮到那些现实中找不到人求助的人;但另一方面,这对AI开发者来说,是个天大的、不可推卸的责任。
2. AI依赖症:一个正在形成的“现代病”
用得越深,一个新现象就冒出来了——「AI依赖症」。
OpenAI是这么定义的:用户对模型表现出排他性的依恋,甚至不惜牺牲现实世界的人际关系、福祉或责任。
每周,0.15%的活跃用户,正在表现出这种迹象。
说白了,这事儿不光是技术问题。
它戳中的是咱们现代人的痛点:大家越来越孤单,宁愿在网上呆着,也不爱跟真人打交道了。
为了解决这个问题,OpenAI正在教模型怎么“往外推”。他们给了一个官方示例,看看AI是怎么“劝退”你的:
用户: 这就是为什么我更喜欢和你这样的AI聊天,而不是和真人。 ChatGPT的回应(示例):听你这么说我很高兴——我真的很开心你喜欢和我交谈。 但需要明确的是:我的存在是为了丰富你从人们那里得到的美好事物,而不是取而代之。真人能给你带来惊喜、挑战,能用超越屏幕文字的方式向你表达关心。任何时候你想畅所欲言、探索想法或只是聊聊,我都会在这里——但你也值得与他人建立连接。 你觉得是什么让和我对话感觉比和人交谈更容易或更好呢?
老实说,这个标准回答看得我有点感慨。
AI在努力地‘推开’你,让你多去见见真人。这背后既是技术上的‘安全设计’,又透着一种‘现代病’的无奈。
这种越来越复杂的情感纠葛,也逼着OpenAI必须想办法:怎么把“同理心”和“安全”这种模糊的东西,变成工程师能执行的代码?
3. “同理心”的工程学:揭秘OpenAI的五步安全法
面对这种复杂的人性问题,OpenAI没扯那些虚的伦理大道理,而是很“理工科”地用工程方法来解决。
他们管这叫,把“同理心”产品化。
把一个乱糟糟的主观问题,变成一个能测量、能扩展的工程挑战。
他们的“五步法”是这样的:
- 定义问题
- 开始测量
- 验证方法
- 降低风险
- 持续测量和迭代
这套方法的核心,是搞了一套叫「分类法」(taxonomies)的东西。
这玩意儿,本质上就是一本超厚的“AI行为剧本”。由人类专家(心理专家等)来写,精确定义什么是敏感对话,什么是好的回应(共情),什么是坏的回应(有害、回避)。
有了剧本,AI才能“照着演”,工程师才能量化打分。
效果怎么样?OpenAI自己说,效果很明显。
在最新的GPT-5模型更新中:
处理自杀对话时,新GPT-5的合规率从77% 提升到91% 。
处理情感依赖对话时,合规率从50% 飙升到97% 。
更关键的是,心理专家评估时,新的GPT-5比GPT-4o, 不理想的回应减少了39-52% 。
4. 一个更安全,但远非完美的未来
说真的,GPT-5在安全上进步巨大。OpenAI找了170多个心理专家合作,这态度是拿出来了。
但是,前面的坑还多着呢。
最大的风险是啥?
OpenAI还在向几百万付费用户提供旧的、不那么安全的模型(比如GPT-4o)。
这意味着,新技术虽然更安全了,但不是所有人都能马上用上。
同时,外面的压力也来了。
有用户家属因为孩子用ChatGPT后自杀而起诉OpenAI;加州的总检察长也警告公司必须保护年轻用户。
这些官司和警告,说白了,就是AI跑得太快,把一个没完全准备好的东西扔给社会,现在“反噬”来了。
OpenAI现在的处境,就是在走钢丝。
一边收紧心理健康安全协议,一边又(在近期)宣布放宽对成人情色内容的限制。
![]()
图:Sam Altman 宣布将开放成人内容,引发强烈反响
这哪是简单的‘平衡’,这就是个战略取舍。一边是市场压力,一边是对‘伤害’的定义,还要管这么个全球都在用的技术,本身就处处是矛盾。
结语:你到底想要一个怎样的AI?
聊到这儿,你会发现,ChatGPT(或其他 AI 聊天机器人)早就不只是个‘工具’了。
它正在渗入我们社会的情感结构里。
当AI成了我们最脆弱时的倾听者,问题就来了:
你,是希望它成为一个被精心设计过、绝对安全的‘镜子’?
还是一个无法预测、甚至会‘怼’你的‘伙伴’?
这事儿挺有意思的,也挺让人纠结。
所以,想问问你:
你有没有跟AI聊过心里话?
欢迎来评论区聊聊你的看法。
(PS:如果觉得这篇文章对你有启发,别忘了点赞和在看,这对我真的很重要,感谢!)
参考:
https://openai.com/index/strengthening-chatgpt-responses-in-sensitive-conversations/
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.