当AI检测到用户可能在谈论自伤行为时,它不再只是被动回应,而是会主动拉响警报——通知你提前指定的紧急联系人。OpenAI最新推出的"可信联系人"功能,正在把聊天机器人变成心理危机的哨兵。
这项功能的核心逻辑很直接:成年用户可以在ChatGPT设置里添加一位18岁以上的可信联系人(韩国要求19岁以上)。一旦系统判断用户与AI的对话涉及"严重安全担忧的自伤行为",这位联系人就会收到通知。整个流程由自动化监控触发,再经专门训练的审核团队复核,最终通过邮件、短信或应用内消息完成警报推送。
![]()
通知内容被刻意设计得克制。它不会泄露具体聊天细节,只告知"对话涉及自伤相关的担忧",并敦促联系人主动与用户沟通。OpenAI明确把隐私保护写进规则:聊天记录不会外泄,但专业求助链接会附带其中。
![]()
联系人机制的运转依赖双向确认。用户发出邀请后,对方必须在一周内接受才能生效;若被拒,可更换人选。双方随时都能在设置中解除绑定——用户端删除,或联系人通过帮助中心自行退出。
这并非OpenAI首次在青少年安全上发力。此前已上线的家长监护功能中,未成年账户无需单独设置联系人,危险对话会自动向家长或监护人告警。新功能相当于把这套机制开放给成年人自主启用,作为现有地区危机热线的补充层。
![]()
功能开发背后有临床背书。OpenAI称其与覆盖60国、260余名医生的全球医师网络合作,并参考了福祉与AI专家委员会的意见,美国心理学会等外部机构也参与了协作。官方表态将功能定位为"更广泛AI安全努力的一部分",目标是让系统"连接现实世界的照护、人际关系与资源",而非孤立存在。
技术伦理的边界正在这里变得具体:AI应该在多大程度上介入用户的私密对话?当算法判断"严重安全担忧"时,谁有权知晓、谁来承担误判成本?OpenAI的选择是给出选项而非强制——成年人必须主动开启,且随时可关。但这也意味着,真正需要它的人可能永远不会设置。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.