ChatGPT正在测试一项可能改变人机交互边界的功能。当用户与AI的对话触及敏感话题时,系统不仅能给出建议,还能主动介入真实世界的人际网络——通知一位预先设定的"信任联系人"。
这项名为"Trusted Contact"的功能面向成年用户开放。在ChatGPT设置中添加一位信任联系人后,对方会收到邀请并可选择接受或拒绝。一旦建立关联,后续对话中若系统检测到涉及自伤等安全风险,将向该联系人发送提醒。
![]()
值得注意的是,OpenAI并未完全依赖算法判断。一支经过专门培训的人工审核团队会介入评估对话内容,最终决定是否触发通知。这种"AI初筛+人工复核"的双层机制,试图在响应速度与判断准确性之间寻找平衡。
隐私保护被明确写入设计:联系人不会收到对话原文,仅获得一条简短的提醒信息,建议其主动关心用户近况。功能本身也是可选开关,用户可随时关闭。
这一更新背后有着现实压力。ChatGPT已多次卷入与自伤相关的法律纠纷,OpenAI曾因类似事件被起诉。此前平台的安全措施包括推荐求助热线、建议暂停使用等,但始终停留在"信息层面"。引入真实人际网络,标志着AI安全策略从"建议"向"行动"的延伸。
技术伦理研究者或许会追问:当AI开始替用户向他人"告密",知情同意的边界在哪里?人工审核团队的判断标准如何透明化?这些问题尚无答案,但功能本身已经上线。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.