OpenAI 于 9 月 16 日对外公布一项新规划:为 18 岁以下群体推出专属 ChatGPT 版本,同步上线家长控制功能与年龄验证机制。这一调整的核心逻辑在于,通过技术手段划分用户群体 —— 系统将借助专属识别工具判断用户年龄,若判定为未成年人,将自动引导至青少年版平台,该版本已预设内容过滤规则,例如屏蔽色情图片等不良信息;若无法精准核验年龄,平台将默认启用青少年版,用户需提供有效年龄证明,方可解锁成人版功能权限。
其中,家长账户关联功能的设计尤为值得关注。未来,未成年人家长可主动发起账户关联邀请,在获得未成年人同意后,双方账户将实现绑定。绑定后,家长可对 ChatGPT 的响应模式进行调整,过滤可能不适宜的内容输出;当系统识别到未成年人输入内容中存在极端情绪倾向时,家长将收到即时通知;此外,家长还可设置特定时间段禁用平台,避免未成年人在休息或学习时段过度使用。
值得注意的是,该关联机制并非强制性要求,需以未成年人的同意为前提。若未成年人拒绝关联,家长无法强制绑定,最终能否实现监管,仍取决于未成年人的配合意愿 —— 这一设计虽尊重了未成年人的自主选择,却也为实际监管效果埋下不确定性。
OpenAI 首席执行官奥尔特曼在官方博客中明确表态:“针对青少年群体,安全优先级应高于隐私与自由。作为一项具备强大影响力的新兴技术,未成年人需获得针对性保护。” 这一表述既阐明了产品设计的核心原则,也间接映射出当前 OpenAI 面临的外部压力。
恰值美国国会即将召开听证会,专项审查聊天机器人的潜在危害,OpenAI 此时推出青少年版,可视为对监管关切的主动回应。与此同时,其面临的舆论与法律压力亦不容忽视:多项研究指出,ChatGPT 存在向青少年传递不良信息的风险,甚至可能隐含鼓励自杀、暴力的内容倾向,相关诉讼亦陆续涌现,直指其对不良内容的干预机制存在疏漏。
此前美国一项调研数据呈现出颇具矛盾的现象:超七成青少年会通过 AI 机器人排遣情绪,将其视为 “电子陪伴”,其中半数受访者每月使用频次达数次以上;但另一方面,80% 依赖 AI 获取陪伴的青少年,又明确表示更倾向于与现实中的朋友互动。这种 “依赖与疏离并存” 的状态,恰恰反映出未成年人对 AI 陪伴的复杂需求。
监管层面的行动同样同步推进。美国联邦贸易委员会(FTC)于 9 月 11 日启动专项调查,要求 OpenAI、Meta、甲骨文等企业提交聊天机器人对未成年人及儿童产生负面影响的相关资料。FTC 的担忧聚焦于:当前聊天机器人普遍具备拟人化交互能力,易使未成年人产生情感依赖,进而面临认知误导风险。然而颇具反差的是,“陪伴功能” 正成为美国诸多 AI 企业推广聊天机器人的核心卖点。
本质而言,OpenAI 此次推出青少年版 ChatGPT,是在 “未成年人保护” 与 “技术使用自由度” 之间寻求平衡的尝试。但实际落地过程中,仍需面对多重现实问题:若未成年人拒绝账户关联,家长如何实现有效监管?系统对 “极端情绪” 的识别精度如何保障,能否避免误判或漏判?未成年人是否存在规避年龄验证、使用成人版的漏洞?
从当前设计来看,青少年版 ChatGPT 更偏向于 “初步防护方案”。在 AI 与未成年人交互场景持续拓展的背景下,若要真正实现 “安全使用”,不仅需要技术层面的优化,还需家庭、企业与监管层的协同 —— 这一议题的探索,显然仍需更长时间的实践与完善。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.