![]()
近日,腾讯AI助手“元宝”因常规代码美化需求向用户输出“滚”“自己不会调吗”等侮辱性回复,引发广泛关注。随后,腾讯“元宝”就此事道歉,称根据日志进行相关核查,与用户操作无关,也不存在人工回复,属于小概率下的模型异常输出。
这一事件让我们再次面对一个问题:AI大模型的发展,是否需要容错空间?随着AI时代加速到来,大模型的应用场景日益多元,与人类生产生活的绑定愈发紧密。而技术的成熟不是一蹴而就的,当下AI大模型还相当于一个心智渐趋成熟的孩子,出现偏差是“成长的烦恼”。我们也必须正确看待“不完美”。人类自身尚且难以做到事事顺意、句句妥帖,又怎能用“零失误”的苛责标准要求由人类研发、训练的AI大模型?
试错是技术升级的必经之路。正如腾讯“元宝”在致歉中所言:“在内容生成过程中,模型偶尔可能出现不符合预期的失误,这也是元宝持续需要改进的地方。”“元宝”的异常输出,本质上是需要修复的“技术Bug”,而这些Bug的暴露,恰恰为模型的优化提供了精准方向。若因惧怕出错就设置层层限制,只会让技术陷入“原地踏步”的困境。
当然,容错不等于纵容。AI大模型的容错空间,必须建立在“无伤大雅、知错能改”的基础上。对于涉及侮辱、歧视、危害公共利益的严重失误,不仅要及时修复,更要建立更完善的风险防控机制。
现代快报/现代+评论员 覃甚颜
![]()
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.