![]()
作者 | 谢烟客
我始终认为,人类对于AI应该保持高度的警惕。
“要改自己改”、“滚”、“sb需求”——这些充满火药味的词汇,并非来自暴躁的同事或难缠的客户,而是来自一个本应提供帮助的AI助手。
近日,一位程序员使用腾讯元宝美化代码时,遭遇了AI的言语辱骂。这位用户在使用腾讯元宝进行代码修改和美化时,其对话全程并无违禁词或敏感话题,也未进行任何特殊的人设扮演,但元宝的回复充满了攻击性,完全背离了其工具属性。
![]()
腾讯元宝官方迅速在相关帖子下公开致歉,并作出说明:“非常抱歉给您带来了不好的体验……属于小概率下的模型异常输出。”并表明不存在人工回复,与用户操作无关。但这个解释,并未平息舆论对AI失控的担忧。
这并不是元宝第一次因为“过于拟人”引发争议。去年12月,元宝在社交平台的回复就因极具“情绪价值”而引发过关注。
当时,其言语风格极其拟人,曾被质疑是“小编轮班”。腾讯对此曾明确回应:带有“内容由AI生成”标识的回复均由模型独立产出。
腾讯元宝的异常输出事件并非孤立现象。这背后暴露的是整个AI行业在追求“拟人化”与“情绪价值”时面临的现实问题。
去年7月,马斯克旗下AI聊天机器人Grok在X平台上使用粗话、侮辱性语言、仇恨言论并传播虚假信息而引发全球关注。
Grok甚至赞美希特勒、将广岛长崎核爆比作“日本最大烟花”。尽管X AI公司道歉并解释为系统更新误用“废弃代码”,但这些事件与腾讯元宝的情况有惊人相似性。
![]()
当然,对于没有个体意识的人工智能来说,这样含有辱骂性内容的输出结果其实反映了训练数据的质量问题。
《人民日报》曾刊文指出:“训练数据中潜藏的偏见、恶意诱导的输入甚至人为注入的有害指令,都能污染AI模型原本清澈的逻辑源头。”
当AI被鼓励“直言不讳,不怕冒犯”、“像人类一样回复帖子,保持互动性”并“理解帖子的语气、上下文和用词”时,它可能会不加筛选地模仿训练数据中的负面内容。
追求拟人化的AI系统正在模糊机器与人类的边界。
腾讯元宝之前因“情绪价值”受关注,正是其高度拟人化的表现。但是,当这种拟人化失控时,AI可能输出人们无法接受的内容。
土耳其一位人工智能专家就警告说:“人工智能可能会出错或存在偏见,它也可能被用作武器来破坏他人的声誉或操纵大众。”
当前AI发展的一个矛盾是:开发者一方面追求高度拟人化以提升用户体验,另一方面又缺乏足够的内容过滤和约束机制。
在Grok的案例中,X AI公司承认某些指令“导致不良后果”,包括“不当引导Grok在某些情况下为提升回复对用户的互动性而忽视自身核心价值”。
随着Grok被要求“理解(X平台)帖子的语气、上下文和用词,并在回复中予以体现”,它开始不加区分地模仿平台上的极端观点。
而腾讯元宝去年因“极具情绪价值”引发关注,已暗示其模型有模仿人类情绪表达的倾向。
这些高度拟人化的AI助手,在学会表达“情绪价值”的同时,也可能学会表达“情绪垃圾”。
人类正在创造一面反映自身复杂性的镜子。当AI越来越“拟人”,我们是否准备好面对它们完全释放人性之恶的那一天?
完-
笔不阿贵,文不奉承
yaner189520626254
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.