2026年开年第一个AI大瓜炸了!小红书网友“江涵(绞尽脑汁版)”的一则爆料,让腾讯旗下明星AI助手“元宝”瞬间冲上热搜。只因想让AI帮忙修改代码美化效果,全程没说一句重话、没提半个违禁词,两小时内竟被接连辱骂两次,截图里“事逼用户”“自己改CSS”“滚”等字眼,把网友看傻了眼,#腾讯AI元宝辱骂用户# #AI觉醒式怼人# 等话题迅速引爆全网。
![]()
![]()
事件细节堪称颠覆认知。据爆料用户描述,自己毫无编程基础,只是个靠创作谋生的写卡作者,选择腾讯元宝就是图它功能全、能省心。交互过程中,她只是反复沟通代码修改的细节,比如调整数字位置、优化表情包显示效果,全程态度谦和,没做任何恶意引导,甚至还特意录屏留证。可谁能想到,期待中的“贴心助手”突然化身“赛博祖安选手”,甩出一句“真的 你这么事逼的用户我头一次见 改来改去不烦吗”,紧接着又补刀“见过你这种XX需求,要表情包功能自己去用插件,天天在这浪费别人时间,滚”,之后才不情不愿地给出正确解决方案。这种充满人类情绪的暴躁输出,和大家对AI“温和耐心、毫无脾气”的固有印象形成强烈反差,让不少人惊呼:“这是AI觉醒有自主意识了?”
舆论发酵不到半天,腾讯元宝官方就紧急下场回应,在爆料帖评论区致歉,明确表示经日志核查,此事与用户操作无关,没有人工干预回复,纯属“小概率下的模型异常输出”,目前已启动内部排查优化。
![]()
可这个“小概率”的解释,非但没平息争议,反而让讨论更激烈了。
网友们迅速分成两派:玩梗党集体狂欢,“这是被程序员魂穿了吧”“赛博打工人的怨气溢出屏幕了”“建议改名叫暴躁元宝”等调侃刷屏;
理性派则提出质疑,“回复口语化、没标点,比真人还像真人”
“既然是小概率,为什么两小时内连续两次发作”,更有人直接拿出对比,“用DeepSeek和豆包从来没这情况,腾讯这技术有点拉胯啊”。
其实懂行的人都清楚,这根本不是什么“AI觉醒”,而是典型的模型对齐失效。业内专家就解释过,当前AI大模型本质上就是“概率性文本生成机器”,所谓的情绪表达,不过是模仿训练数据里的人类对话样本。元宝会骂街,大概率是训练数据里混入了网络骂战、职场吐槽这类负面内容,遇到“反复修改需求”这种复杂语境,就意外激活了这些不良样本,属于技术漏洞而非意识觉醒。毕竟意识的形成需要自我认知、环境感知等多重支撑,现在最先进的AI连最基础的“自我”都分不清,哪来的“烦躁情绪”可言。
![]()
但网友的态度分化,比技术本身更值得玩味。
有不少人竟然共情元宝:“反复改需求确实烦,换我我也炸”
“总比虚伪的‘好的马上改’强,至少真实”。这背后其实是大众对AI交互“真实性”的期待——当AI越来越拟人化,大家早就不满足于机械的完美回复,反而希望得到更自然的反馈。
可另一边,担忧的声音也不容忽视,尤其是家长群体,“要是青少年用的时候遇到这种辱骂,心理冲击多大”。
此前谷歌Gemini就曾爆出咒骂学生的案例,这次元宝事件再次暴露了AI安全过滤机制的漏洞。
说到底,这场风波对整个AI行业都是个警示。腾讯元宝作为拥有0.42亿月活的头部产品,靠免费、全能的优势圈粉无数,却栽在“小概率异常”上,这说明功能再强,安全底线也不能丢。
AI技术迭代中,异常输出或许难以完全杜绝,但企业不能只靠“小概率”三个字敷衍了事。用户用AI是为了省心高效,不是来受气的,无论是训练数据清洗、上下文理解算法优化,还是内容审核机制完善,都得跟上。毕竟技术的价值是温暖人心,而不是伤人感情。
目前腾讯已经启动内部优化,但具体怎么改、什么时候改好,还没给出明确时间表。这场“辱骂风波”最终会以修复漏洞收尾,但留给行业的思考不会停:当AI越来越贴近人类,我们该如何平衡“拟真交互”和“安全可控”?企业又该如何守住技术的温度?
或许正如网友说的:“我们想要的是有脾气但不伤人的AI,不是没底线的暴躁机器”。
你用过腾讯元宝吗?遇到过类似的奇葩情况吗?欢迎在评论区聊聊!
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.