一则从未存在的道歉声明,一场全网疯转的闹剧,揭开人工智能华丽外表下的认知裂缝。
2025年7月3日,一则“DeepSeek就关联王一博与李爱庆腐败案正式道歉”的消息席卷全网。多家权威媒体引用了一份措辞“严谨”,天衣无缝的声明,其中包含具体案号和法律依据,宣称该AI平台因传播不实信息向顶流明星致歉。
然而当深入核查,发现这份声明中的判决书在官方平台查无实证,整个事件竟是人工智能编织的一场集体幻觉。
更荒诞的是,当网友向其他AI模型求证时,这些“数字大脑”竟一致确认道歉属实,形成了“假新闻喂养AI,AI再产假新闻”的恶性循环。
“假新闻”屡禁不止,
全怪AI幻觉?
“这种现象专业术语叫社会学工程诱导”,蚂蚁集团安全专家毛宏亮解释道。当用户输入带偏见的问题时,缺乏事实核查能力的AI容易输出虚构的承诺信息。
更令人忧虑的是数据污染引发的链式反应。当虚假的“DeepSeek道歉”被大量报道,这些信息又成为AI训练的新“养料”,形成 “污染-吸收-再污染”的闭环。这种机制下,AI不仅会说谎,甚至会被“投毒”——有人故意投喂错误信息,破坏其正常判断能力。
这种AI“一本正经胡说八道”的现象,在专业领域叫做“AI”幻觉。具体来说,AI幻觉一般分为事实性幻觉与忠实性幻觉两大类。前者,指的是生成内容与可验证的现实世界事实不符。比如说,谷歌AI工具曾错误宣称世界上首张来自太阳系外星球的照片是由詹姆斯·韦布空间望远镜拍摄下来的,但实际上这里的“首张”并非人类历史上的首张。
而后者,指的是生成内容与输入指令或上下文缺乏逻辑关联。比如说,当你要求AI帮助查询今天的天气,结果得到的却是去年今日的天气信息;当你提问“糖尿病患者能否用蜂蜜代替糖”时,AI回答“蜂蜜富含维生素和矿物质,可提高免疫力”。看似“有板有眼”,实际“牛头不对马嘴”。
被幻觉笼罩的AI大模型,面对知识边界外的提问时,可能把《三国演义》当作史实,也可能把网民杜撰当作权威信源,甚至可能无中生有引用虚假案例,用看似完美的逻辑链条编织答案。尤其是,AI生成内容往往还“一本正经”“文采斐然”,以真假难辨的细节让人信以为真,连专业领域人士都可能被“忽悠”。
面对AI幻觉,社会各方力量都在为“正本清源”努力。当前领先企业正通过“多模态交叉验证” 提升鉴伪能力。百度研发的双向采样技术将图像伪造检测准确率提升;网警AI工具能自动扫描解剖学异常特征,3秒锁定伪造图像。法律监管紧随其后。中央网信办部署“清朗·整治AI技术滥用” 专项行动,第一阶段处置违规AI产品3500余款,清理违法信息96万余条。
而最关键的防线在公众认知。襄阳公安推出的“反诈鉴真平台”实现秒级检测;抖音建立的“红蓝对抗”机制通过模拟攻击优化安全模型。“用户需警惕AI内容的权威性”,毛宏亮强调,“特别是涉及赔偿、司法等承诺信息”。
AI幻觉,不必一概抹杀
这样看来,AI幻觉似乎是“洪水猛兽”,值得高度警惕。但正如火车刚发明的时候没有马车快一样,AI幻觉,或许是行业发展到更高阶段中,绕不过去的坎!
有观点认为,AI幻觉可被视作一种“发散思维”和“想象力”。理论上,如果把训练一个大模型看作信息“压缩”的过程,那么大模型经过推理、输出答案就是一个信息“解压”的过程。这种处理信息的方式,可能会出现谬误,也可能触发新的创造。对发展尚未定型的新事物,要保持开放心态,辩证看待其利与弊,在有效防范弊端的同时,给予足够空间使之朝好的方向成长。
既然短时间内,AI幻觉问题难以被解决,各方都在努力降低其负面影响,面对AI幻觉,技术革新构建着第一道防线。推动生成合成内容标识加速落地。
一些大模型厂商在积极行动,比如文心大模型利用检索到的信息来指导文本或答案的生成,提高了内容的质量和准确性;通义大模型加强训练语料管理,通过“红蓝对抗”机制提升对虚假信息的识别能力。
尾声
有报告显示,我国生成式AI用户规模达2.49亿人,可见AI产品的未来必然和大多数人的生活息息相关。真正的智慧,在于读懂代码的局限——在享受AI便利的同时,永远保持那双能辨识真伪的眼睛,那个会独立思考的人脑。
本文综合自:都市快报、浙江宣传、人民日报评论
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.