![]()
AI生成标注正在变成某种"免责声明"——就像超市里的"最终解释权归本店所有",看起来有了护身符,真出事了该担责还是担责。
央视最近起底了一批AI造谣案例,最典型的是重庆那起"立交桥倒塌"事件。3月8日,一段10秒的视频在短视频平台疯传:画面里立交桥指示牌写着"南岸",车辆翻覆、烟尘四起,12小时内点赞5700多次。网友本能地把地点和重庆南岸区挂钩,评论区一片"希望人没事"。
结果网信办一查,消防和应急部门根本没接到事故报告。再细看视频:车牌文字不是通用字符,行人反应僵硬得像游戏NPC——典型的AI生成痕迹。发布者倒是"合规"地打了"内容由AI生成"标签,警方照样依法行政拘留6日。
这事的荒谬之处在于,造谣者似乎把AI标注理解成了"免死金牌"。但《治安管理处罚法》写得明白:故意散布谣言、谎报险情、扰乱公共秩序,该罚还得罚。标注只是内容标识的合规要求,不是造谣传谣的免责条款。《生成式人工智能服务管理暂行办法》也早就划了红线:使用AI也不能生成传播虚假有害信息。
类似操作在多地重复上演。四川武胜县有人用AI合成"特种兵爆炸""军机飞越古镇"视频,4万多播放量后警方介入——这人更离谱,不仅没标注AI生成,反而在评论区强调"是现实的""要打仗了"。账号里792条视频,大部分靠AI批量生产,最终行政处罚落袋。
重庆互联网辟谣平台的数据挺说明问题:2025年辟谣内容里,AI生成信息占比近20%。专家总结了三条原因:制作门槛低(免费软件5秒出片)、视觉冲击强(灾难画面天然抓眼球)、溯源难度大(假视频比假文字更难证伪)。灾难谣言精准击中恐惧本能,传播效率远超普通谣言。
关于责任划分,学界有共识:AI工具生成事故画面本身不算违规——工具没法预判用户用途;但如果用户明确要求生成"某具体地点的某建筑倒塌",平台方就该警觉了,风险警示和意图识别是必选项。传播端的压力更大,平台得投入更多资源做鉴别、打标、下架。
一个细节值得注意:重庆涪陵那起"房屋倒塌"视频,发布者凌晨4点半上传,早上8点主动删除,在线仅三个半小时。因删得快、影响有限,警方只做了批评教育。这说明算法时代的谣言治理,时间窗口极其关键——晚几小时,可能就是行拘和批评教育的区别。
用户端的建议很朴素:别首发上传AI生成的虚假视频,转发前核实信息真实性。但在情绪先于事实的短视频生态里,这条建议能拦住多少人,是个问号。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.