小猫扭着屁股跳舞、小狗揉面包饺子、婴儿驾驶飞机冲上云霄……近年来,越来越多的AI生成视频在互联网上传播,这些视频中的形象栩栩如生,动作流畅自然,令人真假难辨。但在传递趣味和创意的同时,这些视频也成为虚假信息传播的温床。
AI技术的蓬勃发展,为内容创作带来了翻天覆地的变革,极大地提高了内容生产效率,丰富了内容的形式和种类,在诸多领域展现出巨大的应用潜力。但与此同时,其带来的问题也日益凸显:虚假信息借AI之手肆意传播,尤其是在中老年群体中,难以辨别的AI视频、音频极易成为谣言传播的渠道。
自9月1日起,国家互联网信息办公室、工业和信息化部、公安部、国家广播电视总局四部门联合发布的《人工智能生成合成内容标识办法》(以下简称《办法》)正式施行,要求所有AI生成的文字、图片、视频等内容都必须依法添加相应的身份标识。
当然,让AI“亮明身份”,绝非简单的“一刀切”式治理。在不同场景中,AI生成内容的价值与风险并不相同。在影视创作中,AI可辅助生成特效画面,为艺术创新赋能;在教育科普领域,AI能将抽象知识转化为生动内容,提升传播效果。但在新闻报道、社科研究等强事实性领域,AI生成内容若缺乏标识,极易令人混淆真实与虚构,必须严格规范。因此,《办法》落地过程中,还需结合不同应用场景的特性,细化实施范围与方式。
政策的出台只是起点,AI技术与社会发展的良性互动,需要多方主体的共同参与。对监管部门而言,需持续跟踪技术发展动态,及时优化标识规则,防范标识被篡改、AI内容规避检测等新问题。对平台与创作者来说,应主动标识,给予公众知情权。对公众而言,需要在接收信息时多一份审慎,提升对AI内容的辨别能力。
AI技术的进步不只是算法的演进和算力的提升,更是一场关于边界与责任的实践。从约束技术滥用到引导技术向善创新,只有在创新与规范之间取得平衡,才能让AI技术真正服务于人类。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.