该补丁只会愚弄特定算法,但研究人员正在研究更灵活的解决方案
这些类型的图像被称为“对抗样本”,因为它们能够欺骗计算机视觉系统。
人工智能监控的兴起非常令人担忧。政府集体追踪和识别公民的能力可能意味着公共匿名的终结。但正如研究人员一再表明的那样,有办法欺骗此类系统。
最新的例子来自比利时鲁汶大学的一群工程师。在上周在预印服务器 arXiv 上分享的一篇论文中,这些学生展示了简单的打印图案如何能够欺骗旨在识别图像中人物的 AI 系统。
如果你打印出一个学生特别设计的贴片并将它挂在你的脖子上,从人工智能的角度来看,你可能已经躲进了隐形斗篷。
正如研究人员所写:“我们相信,如果我们将这项技术与复杂的服装模拟相结合,我们就可以设计出一种 T 恤印花,让自动监控摄像头几乎看不到人。” (他们没有提到它,但众所周知,这是威廉吉布森的科幻小说零历史中的一个重要情节装置。)
这可能看起来很奇怪,但它实际上是AI 世界中众所周知的现象。这些类型的模式被称为对抗性示例,它们利用计算机视觉系统的脆弱智能来诱使它们看到不存在的东西。
过去,对抗性示例曾被用来欺骗面部识别系统。(只要戴上一副特殊的眼镜,人工智能就会认为你是米拉乔沃维奇。)它们已经变成了贴纸,打印到 3D 物体上,甚至被用来制作可以欺骗算法的艺术作品。
许多研究人员警告说,对抗样本具有危险的潜力。例如,它们可以用来欺骗自动驾驶汽车将停车标志读取为灯柱,或者它们可以欺骗旨在识别疾病的医疗人工智能视觉系统。这样做可能是为了医疗欺诈,甚至是故意造成伤害。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.