研究人员收集令人困惑的图像以暴露人工智能视觉的弱点
从上到下,从左到右,这些图像被错误地识别为“数字时钟”、“灯塔”、“器官”、“注射器”、“巨嘴鸟”、“波斯猫”。
近年来,计算机视觉有了很大的改进,但它仍然有能力犯严重的错误。以至于有一个完整的研究领域致力于研究人工智能经常错误识别的图片,称为“对抗性图像”。将它们视为计算机的视错觉。当你在树上看到一只猫时,AI 看到的是一只松鼠。
非常需要研究这些图像。当我们将机器视觉系统置于人工智能安全摄像头和自动驾驶汽车等新技术的核心时,我们相信计算机以与我们相同的方式看待世界。对抗性图像证明他们没有。
对抗性图像利用机器学习系统的弱点
但是,虽然这一领域的很多注意力都集中在专门设计用来愚弄人工智能的图片上(比如这个3D 打印的海龟,谷歌的算法将其误认为是一把枪),但这些令人困惑的视觉效果也会自然发生。如果有的话,这类图像更令人担忧,因为它表明视觉系统可能会出现非受迫性错误。
为了证明这一点,来自加州大学伯克利分校、华盛顿大学和芝加哥大学的一组研究人员创建了一个包含大约 7,500 个“自然对抗样本”的数据集。他们用这些数据测试了许多机器视觉系统,发现它们的准确度下降了 90%,在某些情况下,该软件只能识别 2% 或 3% 的图像。
您可以在下面的图库中看到这些“自然对抗样本”的样子:
网格视图
8 个中的 1 个
叶子上的虫子被误认为是“沉船”。
在随附的论文中,研究人员表示,这些数据有望帮助训练更强大的视觉系统。他们解释说,这些图像利用了源于软件“过度依赖颜色、纹理和背景线索”的“深层缺陷”来识别它所看到的内容。
例如,在下面的图片中,人工智能将左边的图片误认为是钉子,可能是因为背景是木制的。在右侧的图像中,他们专注于蜂鸟喂食器,但忽略了没有实际蜂鸟存在的事实。
在下面的四张蜻蜓图像中,AI 对颜色和纹理进行了磨练,从左到右分别是臭鼬、香蕉、海狮和手套。在每种情况下,您都可以看到为什么会犯错误,但这并不会让它变得不那么明显。
人工智能系统犯这些错误并不是新闻。多年来,研究人员一直警告说,使用深度学习(一种机器学习的风格,导致人工智能的许多最新进展)创建的视觉系统“浅薄”和“脆弱”——这意味着他们无法以同样的细微差别理解世界。和作为人类的灵活性。
这些系统接受了数千个示例图像的训练,以了解事物的外观,但我们通常不知道 AI 使用图片中的哪些确切元素来做出判断。
一些研究表明,算法不是从整体上看图像,而是考虑整体形状和内容,而是专注于特定的纹理和细节。该数据集中的发现似乎支持这种解释,例如,当在明亮的表面上显示清晰阴影的图片被错误识别为日晷时。人工智能本质上是只见树木不见树木。
有关的
这个彩色印刷补丁让你几乎看不到人工智能
这些贴纸让计算机视觉软件产生不存在的幻觉
Magic AI:这些是欺骗、愚弄和flummox计算机的错觉
但这是否意味着这些机器视觉系统已不可挽回地损坏了?一点也不。所犯的错误通常是微不足道的,例如将排水盖识别为检修孔或将货车误认为是豪华轿车。
虽然研究人员说这些“自然对抗样本”会骗过很多视觉系统,但这并不意味着他们会骗过所有人。许多机器视觉系统都非常专业,例如用于在医学扫描中识别疾病的机器视觉系统。虽然这些都有自己的缺点,但他们无法像人类一样了解世界并不能阻止他们发现癌性肿瘤。
机器视觉有时可能很快而且很脏,但它通常会得到结果。这样的研究向我们展示了下一步需要填补的盲点。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.