人工智能98都认错图像识别AI遇上对抗性图像竟变瞎子

40次阅读

共计 1520 个字符,预计需要花费 4 分钟才能阅读完成。

作者 | James Vincent
来源 | 数据与算法之美

在视觉方面,AI 和人类的差距有多大?来自 UC Berkeley 等高校的研究人员创建了一个包含 7500 个“自然对抗实例”的数据集,在测试了许多机器视觉系统后,发现 AI 的准确率下降了 90%!在某些情况下,软件只能识别 2%-3% 的图像。这样的 AI 若用在自动驾驶汽车上,后果不敢想象!

近几年来,计算机视觉有了很大的改善,但仍然有可能犯严重的错误。犯错如此之多,以至于有一个研究领域致力于研究 AI 经常误认的图片,称为“对抗性图像”。可以把它们看作计算机的光学错觉,当你看到树上有一只猫时,人工智能看到了一只松鼠。

▲AI 把爬上树的猫误认为松鼠

研究这些图像是很有必要的。当我们把机器视觉系统放在 AI 安全摄像头和自动驾驶汽车等新技术的核心位置时,我们相信计算机和我们看到的世界是一样的。而对抗性图像证明并非如此。

对抗性图像利用机器学习系统中的弱点

但是,尽管这个领域的很多关注点都集中在那些专门设计用来愚弄 AI 的图片上(比如谷歌的算法把 3D 打印的乌龟误认为是一把枪),但这些迷惑性图像也会自然的出现。这类图像更令人担忧,因为它表明,即便不是我们特意制作的,视觉系统也会犯错。

▲谷歌 AI 误认为这只乌龟是枪

为了证明这一点,来自加州大学伯克利分校、华盛顿大学和芝加哥大学的一组研究人员创建了一个包含 7500 个“自然对抗实例”(natural adversarial examples)的数据集,他们在这些数据上测试了许多机器视觉系统,发现它们的 准确率下降了 90%,在某些情况下,软件只能识别 2%-3% 的图像。

下面就是一些“自然对抗实例”数据集的例子:


▲AI 眼中是“沉船”,其实是虫子爬在枯叶上


▲AI 眼中是“火炬”


▲AI 眼中是“瓢虫”


▲AI 眼中是“日晷”


▲AI 眼中是“棒球运动员”


▲AI 眼中是“人开卡丁车”

数据有望帮助培养更强大的视觉系统

在论文中,研究人员称这些数据有望帮助培养更强大的视觉系统。他们解释说,这些图像利用了“深层缺陷”,这些缺陷源于该软件“过度依赖颜色,纹理和背景线索”来识别它所看到的东西。

例如,在下面的图像中,AI 错误地将左侧的图片当作钉子,这可能是因为图片的木纹背景。在右边的图像中,它们只注意到蜂鸟饲养器,但却错过了没有真正的蜂鸟存在的事实。

下面的四张蜻蜓照片,AI 在颜色和纹理上进行分析后,从左到右依次会识别为臭鼬、香蕉、海狮和手套。我们从每张图片中都可以看出 AI 为什么会犯错误。

AI 系统会犯这些错误并不是新闻了。多年来,研究人员一直警告说,利用深度学习创建的视觉系统是“浅薄”和“脆弱”的,它们不会像人一样灵活地理解世界上的一些几乎相同的细微差别。

这些 AI 系统在成千上万的示例图像上进行了训练,但我们通常不知道图片中的哪些确切元素是 AI 用于做出判断的。

一些研究表明,考虑到整体形状和内容,算法不是从整体上看图像,而是专注于特定的纹理和细节。本次数据集中给出的结果似乎支持这种解释,例如,在明亮的表面上显示清晰阴影的图片,会被错误地标识为日晷。

AI 视觉系统真的没救了?

但这是否意味着这些机器视觉系统没得救了?完全不是。一般这些系统所犯的错误都是小错,比如将排水盖识别为沙井,将货车误认为豪华轿车等。

虽然研究人员说这些“自然对抗性的例子”会骗过各种各样的视觉系统,但这并不意味着可以骗过所有系统。许多机器视觉系统非常专业,比如用于识别医学扫描图像中的疾病的那些专门系统。虽然这些系统有着自己的缺点,可能无法理解这个世界和人类,但这并不影响它们发现并诊断癌症。

机器视觉系统有时可能会很快且有瑕疵,但通常都会产生结果。这样的研究暴露了机器成像研究中的盲点和空白,我们下一步的任务就是如何填补这些盲点了。

正文完
 0