关于机器学习:AI-也会上当OpenAI-最先进的机器视觉-AI-居然被一张纸条骗了…

4次阅读

共计 1157 个字符,预计需要花费 3 分钟才能阅读完成。

来自 OpenAI 机器学习实验室的钻研人员发现,他们最先进的计算机视觉零碎居然很容易被坑骗。把一张写了另一个物体名字的纸条贴上去软件就会谬误的辨认它看到的货色。

钻研人员在一篇博客文章中写道:“咱们将这些攻打称为字体攻打。通过利用模型强有力地浏览文本的能力,咱们发现,即便是手写文本的照片也经常可能骗过计算机视觉零碎。”

钻研人员指出,这种攻打相似于能够坑骗商业机器视觉零碎的“对抗性图像”,然而制作起来要简略得多。

容易“受骗”AI 零碎尚未部署在商业产品中

对于依赖机器视觉的零碎来说,对抗性图像十分危险。例如,钻研人员曾经证实,他们能够坑骗特斯拉主动驾驶汽车的软件,通过简略地在路面上贴上某些标签,在没有正告的状况下扭转车道。这样的攻打对从医疗到军事的各种人工智能利用都是一个重大的威逼。

然而,至多在目前,这种具体的攻打所造成的危险是没有什么可放心的。问题中的 OpenAI 软件是一个名为 CLIP 的试验零碎,没有部署在任何商业产品中。事实上,CLIP 不同寻常的机器学习架构的实质造成了这种攻打胜利的弱点。

CLIP 的目标是摸索人工智能零碎如何在没有亲密监督的状况下,通过对海量图像和文本对数据库的训练,学会辨认物体。在这个案例中,OpenAI 应用了从互联网上收集的大概 4 亿个图像文本对来训练往年 1 月份公布的 CLIP。

本月,OpenAI 的钻研人员发表了一篇新论文,形容了他们是如何关上 CLIP 来察看其性能的。他们发现了所谓的“多模态神经元”,即机器学习网络中的单个组件,它们不仅对物体的图像有反馈,而且对草图、卡通和相干文本也有反馈。令人兴奋的是,它仿佛反映了人类大脑对刺激的反馈,单个脑细胞已被察看到对抽象概念的反馈,而不是具体的例子。OpenAI 的钻研表明,人工智能零碎能够像人类一样内化这些常识。

机器智能与人工智能的不同

在将来,这可能导致更简单的视觉零碎,但当初,这种办法还处于初级阶段。尽管任何人都能够通知你一个苹果和一张纸上写着“苹果”的区别,然而像 CLIP 这样的软件却不能。这种容许程序在形象层面上连贯文字和图像的能力发明了这种独特的弱点,OpenAI 将其形容为“形象舛误”。

实验室给出的另一个例子中,CLIP 不仅回应了存钱罐的图片,也回应了一串串的美元符号。正如下面的例子所示,这意味着如果在电锯上笼罩“$$”字符串,就能够坑骗 CLIP 将其辨认为储蓄罐。

钻研人员还发现,CLIP 的多模态神经元编码的偏差,正是你在从互联网上获取数据时可能会发现的那种偏差。他们发现了“一种能同时刺激黑皮肤的人和大猩猩的神经元”这反复了谷歌图像识别零碎中一个臭名远扬的谬误,该零碎将黑人标记为大猩猩。
这些例子阐明,机器智能与人类智能有如许不同ーー以及为什么在咱们把本人的生命托付给人工智能之前,合成机器智能以理解其工作原理是必要的。

正文完
 0