98%都认错,图像识别AI遇上对抗性图像变“瞎子”

  E编程昨天我要分享

  依法编程Autocodes

近年来计算机视觉有了很大的改进,但仍然可能犯下严重的错误。有很多错误,所以有一个专门研究人工智能常常误解的图像的研究领域,称为“对抗性图像”。将它们视为计算机的视错觉。当你在树上看到一只猫时,人工智能会看到一只松鼠。

AI错误的猫爬上树松鼠

有必要研究这些图像。当我们将机器视觉系统置于AI安全摄像头和自动驾驶汽车等新技术的核心时,我们相信计算机与我们看到的世界是一样的。对抗形象证明事实并非如此。

对抗图像利用机器学习系统中的弱点

然而,尽管该领域的许多重点都集中在专门设计用于愚弄AI的图像上(例如Google的算法错误地将3D打印的乌龟视为枪),但这些令人困惑的图像自然会出现。这种类型的图像更令人担忧,因为它表明即使我们没有制作它,视觉系统也会出错。

Google AI错误地认为这只乌龟是一把枪

为了证明这一点,加州大学伯克利分校,华盛顿大学和芝加哥大学的一组研究人员创建了一个包含7,500个“自然对抗实例”的数据集,在这些实例中他们测试了许多机器视觉系统。他们发现他们的准确率下降了90%。在某些情况下,软件只能识别2%-3%的图像。

以下是“自然对抗示例”数据集的一些示例:

在人工智能的眼中,这是一个“残骸”,事实上,昆虫在枯叶上爬行

AI眼睛是“火炬”

AI眼睛是“瓢虫”

在人工智能的眼中,它是“日本人”

在人工智能的眼中,它是一个“棒球运动员”

在人工智能的眼中,它是“人们驾驶卡丁车”

预计这些数据有助于培养更强大的视觉系统

研究人员表示,该数据有望帮助培养更强大的视觉系统。他们解释说这些图像利用了“深层缺陷”。

这些缺陷源于该软件“过度依赖颜色,纹理和背景线索”来识别它所看到的内容。

例如,在下图中,AI错误地将左侧图像视为钉子,可能是因为图像的木纹背景。在右边的图像中,他们只注意到了蜂鸟喂食器,但他们错过了没有真正的蜂鸟存在的事实。

以下四张照片AI分析颜色和纹理,从左到右分别标识为臭鼬,香蕉,海狮和手套。我们可以从每张图片中看出为什么人工智能会犯错误。

AI系统犯这些错误并不是新闻。多年来,研究人员一直在警告,通过深度学习创建的视觉系统是“浅薄的”和“脆弱的”,并且他们没有相同的灵活性来理解世界上几乎相同的细微差别。

这些AI系统在数千个样本图像上进行了训练,但我们通常不知道AI使用图像中的哪些确切元素来做出判断。

一些研究表明,考虑到整体形状和内容,算法不会将图像作为一个整体来看,而是专注于特定的纹理和细节。该数据集中的结果似乎支持这种解释。例如,在明亮表面上具有清晰阴影的图片被错误地识别为日.

AI视觉系统真的不成功吗?

但这是否意味着这些机器视觉系统没有得到保存?完全没有。一般来说,这些系统所犯的错误都是轻微的错误,例如将排水盖识别为检修孔并将卡车误认为是豪华车。

虽然研究人员说这些“自然对立的例子”会欺骗各种视觉系统,但这并不意味着所有系统都可以被愚弄。许多机器视觉系统是非常专业的,例如用于识别医学扫描图像中的疾病的专用系统。虽然这些系统有其自身的缺点,但它们可能无法了解世界和人类,但这并不影响它们对癌症的发现和诊断。

机器视觉系统有时可能快速且有缺陷,但通常会产生结果。这样的研究揭示了机器成像研究中的盲点和差距,我们的下一个任务是填补这些盲点。

代码和数据集:

收集报告投诉

程序自动编码

近年来计算机视觉有了很大的改进,但仍然可能犯下严重的错误。有很多错误,所以有一个专门研究人工智能常常误解的图像的研究领域,称为“对抗性图像”。将它们视为计算机的视错觉。当你在树上看到一只猫时,人工智能会看到一只松鼠。

AI错误的猫爬上树松鼠

有必要研究这些图像。当我们将机器视觉系统置于AI安全摄像头和自动驾驶汽车等新技术的核心时,我们相信计算机与我们看到的世界是一样的。对抗形象证明事实并非如此。

对抗图像利用机器学习系统中的弱点

然而,尽管该领域的许多重点都集中在专门设计用于愚弄AI的图像上(例如Google的算法错误地将3D打印的乌龟视为枪),但这些令人困惑的图像自然会出现。这种类型的图像更令人担忧,因为它表明即使我们没有制作它,视觉系统也会出错。

Google AI错误地认为这只乌龟是一把枪

为了证明这一点,加州大学伯克利分校,华盛顿大学和芝加哥大学的一组研究人员创建了一个包含7,500个“自然对抗实例”的数据集,在这些实例中他们测试了许多机器视觉系统。他们发现他们的准确率下降了90%。在某些情况下,软件只能识别2%-3%的图像。

以下是“自然对抗示例”数据集的一些示例:

在人工智能的眼中,这是一个“残骸”,事实上,昆虫在枯叶上爬行

AI眼睛是“火炬”

AI眼睛是“瓢虫”

在人工智能的眼中,它是“日本人”

在人工智能的眼中,它是一个“棒球运动员”

在人工智能的眼中,它是“人们驾驶卡丁车”预计这些数据有助于培养更强大的视觉系统

研究人员表示,该数据有望帮助培养更强大的视觉系统。他们解释说这些图像利用了“深层缺陷”。

这些缺陷源于该软件“过度依赖颜色,纹理和背景线索”来识别它所看到的内容。

例如,在下图中,AI错误地将左侧图像视为钉子,可能是因为图像的木纹背景。在右边的图像中,他们只注意到了蜂鸟喂食器,但他们错过了没有真正的蜂鸟存在的事实。

以下四张照片AI分析颜色和纹理,从左到右分别标识为臭鼬,香蕉,海狮和手套。我们可以从每张图片中看出为什么人工智能会犯错误。

AI系统犯这些错误并不是新闻。多年来,研究人员一直在警告,通过深度学习创建的视觉系统是“浅薄的”和“脆弱的”,并且他们没有相同的灵活性来理解世界上几乎相同的细微差别。

这些AI系统在数千个样本图像上进行了训练,但我们通常不知道AI使用图像中的哪些确切元素来做出判断。

一些研究表明,考虑到整体形状和内容,算法不会将图像作为一个整体来看,而是专注于特定的纹理和细节。该数据集中的结果似乎支持这种解释。例如,在明亮表面上具有清晰阴影的图片被错误地识别为日.

AI视觉系统真的不成功吗?

但这是否意味着这些机器视觉系统没有得到保存?完全没有。一般来说,这些系统所犯的错误都是轻微的错误,例如将排水盖识别为检修孔并将卡车误认为是豪华车。

虽然研究人员说这些“自然对立的例子”会欺骗各种视觉系统,但这并不意味着所有系统都可以被愚弄。许多机器视觉系统是非常专业的,例如用于识别医学扫描图像中的疾病的专用系统。虽然这些系统有其自身的缺点,但它们可能无法了解世界和人类,但这并不影响它们对癌症的发现和诊断。

机器视觉系统有时可能快速且有缺陷,但通常会产生结果。这样的研究揭示了机器成像研究中的盲点和差距,我们的下一个任务是填补这些盲点。

代码和数据集:。