历史

美团队3D打印出的这只玩具乌龟对Goog

2019-04-11 06:06:44来源:励志吧0次阅读

从无人驾驶汽车到智能监控系统,社会正在慢慢地学习如何去相信人工智能(AI)。不会感到疲倦、总是能保持警觉的机器视觉系统可以说是保障人们安全的帮手,但它们真的足够可靠吗?

麻省理工(MIT)研究团队 Labsix 近进行的一项研究认为,从目前上看来,机器视觉距离可靠还有很长一段距离得走。

许多人都曾在络上看过会导致错视效果的图片,圆圈自主性的转动、黑点跳来跳去、看似长度不同的线条却是一样长,这类型的图片会运用颜色、光暗令人眼产生视觉上的错觉不锈钢岗亭
,但对电脑并不会有相同的效果。

虽然可能难以想像,但对于电脑来说,其实也是存在会导致“错觉”的图片。研究人员将这类型机器视觉会误判的图片称之为“对抗式影像”(adversarial image)。

影片中是 Labsix 运用 3D 打印制造出来的一只玩具乌龟。从人的角度来看,相信应该怎么看都是一只乌龟,但对于 Google 长期训练辨识日常物品的 AI 来说,这并不是一只乌龟,而是一把步枪。

这个玩具乌龟正是对抗式影像的一个例子。随着人工智能发展,人们设计出一种方式来欺骗机器视觉,让 AI 系统无法像人类一般判读图片的正确内容。

你只需要在图片中加入一点误导算法的对抗模式,或是一个几乎接近透明的涂层,对于常人看来是熊猫的图片,在 AI 看来可能就变成了一台小货车微粉石墨价格

随着 AI 技术持续发展,防范类似对抗式攻击的研究也都在持续进行,许多研究认为,虽然这些攻击对 AI 非常有效,但它们并不是太完美的。在过去,你只需要稍微旋转、放大对抗式图片,电脑视觉就能够摆脱错觉,正确识别图片。

但 Labsix 这只 3D 打印出的玩具乌龟却带来了一个重要的隐忧:这些对抗式攻击运用 3D 物体也能够起作用,而且无论从哪个角度观看苏州家庭影院
,它都能够欺骗电脑视觉。

除了制造出一只会被 AI 误认为步枪的乌龟以外,Labsix 还制造了一个会被看作是浓缩咖啡的棒球。Labsix 认为,随着神经络(neural networks)的应用普遍化,对抗式攻击的问题将会变得越来越实际,因为这些攻击将会导致危险。

“具体来说,这意味着人们可以建造一个路边的标志,在人类司机看来是完全正常的,但对于无人驾驶汽车来说可能是突然看到一个行人出现在街旁。”

这些对抗式攻击测试主要是在 Google 开发的图片分类器 Inception-v3 进行,Google 似乎打算在未来让这款分类器商业化,但目前来说所有研究人员都可以免费进行使用。

虽然 Labsix 还未在其他机器视觉软件上进行测试,但根据了解,目前还没有软件已经提出针对类似“对抗式影像”的改善及解决办法。

Google 对于这项研究并没有提出评论,但发言人向 The Verge 透露,它们认为 Labsix 的结论有些错误。

首先,Labsix 的结论谈到 3D 对抗式攻击从各个角度皆能误导 AI,但从 Labsix 自己公布的影片看来,顶多能说是大多数、而非所有角度。

其次,要想做到误导 AI 的视觉,Labsix 必须先能接触到机器视觉的算法,才能发现弱点并加以利用,对于那些想欺骗无人驾驶汽车上搭载的商业视觉系统的人来说,这会是一个非常大的障碍。

虽然是否对无人驾驶汽车造成危险还有些争议,但在其他应用上,AI 视觉也被证实会被类似的对抗性攻击所误导,Labsix 团队打算未来持续针对这个问题持续进行深入研究。

▲ 过去对抗式攻击只需要微微调整图片,就能让机器视觉摆脱错觉。

从目前情况来说,对抗性攻击是有效的,但仅限于有限的情况下,所以对于大众来说还不具有非常大的危险。

但随着 AI 和机器视觉在生活中更普遍的被应用,这些“有限”的范围也会随之扩大,如果不找出方法解决,类似的 AI 系统的弱点可能将会成为生活上新的隐忧。

分享到: