欺骗计算机视觉软件越来越容易?一个纸片就搞定!
硅谷Live / 实地探访 / 热点探秘 / 深度探讨
一张纸片,香蕉秒变烤箱!
如果你想要尝试欺骗一下 AI 视觉系统,这篇文章介绍的这些小纸片可以帮不少忙。
很长一段时间,计算机科学家都在尝试生成可以欺骗AI的特殊图像。这些图画或是形状被称为“对抗性图像”,它们可以利用计算机看世界的弱点来进行攻击。你可以将他们想成一种错觉,一种 AI 的错觉。它们可以被制成眼镜来欺骗面部识别系统,也可以被打印成真实物体,而现在,谷歌的研究者们将他们缩小成了一块纸片。
日前,谷歌研究人员发布了一篇记录这些纸片发明过程的论文。虽然这算不上标志一个新技术天翻地覆的分水岭,但也是对抗性图像技术的一个重要突破。这些图像不仅可以在世界各地被打印出来,还非常的灵活。不像其他对抗性攻击,他们不需要附着在被识别的图像上面,研究人员也不需要小心调整他们在图像中的位置。在展示的视频中,研究人员轻松将香蕉变成了一只烤箱。
研究者们在论文中写到,这些纸片“允许攻击者在对实际亮度,摄像机角度,真实事物的标签,甚至是旁边还有没有其他物体都不知情的情况下进行攻击。”所以,当这样的图像被生产之后,“它可以被上传在网络上,供所有攻击者打印使用。”
这就是为什么很多人工智能研究者担心这样的攻击会被运用到无人车运行系统中。想像一下这样一个小纸片就可以让你的座驾以为自己识别到了一个减速标记,或者可以让你的车子在人工智能监督系统中消失。“即使人们可以看到这些纸片,他们也无法知道它们究竟有什么功能。”
还好,现阶段我们还不需要担心这样的攻击。虽然对抗性图像可以非常有效,他们并不是对所有 AI 系统都一样有效。这篇论文中的谷歌研究者花费了很长的时间来制作这样的图像,而且知道他们想要攻击的视觉系统的代码。但这一研究仍然显示出类似攻击正在变得越来越灵活和有效。而这一切只是个开始。
本文编译自 The Verge。
想和探长聊一聊?来加探长个人微信号 svinsight
推荐阅读
关注公众号:拾黑(shiheibook)了解更多
[广告]赞助链接:
四季很好,只要有你,文娱排行榜:https://www.yaopaiming.com/
让资讯触达的更精准有趣:https://www.0xu.cn/
随时掌握互联网精彩
- 1 习近平发表二〇二五年新年贺词 7975173
- 2 周华健64岁还能唱出顶级现场 7989034
- 3 谢娜回应不是湖南台主持:没签约 7826224
- 4 祝大家所愿皆所成 7747409
- 5 白鹿王楚然周也 央视三美 7623019
- 6 各地跨年烟花秀 7584899
- 7 2025跨年晚会直播 7483790
- 8 《封神》剧组亮相跨年晚会 7321947
- 9 樊振东1-3不敌王楚钦 7293397
- 10 一起说出2025年的心愿 7198294