忘记密码   免费注册 查看新帖 | 论坛精华区

ChinaUnix.net

  平台 论坛 博客 认证专区 大话IT HPC论坛 徽章 文库 沙龙 自测 下载 频道自动化运维 虚拟化 储存备份 C/C++ PHP MySQL 嵌入式 Linux系统
最近访问板块 发新帖
查看: 828 | 回复: 0

康奈尔大学最新研究:对抗性样本是纸老虎,一出门就不好使! [复制链接]

论坛徽章:
3
15-16赛季CBA联赛之上海
日期:2017-11-16 13:45:42CU十四周年纪念徽章
日期:2017-11-16 17:03:0215-16赛季CBA联赛之北京
日期:2017-11-23 16:03:45
发表于 2017-07-17 10:31 |显示全部楼层
转载:雷锋网  思颖

      众所周知,在图像识别领域,对抗样本是一个非常棘手的问题,研究如何克服它们可以帮助避免潜在的危险。但是,当图像识别算法应用于实际生活场景下时,我们真的需要那么担心对抗样本问题吗?近日,康奈尔大学的一篇论文《不用那么担心自动驾驶中物体识别的对抗样本问题》给了我们解答。
论文首先提出如下观点:大多数机器学习算法对于对抗干扰很敏感,只要从图像空间中精心选取的方向增加轻微的干扰,就可能会导致这个图像被训练好的神经网络模型误分类。此外,打印出增加过干扰的图像,然后把它们拍下来,这些拍下的图像仍然会被误分类,这也证实了现实世界中对抗样本的存在。这些失误让人们意识到将机器学习应用于现实场景下时,安全是否有保障。
不过前面那些实验忽略了现实世界中物体的关键性质:相比虚拟场景下对图片单一的识别,在现实世界中,相机可以从不同的距离和角度拍下物体来进行识别。从移动观察者的角度来看,目前现实世界中的对抗样本不会对物体检测造成干扰。
他们做的一系列实验表明,实际环境下,在特定的距离和角度下拍摄的带有对抗干扰的停车标志可能会导致深度神经网络物体识别器误识别,但对于大量从不同的距离和角度拍下的停车标志的照片,对抗干扰就无法保证总能愚弄物体检测器了。
                                                          图:为了模拟真实场景,实验中把图像打印了出来。如图场景中的停车标志都能被正确识别。
       他们收集了一系列停车标志的图像,然后用三种不同的对抗攻击方法产生干扰样本,同时攻击图像分类器和物体识别器。然后,打印出受到干扰的图像,从不同的距离拍成照片,并检查了不再具有对抗性的图片中原来增加的干扰的受损程度。在大多数情况下,损坏率很高,并且随着距离的增加而增加。最后,通过一个小实验表明,照片拍摄的角度也可以改变对抗干扰的影响。
       为什么能正确识别大多数图片呢,他们认为原因是干扰的对抗特征对受到干扰的图片的大小比较敏感。如果只从很近的距离来进行识别,自动驾驶汽车就不能得出 正确结论。另外,论文中提出了一个关键问题:是否有可能构建出这样的对抗性样本,使得它在大多数不同的观察条件下都能让机器误判断?如果可能,这种对抗特征能够对人类理解深度学习网络的内部表征模式起到巨大的帮助。如果不能,也可以预期对抗性样本的研究会止步于好奇心而已,对现实世界的危害很小。
从实验结论来看,现有的对抗性干扰方法用于停车标志的识别时(在他们的数据集和控制试验之下)只在特定场景下适用。这也表明,我们可能不需要担心多数现实场景下的对抗样本问题,尤其是在自动驾驶领域。



您需要登录后才可以回帖 登录 | 注册

本版积分规则

  

北京盛拓优讯信息技术有限公司. 版权所有 京ICP备16024965号 北京市公安局海淀分局网监中心备案编号:11010802020122
广播电视节目制作经营许可证(京) 字第1234号 中国互联网协会会员  联系我们:
感谢所有关心和支持过ChinaUnix的朋友们 转载本站内容请注明原作者名及出处

清除 Cookies - ChinaUnix - Archiver - WAP - TOP