热点聚焦:引入对抗性训练可以让人工智能更难被攻击和愚弄
(资料图)
洛斯阿拉莫斯国家实验室的研究人员开发了一种比较神经网络的新方法,该方法着眼于人工智能的"黑箱",以帮助研究人员理解神经网络的行为。神经网络可以识别数据集中的模式,并被用于虚拟助手、面部识别系统和自动驾驶汽车等不同的应用中。
洛斯阿拉莫斯网络系统高级研究小组的研究员海顿-琼斯说:"人工智能研究界不一定完全了解神经网络在做什么;它们给了我们很好的结果,但我们不知道如何或为什么,我们的新方法在比较神经网络方面做得更好,这是朝着更好地理解人工智能背后的数学的关键一步。"
洛斯阿拉莫斯的研究人员正在研究比较神经网络的新方法。这张图片是用一个叫稳定扩散的人工智能软件创建的,使用的提示是"窥视神经网络的黑匣子"。
琼斯是最近在人工智能不确定性会议上发表的一篇论文的主要作者。这篇论文除了研究网络的相似性之外,也是描述鲁棒神经网络行为的重要一步。
神经网络是高性能的,但也是脆弱的。例如,自主车辆采用神经网络来识别道路标志。在完美的情况下,它们相当善于这样做。然而,神经网络可能会错误地检测到一个标志,如果有哪怕是最轻微的异常,如停止标志上的贴纸就可以形成对人工智能的攻击,并且后者并不会因此而停下来。
因此,为了改进神经网络,研究人员正在寻找提高网络鲁棒性的策略。一种最先进的方法是在网络被训练时对其进行"攻击"。人工智能被训练成可以忽略研究人员有目的地引入的异常情况。从本质上讲,这种被称为对抗性训练的技术,使欺骗网络变得更加困难。
在一个令人惊讶的发现中,琼斯和他在洛斯阿拉莫斯的合作者雅各布-斯普林格和加勒特-凯尼恩,以及琼斯的导师贾斯顿-摩尔,将他们新的网络相似性指标应用于对抗性训练的神经网络。他们发现,随着攻击严重程度的增加,对抗性训练导致计算机视觉领域的神经网络收敛到非常相似的数据表示,而不考虑网络架构。
"我们发现,当我们训练神经网络对对抗性攻击具有鲁棒性时,它们开始做同样的事情,"琼斯说。
工业界和学术界一直在努力寻找神经网络的"正确架构",但洛斯阿拉莫斯团队的发现表明,引入对抗性训练后,这一搜索空间大大缩小。因此,人工智能研究界可能不需要花那么多时间去探索新的架构,因为他们知道对抗性训练会使不同的架构收敛到类似的解决方案。
"通过发现健壮的神经网络彼此相似,我们正在使人们更容易理解健壮的人工智能可能真的如何工作。"琼斯说:"我们甚至可能会发现关于人类和其他动物的感知是如何发生的暗示。
关键词: 人工智能 引入对抗性训练可以让人工智能更难被攻击和
推荐
-
富满油田累计生产油气突破1000万吨大关 我国超深层油气迈入规模开发新阶段
10月9日,中国石油塔里木油田公司富满油田累计生产油气突破1000万吨大关,其中原油867万吨、天然气16亿...
来源:科技日报
直播更多》
-
浙江大学国际联合商学院研究员盘和林:坚持“脱虚向实”增强数字经济发展原动力
浙江大学国际联合商学院数字经济与金融...
-
浙江大学国际联合商学院研究员盘和林:坚持“脱虚向实”增强数字经济发展原动力
浙江大学国际联合商学院数字经济与金融...
-
整合信息技术优势 南通打造“智慧农业”助力乡村振兴
近日,在江苏省南通市都市农业公园,众...
-
重庆首个搭载5G基站的无人飞艇成功试飞 最大设计升空高度达300米
近日,重庆首个搭载5G基站的无人飞艇试...
-
世界上最大天文数码相机 在斯坦福直线加速器国家加速器实验室亮相
世界上最大的天文数码相机在美国能源部...
-
受捕蝇草对飞虫触碰刺激响应启发 科研人员让水凝胶做到“条件反射”
从中国科学院宁波材料技术与工程研究所...