算法帮助人工智能系统躲避对抗性输入
导读 以自动驾驶汽车的防撞系统为例。如果可以完全信任车载摄像头的视觉输入,人工智能系统可以直接将该输入映射到适当的动作——向右转、向左转
以自动驾驶汽车的防撞系统为例。如果可以完全信任车载摄像头的视觉输入,人工智能系统可以直接将该输入映射到适当的动作——向右转、向左转或继续直行——以避免撞到相机在路上看到的行人.
但是,如果相机出现故障,将图像略微移动几个像素,该怎么办?如果汽车盲目相信所谓的“对抗性输入”,它可能会采取不必要且具有潜在危险的行动。
麻省理工学院研究人员开发的一种新的深度学习算法旨在帮助机器在真实的、不完美的世界中导航,通过对他们收到的测量和输入建立健康的“怀疑”。
该团队将强化学习算法与深度神经网络相结合,两者分别用于训练计算机玩围棋和国际象棋等视频游戏,以构建一种他们称为 CARRL 的方法,用于深度强化学习的认证对抗性鲁棒性。
研究人员在多种场景中测试了该方法,包括模拟防撞测试和视频游戏 Pong,并发现 CARRL 的表现更好——避免碰撞并赢得更多 Pong 游戏——超过标准机器学习技术,即使在面对不确定的、对抗性的输入。
麻省理工学院博士后迈克尔埃弗雷特说:“你经常认为攻击者是入侵你计算机的人,但也可能只是你的传感器不够好,或者你的测量结果不完美,这种情况经常发生。”航空航天系(AeroAstro)。“我们的方法有助于解决这种缺陷并做出安全的决定。在任何安全关键领域,这是一个需要考虑的重要方法。”
Everett 是一项概述新方法的研究的主要作者,该研究出现在 IEEE 的神经网络和学习系统汇刊中。该研究源自麻省理工学院博士生 Björn Lütjens 的硕士论文,并得到麻省理工学院 AeroAstro 教授 Jonathan How 的指导。
免责声明:本文由用户上传,如有侵权请联系删除!