研究发现激光雷达存在漏洞 自动驾驶汽车或会被愚弄

近日,经研究发现,激光雷达感知系统也可以被欺骗。通过欺骗激光雷达传感器信号,从而欺骗车辆激光雷达感知系统,使其看到根本不存在的障碍。

  对自动驾驶汽车而言,最重要的是感知周围发生的事情。与人类驾驶员一样,自动驾驶汽车也需要即时决策的能力。

  目前,大多数自动驾驶汽车依靠多个传感器感知世界,大多数系统使用摄像头、雷达传感器和激光雷达传感器组合,车载计算机将这些数据融合在一起,形成对汽车周围情况的全面了解。没有这些数据,自动驾驶汽车就无法安全行驶。由于每个系统都可以检测其他系统,因此使用多个传感器系统的汽车性能更好,也更安全。但这些系统并非万无一失,比如简单地在交通标志上贴上标签,完全改变其含义,就可以欺骗摄像头感知系统。

u=315761132,633916058&fm=11&gp=0.jpg

  近日,密歇根大学RobustNet 研究小组、加州大学欧文分校的计算机科学家Qi Alfred Chen和SPQR实验室的同事们合作研究发现,激光雷达感知系统也可以被欺骗。通过欺骗激光雷达传感器信号,从而欺骗车辆激光雷达感知系统,使其看到根本不存在的障碍。如果发生这种情况,车辆可能会因阻塞交通或突然刹车而导致撞车。

  欺骗激光雷达信号

  激光雷达感知系统有两个组成部分,即传感器和处理传感器数据的机器学习模型。激光雷达传感器通过发出光信号,并测量光信号从物体反射回传感器的时长,计算自身与周围环境之间的距离,这种来回的时间也称为“飞行时间(TOF)”。

  激光雷达装置每秒发出成千上万的光信号。然后,其机器学习模型利用返回的脉冲绘制汽车周围的世界,这类似于蝙蝠在夜间利用回声定位感知障碍物的位置,但是这些脉冲可以被欺骗,攻击者可以向传感器发出光信号,以混淆传感器。

  然而,欺骗激光雷达传感器,使其看到不存在的车辆更加困难。由于信号以光速传播,攻击者需要以纳秒级精度计算发射到目标激光雷达上的信号的时间。当激光雷达使用飞行时间来计算距离时,细微的差异会显现出来。

  如果攻击者成功地欺骗了激光雷达传感器,还必须欺骗机器学习模型。OpenAI研究实验室的研究表明,机器学习模型很容易受到特殊信号或输入的影响,这称为对抗样本。例如,特殊制成的交通标志贴纸可以欺骗摄像头传感器。

  研究人员发现攻击者可以使用类似的方法干扰激光雷达。攻击者利用专门用于欺骗机器学习模型的信号,让其误以为存在障碍。激光雷达传感器将黑客的虚假信号输入机器学习模型,机器学习模型会识别这些信号,而误以为存在障碍。对抗样本经过精心设计,可满足机器学习模型的期望。例如,攻击者可能会发出卡车静止的信号,为了实施攻击,攻击者可能将其设置在十字路口,或者将虚假信号置于自动驾驶汽车前面的车辆。

  两种可能的攻击

  研究人员选择了一个有较多汽车制造商使用的自动驾驶系统,并使用该团队收集的真实世界传感器数据,演示了两种不同的攻击。在“紧急刹车攻击”中,展示了攻击者如何让车辆误以为路上出现了障碍物,而突然刹车。在“自动驾驶冻结攻击”中,研究人员使用虚假障碍,愚弄一辆在红灯前停下的车辆,使其在红灯变绿后仍然停滞不前。

  研究人员表示,希望通过利用自动驾驶感知系统的漏洞,为构建自动驾驶技术的团队敲响警钟。关于自动驾驶系统中新型安全性问题的研究才刚刚开始,研究人员希望在系统被攻击前发现更多潜在漏洞。

  自新型冠状病毒肺炎疫情爆发以来,传感器专家网一直密切关注疫情进展,根据国家及地方政府的最新调控与安排,为更好的服务相关企业,在疫情期间,传感器专家网免费发布企业相关文章,免费成为传感器专家网认证作者,请点击认证,大家同心协力,抗击疫情,为早日打赢这场防控攻坚战贡献自己的一份力量。

点 赞

分享:

参与评论已发布评论0

0/500

发表评论

评论区

加载更多

Null

电子行业从业者。