美国东部时间3月19日晚间,一辆 Uber 的自动驾驶汽车在亚利桑那州坦佩市的公共道路上与一名行人相撞,该行人在送往医院后不治身亡。
警方在一份声明中称:“当时该车辆正往北行驶,一名女性在人行道外穿过一条四车道道路时被它撞倒。”
坦佩市警察局长西尔维娅·莫伊尔(Sylvia Moir)在接受采访时称:“基于受害人是从阴影中突然出现在马路上的,很明显,在任何一种模式(无人驾驶或人为驾驶)下,都很难避免这种碰撞。”
这起意外事故将不仅影响Uber的自动驾驶的计划,还将影响到整个无人驾驶行业最终发布能在公共道路上行驶的无人汽车的计划。
这则新闻将“无人驾驶技术”推向热搜。
现有无人驾驶技术路线优缺点
目前,国际上自动驾驶环境感知的技术路线主要有两种:一种是以特斯拉为代表的毫米波雷达主导的多传感器融合方案,另一种以高成本激光雷达为主导,典型代表如谷歌Waymo。我们来分析一下这两条线路对前方路况分析所使用的传感器:
特斯拉的无人驾驶方案以毫米波雷达+可见光摄像头为主,最开始有MobileEye的参与,以可见光摄像头为主,毫米波雷达作为辅助。出现撞卡车事件后,Tesla改为毫米波雷达为主,可见光摄像头为辅。
谷歌的方案基本上是以激光雷达为主,毫米波雷达为辅,可见光摄像头几乎不参与。谷歌似乎对可见光摄像头一直不感冒,即使涉及到物体/行为识别,谷歌仍倾向于用三维激光雷达。
从上面我们可以看出目前市面上主流的前向路况检测主要依靠以下三种传感器:毫米波雷达、激光雷达以及可见光摄像头,且只是两个传感器融合。下面我们来分析一下这三种传感器的优劣势:
上表中可以看出,目前主流的针对前向的传感器融合方案都有一个显著的缺点:在恶劣天气情况下,只有毫米波雷达一个单传感器可以起到作用,而毫米波雷达自身又难以识别行人。故现有的技术方案只能在正常天气下工作,在恶劣天气环境下(特别是光线不好的情况)会对路上行人的生命会造成极大的威胁。
所以面对这种既要能在夜晚和恶劣的天气情况下,解决视觉和行人识别的问题。看似无人驾驶未能找到解决方案,但其实我们忽略了,夜视传感器中的远红外传感器。因为远红外技术只考虑观测主体与环境之间温度差,可以不受光线情况影响。
远红外热成像技术成像效果
远红外热成像原理,通过能够透过红外辐射的红外光学系统将视场内景物的红外辐射聚焦到能够将红外辐射能转换为便于测量的物理量的器件--红外探测器上,红外探测器再将强弱不等的辐射信号转换成相应的电信号,然后经过放大和视频处理,形成可供人眼观察的视频图像,最终通过显示终端显示、音响设备报警的夜间辅助驾驶产品
远红外热成像系统下的行人检测效果图
转载请注明出处。