获取更多信息请下载APP

无人车的“前世今生”

来源:    发布日期:2018-03-28 10:27:48   阅读量:0

美国时间 3月18日深夜,Uber自动驾驶汽车在亚利桑那州撞死了一名横穿马路的妇女,这是第一起已知的涉及自动驾驶车辆的行人死亡事件。

此事件迅速引起了全球范围内的关注,无人车能否取代司机?真正意义的无人驾驶离我们还有多远?1月31日,龚建伟教授为500余名师生进行了一次题为《揭秘无人驾驶汽车》的科普报告会,深入浅出地讲解了无人车的原理和发展历史。

整理/记者 赵天宇 编辑/刘昭

【演讲专家】

龚建伟

北京理工大学机械与车辆学院教授

智能车辆研究所所长

两年前,当被滴滴“请”出中国的优步,宣布自己要研究“无人驾驶uber”时,不少人还觉得优步“大概是疯了”,但两年后,无人驾驶却已经遍地开花,谷歌、特斯拉、百度等企业已经让无人驾驶汽车在公路上行驶;苹果、英特尔、英伟达等也纷纷看好自动驾驶技术的商业前景而竞相布局。但此次uber 自动驾驶事件,也让人们开始对无人驾驶技术以及未来发展产生了疑惑。

最早用于军事目的

随着科学技术的发展,如今人工智能技术已经不仅仅局限于棋类博弈领域,而是以多种多样的方式,出现在我们生活当中,无人驾驶汽车就是其中之一。

无人驾驶车辆最早用于军事目的,如地面无人战车,用于危险场合的无人驾驶后勤保障车辆等。如美国就由军方组织了多次无人驾驶的挑战赛,促进了技术的发展。我国也在上世纪九十年代,开始进行道路环境无人驾驶车辆的研究,自2009 年至今,国家自然科学基金委也每年组织“中国智能车未来挑战赛”,就像组织咱们中小学生机器人大赛一样,极大地促进了技术的发展。

最早的无人车概念,由美国人提出。1939 年的一场博览会上,美国工业设计师格迪斯首次提出了“无人驾驶汽车”的概念,并预言“未来美国人可以乘坐无人车横穿美洲大陆”。但世界上第一辆无人车,却是由日本人于1979 年研发出来的。这辆智能车以电视摄像机为环境感知传感器,通过判断前方障碍物的位置,选择最优行驶路线,从而引导车辆以30 千米/ 小时的速度行驶。美国是对智能车辆开展研究最深、投入最多的国家,从上世纪七十年代开始,到现在已经积累了比较成熟的技术。

我国虽然对智能车辆的研究起步较晚,但是发展较快。在“八五”期间,由国防科技大学、北京理工大学、南京理工大学等研制了我国第一辆智能车辆ALVLABI,其总体水平达到了当时国际先进水平,此后第二代ALVLAB II、第三代ALVLAB III 逐步问世,水平也在逐步提高当中。从2015 年开始,越来越多的车企和互联网公司加入了这个研发队伍,无人驾驶市场出现了繁荣向好的局面。

▲谷歌无人驾驶车辆技术原理示意图

传感器是无人车的“眼睛”和“耳朵”

那么,无人驾驶的本质是什么呢?它与传统汽车不同,本质上还是一个机器人,并且是一个移动的机器人,也可以叫做“轮式移动机器人”,主要依靠车内的以计算机系统为主的智能驾驶仪来实现无人驾驶。与传统的机器人相比,这种轮式机器人的行驶环境是相对复杂的,包括城市道路、园区道路以及越野场地等等,并且在行驶过程中也需要遵守道路交通的特定规则,也就是公共交通秩序。

我们知道,一个经验丰富的司机驾驶车辆,不仅仅用眼睛这么简单,而是手脚思维并用。其中,手负责打方向盘,脚负责油门以及刹车踏板,眼睛负责观察路况,耳朵负责听觉,同时要运用经验和思维来分析判断道路情况,完成并线、超车、转向等动作,这几个方面可以说缺一不可。

因此,对应到无人驾驶车辆,这几个环节也是缺一不可的——传感器相当于司机的眼睛和耳朵;控制器利用算法进行计算,代替了司机的思维,甚至比有些司机更加“聪明”;执行机构代替了人的手和脚,这也是无人驾驶汽车的基本原理。具体来说,传感器是无人驾驶车辆最重要的安全保障,它可以迅速、精准地获取包含妨碍物的间隔、前方红绿灯的指示、限速标志上的数字等环境状况信息,以及车辆方位、车速等自车状况,常用的传感器有摄像头、红外相机、测距雷达、激光雷达、毫米波雷达、超声波雷达等,断定自车状况的传感器有惯导、轮速传感器等。

摄像头的主要功能是获取图像视觉信息,如果需要感知深度信息的话,就需要两个摄像头,我们称之为“双目立体视觉”,两个摄像头保持着必定的间隔,如同人类的双眼视差。双目摄像头首要的功用是辨认路途上的信号灯和信号象征,确保自主行车遵从交通规则。

测距雷达如激光雷达、毫米波雷达、超声波雷达,也是无人驾驶汽车常用的传感器。激光雷达通过发射许多激光束,对行驶环境的可行驶区域或环境中动态目标进行检测,与摄像头图像信息相比,激光雷达探测结果更为直接,得到的检测结果也更为可信,因而它广泛应用于障碍物检测、环境三维信息的获取、高精度地图创建和匹配定位。

“我在哪”“要到哪里去”

对于无人车来说,除了利用雷达、摄像头、卫星定位来感知环境以外, 通过感知理解算法,并利用多信息融合技术来识别车

道线、交通标识、信号灯、障碍物等物品,获取车辆距离、车辆类型、行人以及交通标识等信息同样至关重要。

此外,无人驾驶还包括了自动驾驶规划系统,也就是驾驶行为的理解和决策控制,无人车在路上行驶,不可能永远是匀速直线,和驾驶员一样,需要知道什么时候超车、换道、倒车,路口有行人又该怎样处理,这些都需要一个深度学习的过程。

如何学习呢?为了实现这些功能,我们需要采集大量真实的数据,让无人车通过机器学习方法,有效地利用驾驶员的经验与知识,这叫做类人驾驶行为的学习。包括运动轨迹分析、目标聚类、数据关联与跟踪等等,把这些数据进行在线或者离线的分析、提取,同时采集驾驶员操作控制信息,以及车辆状态特性数据。

当然,在采集实际道路和交通场景方面,测试车辆并不一定需要自动驾驶,我们可以让驾驶员去开车,这样的话,就可以得到大量的样本数据,分析人类驾驶员在各种行驶场景下的行为决策和操纵控制。以往一直是利用单个驾驶员数据来进行学习,现在正在采集更多的驾驶员的数据,实现多元大数据的机器学习。

对于驾驶员来说,他驾驶车辆,能够知道自己在哪里,到哪里去,无人驾驶汽车也应该具备这样的能力,这就牵涉到两个问题,一个是导航定位,一个是路径规划。常用导航定位方式有很多,包括标线、标志、卫星导航、航迹推算、地图导航等。每一种导航定位方式都有自己的优缺点,我们希望最终能够实现多源信息的综合定位,实现低成本的精准定位。

另外一个就是路径规划的问题,无人车在行进过程中,会遇到途径的方向、宽度、曲率、路途穿插以及路障等因素影响,加上部分环境和自车状况的不确定性,路径规划同样是一个十分重要的研究问题。途径计划常用样条曲线拟合满意避障、最大曲率以及曲率接连束缚的途径,而速度计划则是沿着拟合的途径生成满意最大速度、最大加快度等束缚的速度散布。最终计划以转向角和车速的数据方式传输给底盘操控体系,从而使车辆完成车道跟随和避障的功用。

▲ 学习理解行驶的交通场景对于无人驾驶至关重要

未来五至十年内,无人车尚不能和人工驾驶抗衡

无人驾驶车辆从最早的军用,到后来慢慢用于道路环境,取得了很大的进展。但实际上,我们常说的“自动驾驶”并不等同于“无人驾驶”。目前美国国家公路交通安全管理局(NHTSA)把自动驾驶分为了6 个等级(L0-L5),其中:第零级叫做无自动化,在这个级别,车辆的自动系统并不参与驾驶控制,常见的盲点监测、车道偏离预警都属于这个级别。

第一级叫做“驾驶支援”,如今已在家用车上普及的定速巡航就是其一。

第二级叫做“部分自动化”,驾驶员和汽车可以分享控制权。

第三级叫做有条件自动化,驾驶员不再需要时刻关注路况。

第四、五级才是真正的全自动驾驶,输入出发地和目的地,就能到达想去的任何地方。

目前,人们更希望将来行驶在道路上的全是无人驾驶车辆。但现阶段甚至未来五至十年内,由于技术的成熟度和智能化水平不高,在智能上还不具备足够的思考和推理能力,也不具备和有人驾驶车辆抗衡的能力,如果共同出现在道路上,肯定还会受“欺侮”,所以还只能在人类为其划定的专门路线、专门区域运行,以保证公共安全。■

(本文整理自龚建伟2018年1月31日主题演讲《揭秘无人驾驶汽车》,文字已经龚建伟审核并修改