凤凰科技讯(作者/朱旭冬)3月17日消息,智能驾驶一直是一个很火的话题,很多人在关注这个话题,很多公司也在往这个方向努力。最为大家熟悉的主要是Google、特斯拉以及传统汽车公司。
在中国,百度和滴滴出行也在往这个方向努力。前不久滴滴联合在线教育机构Udacity发起了“滴滴-Udacity无人驾驶大挑战”,排名前五的团队的代码将在Udacity的无人驾驶车上实验运行,争夺10万美元奖金,并有机会加入滴滴智能驾驶技术团队。
昨天晚上,滴滴前沿业务技术负责人贾兆寅在知识分享社区知乎发起了一项知乎Live,谈了自己对智能驾驶的理解,也回答了知乎用户的提问。贾兆寅此前在Google 工作了三年半,主要从事无人驾驶感知领域的研究。
这场收费9.99元的知乎Live吸引了246人参加,贾兆寅谈到的话题包括智能驾驶的发展历程,特斯拉、百度等企业在智能驾驶方面的成果与遇到的问题,智能驾驶在现实交通环境中的应用,智能驾驶什么时候能真正到来等。
以下是这场知乎Live的速记。如果你对智能驾驶感兴趣、但又不是特别了解,看完这篇速记一定会很有收获。
贾兆寅:大家好,我是贾兆寅,能跟大家一起交流非常开心。在正式开始之前我先简单做一下自我介绍,我是上海交通大学本科毕业,然后从康纳尔大学的博士,在Google工作了三年半,现在刚刚加入滴滴。
我以前包括博士主要工作就是在感知这些领域做了一些工作和研究,具体来说是基于计算机视觉的一些具体算法,比如说物体识别尚未重建。
最近大家对于智能驾驶工作感兴趣的比较多,几天以前滴滴和Udacity一起举办了一个“无人驾驶”的挑战赛,主要也是想邀请全球的算法以及人工智能的研究者来这个领域能够一起工作,在这些比较重要的难题上面。
具体来说,排名前五的团队将邀请到加州硅谷与相关顶级科学家进行一些决赛的答辩和交流,他们的代码将在Udacity的无人车上面实地运行比拼。现在是近2000人注册参加了,第一名的奖金是10万美金,如果在算法方面有所造诣的同学可以关注一下。
今天我主要想和大家分享的内容和智能驾驶技术相关,智能驾驶有很多种形态,具体如果讲解有一些不细致的内容,或者有一些敏感的内容不方便评论的地方希望大家能够谅解。
无人驾驶一开始大概是从2000年以后,主要是集中在一些北美开始的,比如说斯坦福等等这些比较知名的一些学校参加了一个比赛DARPA,这个比赛就是DARPA会给这些学校一个道路比较长的一块道路,大概全封闭的道路,然后让这些学校来设计一些无人车,然后来跑完全程。第一个冲过重点线的就是第一名。
在DARPA里面也有很小比较知名的人,一些学校的学生和教授们答出来比较著名的机器人,DARPA里面有一些比较有意思的事情发生,比如说MIT跟Cornell有一次发生了两个学校的无人车发生了碰撞。
刚才发的图片就是MIT和Cornell一起写的一篇报告,这个报告上面就写了无人车当时相撞的情景,他们也详细分析了为什么会发生这起事故,具体来说就是无人驾驶一些比较关键的,也是困难的一些技术,比如说障碍物感知,物体识别以及路径规划,在各个方面都会有一些瑕疵导致发生了,应该说是无人驾驶界的第一次事故。
经过了这次比赛,大概从2013年开始,很多著名的厂商也开始跟入智能驾驶,其中比如说特斯拉开始做,有一些像Cruise Automation后来被GM收购了。
智能驾驶在很多领域进行了开展,比如说最直接的像接送乘客是一个非常重要的商用领域,车厂也希望通过智能驾驶来让每一辆车的行车体验能够更好,包括像特斯拉这种电动车厂也会是它一个几乎主打的一款,能够让驾驶的体验变得更好、更安全。
在不同的时间大家的技术手段会有不一样的变化,像最开始的时候可能比如说Lidar based会是一个主流,但是近年深度学习以及视觉上的突破,很多基于摄像头的一些车厂出现了,在从Camera开始就会有其他的例如说像Stereo camera,或者其他的一些传感器等等加入。整个智能驾驶越来越丰富,传感器的性能也越来越好,在这几年过程中,包括计算机深度学习以及新的算法的出现,也让整个智能驾驶的发展得到了长足的进展。
智能驾驶基本上可能可以分为几个大体的环节,特别是从传感器上面会有几个比较大的区别,我们最常见的传感器就是照相机,包括像我们手机或者是监控,这些都是一些照相机,照相机的优点是它价格非常便宜,然后它的传感器因为它捕捉的是可见光,它可以得到非常丰富的细节特征。它能够表现更多的东西,它可以捕捉到物体非常细的细节。
照相机还有一个比较大的优势,就是它的频率相对于其他传感器来说是非常高的,一般的正常照相机都应该是30到60HZ上工作,特别是在智能驾驶中比如说高速移动的物体上,在这种频率上应该没有什么特别大的问题来进行感知、识别。
所以现在很多智能驾驶的平台都会装上摄像头,也会装上多个摄像头,包括前向、侧向、后向,在每个摄像头都会记录周围360度,整个摄像头加起来会记录周围360度的环境,根据摄像头的输入,再加上一些人工智能的算法,可以得到一些对周围物体的感知,基于这些感知再做后一步的比如说路径规划等等,这是基于摄像头基本上是这样一个解决方案。
当然还有摄像头有一个好处,是因为现在高清摄像头相对来说价格比较低廉,高清摄像头可以看的相对于其他传感器来说,它可以看的非常远,比如说在没有障碍物遮挡的情况下,能够看到一米米、两百米以外的物体,这样对于整个智能驾驶的感知来说,已经是一个足够的距离,也是一个非常好的感知的距离。
另外一大块传感器呢,就是我们所说的激光雷达,一般就叫雷达,这种传感器可能是平常人接触的比较少,雷达的工作原理是发射出一束激光,激光并不是可见光,是肉眼看不见的一般是红外,激光碰到物体以后会反射回来,然后再测量这个激光从发射到反射中间渡过的时间,这样的话可以具体知道这个物体的深度。
可以想像这个其实就是我们知道前面比如说如果有障碍物的话,我们不仅知道有一个障碍物,而且可以近距离的测量这个障碍物的距离和这个智能汽车有多远。这样就可以得到一个具体的深度,激光的话,可以得到比如说一根激光可以得到一个点的深度,如果多个激光就可以得到多个点的深度,所以这就是平时说得,比如说多少线的激光雷达。
提问:摄像头怎么感知距离?双目?
贾兆寅:对,摄像头来说,一般来说有几种方案来感知距离,比较传统的可能就是用双目摄像头来做,就是通过两个摄像头来检测比如说同一个物体,如果你知道这个物体在两个摄像头里面具体的图片中的位置,那如果两个摄像头中间有一些距离,你可以知道这个位置的时差,通过这个视差再加上一些几何上的过程,你可以知道具体物体的位置。
但是,比较明显的就是双目摄像头来进行深度的检测,那它会制约于几个因素,第一个因素就是两个摄像头至今的距离,可以想象就像人的双眼一样,两个摄像头之间的距离越大,可以检测的物体的深度就可以检测的越准,可以越深,越远的物体也可以知道它相对于智能汽车的位置,当然在车上不可能无限扩展摄像头的位置,所以它始终局限于车载的物理的限制。
另外一个就是双目摄像头来测量深度会局限在具体的匹配的算法,如果两个摄像头里面会出现两张图片,那怎么样把这两张图片相同的物体能够联系起来,然后通过这种对应的算法得到视差,这也是一个算法上的问题,如果这个算法出现一些偏差的话,它还是会出现一定的误差。
但是总体来说,双目摄像头在现在的这种算法上还是做的比较准确的,特别是在十米、二十范围为内可以做到比较好的一个感知。当然就像所有摄像头一样,它是受到外在光照条件的影响,比如说当黑夜或者光照比较弱的情况下,他可能需要其他的算法来补充双目摄像头的深度测量。
另外还说,还有一些只需要一个摄像头来猜测物体距离的,这样的话,一般都是基于一些几何上的假设,比如说如果我已经能够检测出路面了,那我可以想象路面是一个比较大的平面,相对来说我就知道这个路面上具体的每个位置,相对来说与我的距离是什么样子。
所以基于一个摄像头,你也可以做一些就是几何或者是学习出来物体距离个人到底有多远,包括在自动驾驶的过程中,因为本身的机器人是在移动的,所以还有一些既使是单目摄像头也可以得到一些时长,也可以得到物体相对来说的距离。
不过我们也可以看到,这些距离更多是在软件算法上面的实现,相对来说激光雷达是直接从硬件物理层就可以给我们一个物体深度的距离。所以就可以节省很多软件算法上面的这种开发。
继续刚才的话题,我们继续来讲激光雷达,如果是一根激光雷达的话,我们就可以得到一个点的回馈,现在主流的Lidar最多是64线的雷达可以在同一时刻得到64个点的回馈,主流的雷达又像扇子一样,你可以想象每一个激光是一个激光束,它把激光树排成像扇子一样,这个扇子以轴为圆心进行了360度的旋转,这样就可以每一个激光线就形成了一道环,64个激光线就会形成64道环,最后就形成了上面我发的这个图片得到的这个全局360度。
这个深度图具体来说会给我们比如说物体上的深度,还会给我们一些其他的信息,其中最重要的可能就是物体上的反射面的状况,因为雷达不仅可以测算比如说物体反射的,反射过来的时间来算出距离,同时还可以测算出反射过来激光信号的强度,根据激光信号的强度就可以得到一些其他的信息。比如说像人体就不是一个光的很好的反射面,所以反射回去的强度比较弱,像汽车的灯或者是一些标志符号会像镜子一样反射激光雷达,就会形成更强的反射。
雷达相对于摄像头来说有一个问题,就是它虽然可以提供比较多的深度,但是它在现在最好的雷达上面也只有64条线,那它的分辨率相对于比如说高精摄像头来说远远不够,很难表现出这个物体上比较丰富的变化。比如说人的话,可以给一个可能在几十米开外,这个人就只有50个点到100个点在上面,所以它可以有人的大体的轮廓,但是比如说面部上面的这种深度的变化,或者一些人具体的细节就很难保证能够做好。
提问:那么这种单纯依靠光学摄像头的距离感应系统受到各种因素(比如天气)的影响很大吗?
贾兆寅:确实摄像头来说,可能在晚上就会稍微有一些吃力,因为晚上的话,智能驾驶基本上通过车灯来进行照明的补充,那离开车灯的情况,单纯的光一个摄像头或者双目摄像头来测量距离就会比较吃力。
这就是激光传感器与此相反,在晚上它的性能反而会更好,因为激光传感器是在红暗波段上面进行激光的发射和接收,在白天因为有阳光的干扰或者其他光的干扰会有一些噪音在里面,在晚上因为没有这些干扰,激光传感器的精度反而会更高。
激光传感器现在主流智能汽车的研发过程中,激光传感器跟比如说照相机来说,一般来说都会有一个融合,因为传感器里面的成本,激光传感器的造价是远远高于一般的摄像头,像比如说用Velodyne这种传感器的话,每一个可能都是数万美金。
还有一个传感器就是一般意义上的雷达,比如说像我们以前知道的检测飞机或者是这种大型金属的物体的雷达都是非常好的,它是根据多多普勒效应来检测物体的位置以及速度,那它因为是多普勒效应,所以它不仅可以得到物体的位置,而且它也可以知道物体行驶的速度,包括速度的方向和速度的大小。
而且Radar也可以检测非常远的物体,比如说在一两百米开外的汽车,也会有很强雷达的反射信号,Radar还可以穿透一般的障碍物,比如说透过一些树或者草它对Radar的反射信号不会有特别大的干扰,对远方行驶车辆的信号应该是非常强的,所以很多智能机车上面也是配备了Radar。
Radar的劣势也是相对比较明显,第一因为是基于雷达的反射得到的信号,它的位置以及速度,特别是位置的信息相对来说是比较模糊的,相对于激光雷达以及照相机来说,它只能得到一个大概的位置的信号,然后这个误差可能在米这个范围内,特别是远距离的误差。
其次是Radar基于雷达,那它对金属的反射是非常好的,比如说汽车、火车、摩托车,那对于非金属的反射相对来说是比较糟糕的,比如说行人或者是小动物,它可能反射就不是那么灵敏,或者反射的信号就不是那么好。
第三点就是Radar必须是双方有一个相互速度才能够检测出物体的位置,因为它是基于多普勒效应的传感器,如果双方都是静止的话,Radar就很难检测出物体,所以它对静态的障碍物是比较吃力的。
这是基本上识别这一块主要的传感器,那对于智能驾驶来说会有一些其他的传感器,比如说GPS要知道,特别是可以得到高精位置的GPS,还有一些IMU,比如说你要知道车辆现在行驶的状况,比如说车头的朝向,车现在行驶的速度,以及车的加速度转角什么的,所以IMU跟GPS也是比较重要的传感器。
提问:那么请问三维重建一般需要哪一些传感器的共同配合呢?
贾兆寅:对于三维重建来说,一般我们可能就是会把摄像机、Lidar、还有IMU、GPS这些结合起来一起配合行程对整个场景进行重建。
一般的三维重建就会进行一些数据的采样,得到比如说照相机和Radar,就是激光雷达对于世界的这些描述,然后再通过比如说GPS、IMU把这些一帧一帧的信息联合起来做一联合的三维的重建。
提问:高精地图的作用呢?有了摄像头、激光雷达和普通雷达的融合,是否可以抛弃地图呢?
贾兆寅:现在对于高精度地图来说,确实不同的智能汽车厂商会有不同的路线,像特斯拉或者Mobileye他们对于地图的依赖相对来说是比较弱的,更多的是基于车载上面的这种车道线检测等等算法来实现智能驾驶的过程。
但是,如果单纯从地图来说呢,高精度地图对于智能驾驶仍然是一个非常有用的一个信息,因为它对整个世界,如果我们想象智能汽车是一个机器人的话,那高精度地图就相当于你告诉机器人,这个世界是怎么样的,就是你对这个机器人给了一些鲜艳的知识,这些知识包括比如说具体车道线在什么地方,在路的什么位置,在更进一步来说,你可以知道这个地方是不是有斑马线,斑马线上的行人可能更多,是不是要更注重行人的检测等等。
高精度地图和一般的地图区别也是非常大的,就像高精度地图不仅要知道这条路的整个的连接状况,更要知道比如说这条路上面有几个车道,然后每一个车道线是一个什么样子的方向,而且也需要非常频繁的来进行采样,能够比较完备的来描述这个情况。
我们可以想象这样的地图联结在比较复杂的路况上面,比如说刚才我发的这个图就有各个方向都有两个车道,然后它还有比较不是直角的一些转角,角度比较奇怪的一些转角,大概这种情况下就是一个非常复杂的情况,具体每一个车道线,车到线与车道线之间的连接,哪一条车道线是可以行驶的车道线,还要考虑到比如说智能汽车调头的情况,或者是其他的情况,这个车道线的情况连接其实是非常复杂的。
路网这信息是智能驾驶的一部分,另外一部分地图比较重要的工作就是整个世界的信息,包括你的车道具体有多宽,然后这些车道到底是路是什么样的一个几何的形状,这些信息也是非常非常重要的。这些信息就相当于我对整个世界有了一个前沿的知识,我知道哪里是障碍物,哪里不是障碍物。
刚才我画的这个图片就是三维的世界的重建包括比较成熟的一些SLAM两建造的这个世界,你可以看到这个世界是由刚才我们说的激光点源构成的,从这个截图就可以看到,就是很多帧激光点源叠起来的一个状况,叠起来的地图我们就知道强在什么地方,具体的道路的路面是一个什么样的形状,它是有多少的比如说上坡、下坡或者是具体的转角都会有一个比较清晰的知识。
得到了这些鲜艳的知识以后,后面的感知和路面规划相对来说就容易一些,比如说感知就可以很轻松的把路面去除掉,然后得到比如说得到障碍物在什么地方,路径规划有了车道线的知识,以及世界鲜艳的知识以后,你可以更容易的来进行避障,或者你知道哪一些地方可以靠边,哪一些不能靠边等等这些情况。
下一步基本上得到世界地图以后,下一步比较传统的方法就是对世界进行感知,感知来说比较重要的比如说要检测这个障碍物,然后在学术界也会有很多,最近也有很多的文章来讲这些问题。包括具体来说,比如说障碍物的感知,聚类,物体的分割,物体的识别。
对于智能驾驶来说,因为智能驾驶相对于一般机器人,智能驾驶是一个非常特殊的应用环境,它绝大多数物体比如说可能95%以上的都是一些常见的路上的类别,像汽车、行人、自行车、摩托车、助力车等等,这些物体可能就构建了95%,甚至99%以上机器人要见到的物体。
所以智能驾驶的物体识别很大的精力是放在了这些物体上,包括比如说滴滴Udacity算法大赛上面比较重要的几个分类的指标,也是汽车和行人,这是最最常见的,在智能驾驶上最最常见的一些物体。
但是在智能驾驶过程中,就是我们并不能够假设这就是所有出现在路上的物体了,很多情况下,智能驾驶会有一些长尾的效应,比如说在物体识别上面就会有一些比较低频的事情出现,比如说在车上,在道路上会有一些车爆胎留下的爆胎,比如说还会有一些,比如说手推车,超市里的手推车有时候会滑到路上,在更多的路面上的一些垃圾,砖块等等就是这些来说,可能需要开几百公里甚至几千公里才能碰到一些问题,但是当你有足够的数据量以后,这些长尾问题也会成为比较重要的物体识别的问题。
甚至包括比如说在美国或者在中国其他地方都会有一些像小动物猫、狗或者是松鼠,还有一些植物在正常行驶路面上会形成一些障碍物,如何识别这些障碍物并且正确的让智能汽车对这些障碍物进行反应,其实也是一个非常有意思并且困难的问题,就像如果前面是一只猫或者一只狗或者一只鸟,这些障碍物会自动的避开,当车辆驶进的时候。当如果比如说爆胎或者砖或者是植物的话,这些障碍物可能就是要捕获。
可以想像这些障碍物的检测其实是非常非常困难的,因为这些障碍物非常小,而且它如果要智能驾驶的话,你的检测距离要非常非常的远,那这就其实是在传感最后除了比拼算法以外,也会落到在传感器上面进行一些比拼,就是当你的照相机或者是说你的激光雷达效果越来越好,当你的计算机的计算能力越来越强的时候,当然会有更多的把握来解决这些问题。
除了这些常规的比如说物体识别跟物体分割分类的问题以外,现在智能驾驶还有一些其他的比较有意思的,也比较困难的问题,比如说在恶劣天气下进行的智能驾驶,比如说风沙、雨雪包括雾霾对于传感器来说都是有一些遮挡,像在我们如果是用激光雷达产干其的话,对于下雨下雪,每一个雨滴雪片就会对激光雷达进行反射,它会造成一些不必要的障碍物,我们会把它看成噪音,下雨的话,对于照相机也会有一些遮挡,比如说你必须得频繁的进行雨刷或者刷去雨滴,具体在这种恶劣天气下如何进行感知,其实是非常有待解决的问题。
所以在智能驾驶中可以看到,特别是现在基于学习的这些感知方法,数据量是一个关键,一个是你可能会有更多的数据量,那你的学习出来的模型会更好。另外一个是大的数据量,你可以得到更多的这种长尾的,就是长尾的低频的事件,比如说滴滴现在的数据量在全国范围内如果搜集数据的话,那就可以得到非常低频的,在困难的情况下到底应该如何进行智能汽车的做。
与此同时,滴滴跟Udacity举办的这次算法大赛,具体也是主要的关注是在感知这一块,任务就是根据Udacity和KITTI提供的数据来检测出障碍物的位置,会提供像激光雷达或者是摄像机等数据,如果参赛者把这些数据进行一些处理、深度学习、物体分割能够得到一些障碍物或者物体的识别,看最后的效果如何。
这个里面我主要侧重讲的是一些感知上面我们会遇到的一些问题,包括滴滴算法大赛也确实是以感知为中心提出的一些算法大赛,但是智能汽车并不是单纯的只有感知这一块,其实智能汽车的各个环节都非常重要,比如说地图、决策、路径规划等等,这是一个非常大的系统。每个系统都需要自己完成不一样的,就是各司其职能够很好的完成任务。
比如说刚才在雨雪或者是风沙天气中,感知确实是非常大的问题,同时在控制上面也会有新的挑战出来,当地面是干燥和地面是湿滑的时候,你如何能够精准的控制职能汽车进行比如说转向或者刹车的动作,然后能够正确的给整个智能系统技术反馈,这都是非常困难的,也有待研究的一些问题。
智能驾驶在一些高端的汽车上已经有了一些具体的应用,比如说有一些车上面会有当出现危机情况的时候,智能汽车会帮你提前刹车,或者是可以实现智能跟车,或者车道线的检测,可以根据车道线来进行智能驾驶这些其实已经慢慢开始走入我们的生活了。
当然,智能驾驶具体的应用比如说真正的让人能够手离方向盘,然后不需要操作还需要一定的时间,当然整体的应用我觉得也不会说是一步到位,它肯定是一个循序渐进的过程。相对来说,比较容易的场景,比如说比较规范的工业区或者是旅游区,在包括机场的摆渡车等等,这些比较规范的,相对来说情况不是那么复杂的地段可能会先应用起来,那真正的在复杂的交通路段或者是有密集的行人,或者是各种各样车辆来往的情况可能需要更长的时间。
相对来说,智能驾驶可能还会有其他的应用,比如说可能不光是在载运乘客,也可以运送货物,如果运送货物的话,也会有一些其他不同的思考方式,比如说运送货物时效性不像运人那么强,可以承受夜间的运送或者凌晨这种道路不是那么拥堵下的运送。运送货物,如果车内完全是货物的话,例如说承受比较急的刹车,他不需要考虑内部驾驶的舒适程度,为了安全可以做一些更加极端的一些决策。
整体来说,智能驾驶还是能够很大程度上解决我们现在的交通问题,比如说我们知道在美国的一个城市内有很多调查显示大概30%的时间都是用来寻找停车位,如果真正的智能驾驶实现的话,那这个整个的车流是可以被减少出来的,如果整个智能加车实现了以后,我们可能每个人均需要车的车辆也会变小。可能更多的是一种共享的经济,然后可能一家一辆车或者几家一辆车就足够了。
整体来说,智能驾驶还是会提高我们整个出行的安全包括现在比如说已经出现的像盲区的智能检测这些业务,应该就可以很大程度上来避免比如说车辆事故的发生。
提问:智能驾驶何时能真正到来?
贾兆寅:这个要看我们怎么定义到来,智能驾驶有不同的维度和发展阶段,一些技术我觉得已经在很多车厂上进行比较广泛的应用,比如说刚才我提到的盲区检测,车道线检测,CMB、ACC等等,其实这些对于驾驶来说都是一个具有一定革命性的影响,而且开始慢慢融入到我们日常体验中,我想到未来肯定会有更多种智能驾驶的方案并行,而且这些智能驾驶方案会相辅相成。
提问:5G的到来会帮助解决智能驾驶的部分技术难关吗?在刚刚结束的MWC上,很多巨头通信公司把无人驾驶作为5G的载体。
贾兆寅:这个高速网络的到来会在智能驾驶各个区域上面会有一些帮助,比如说可以很快的得到地图的更新,然后大的数据可以很快的跟比如说Server进行一些交互,新的数据传输的方式也可以得到一些在智能驾驶包括车联网上面得到一些新的应用。
提问:当前的智能驾驶有哪一些形态?能不能解释L1、L2、L3、L4,分别代表哪些阶段?都有哪一些区别?现在普遍处在哪一个阶段?
贾兆寅:智能驾驶基本上现在就是从没有智能驾驶L0一直到L5会有一些不同的分类,具体的分类我发一张图。
智能驾驶L0到L5(凤凰科技配图)
这个其实我们可以看到一个比较关键的点,就是L3到L4之间的分割,如果你看资源这一块的话,L3及以下他是说人类驾驶者是最后的一个系统,当车辆行驶出现问题的时候是由人两接管的,L4及其以上最重要的一个定义就是说当车辆出现问题的时候,仍然是由系统来监管的,这是一个比较大的区别。
所以根据这个定义的区别,我们就知道L4及其以上需要在所有的路况,所有的路径下面以及所有的情况下面进行一个安全的操作,那而像L3及其以下可能在绝大多数或者95%,99%,99.9%的情况下进行安全操作就可以了,L4及其以上是在这种最后的1%甚至0.1%的时候,车辆能也有一个比较安全的比如说停车或者靠边的行为。
其实这个就要求系统有非常高的一个可靠度,能够在各种各样比较困难的情况下都能够进行一些感知、识别或者决策,因为如果再一个非常长,比如说一个几十万公里或者几百万公里的情况下,出现这些各种各样低频的情况聚集起来也有非常多的困难。
提问:高速和普通路段的智能驾驶有什么区别和联系?
贾兆寅:我们也可以看一下普通路段和高速路段在智能驾驶中有什么具体的区别,不同的情况下它的路段相对来说比较复杂,所以车辆行驶的速度相对高速来说是比较慢的,可能60公里及以下,高速整个路段是非常规则的一个状态,车道线等等也是相对来说比较简单的,它在整个车速也会高很多。
所以如果我们看L3及其以下的话,在高速上的实现相对普通的路段来说是相对来说容易一些,因为如果你要解决95%到99%问题的话,高速相对来说问题比较简单,它能够出现的这种情况,整体来说没有普遍路段那么复杂,所以在智能驾驶L3及其以下相对普通路段来说更容易解决的。
但是L4、L5这个过程如果你要在所有的情况下都有智能系统来接管的话,那最后可能大家就需要比较在这种长尾和低频的情况下系统能不能够解决这些问题,比如说在普通路段上面你有可能出现在路中间有个出现横穿马路的行人,或者是有一些其他的比如说有个爆胎等等问题,在高速路上也会出现相同的问题。可能频率会低一点,但是它仍然会发生的,比如说高速路上也有横穿马路的行人,也会有骑自行车的人,会有前方行驶车辆掉下来的货物或者爆胎。
这种情况下如果做L4、L5以上要做到安全的智能系统,我个人觉得高速并不是一个更简单的问题,因为在高速的情况下,它感知的距离需要更长,因为刹车距离更长,智能汽车的操作也会更加复杂一点,所以L4、L5总体来说在普通路段上面相对来说更安全一些。
提问:请问上完Udacity学城的无人车课程,有机会到滴滴工作吗?优达课程比较偏感知,除了课程项目,还要加强哪一块的技能更有机会拿到Offer呢?
贾兆寅:滴滴跟Udacity的合作现在主要集中在算法大赛上面,比如说算法大赛拿到比较靠前的名次,我们都有机会来滴滴参加工作。
非常开心能够有这样一个机会和大家互动交流,大家这些提问我也觉得非常有意思,给我了很多启发,由于时间有限没有能够回答所有朋友的问题,不过以后我也会继续在直播上和大家互动进行更多的交流。
对于我个人而言,我觉得能够在这种时代上面赶上这个契机,能够让比如说汽车变得更智能,从而解决很多实际的问题,比如说拥堵、节能能高效利用汽车,然后降低交通事故率,提升整体的社会效率等等我觉得是非常激动,而且非常有意义的一件事情,能够在这个时候参与到这个过程中推动智能驾驶技术,是非常让我高兴的一件事情,也欢迎大家能够加入其中,把智能驾驶变得更安全,让以前比如说在科幻电影里面或者小说里面的那些科幻的技术能够变成我们真正的产品。