自动驾驶感知技术是怎样的,自动驾驶各阶段有什么区别?

2716 字丨阅读本文需 7 分钟

技术的发展日新月异,人们对于未来出行方式的憧憬也丰富多彩。在自动驾驶热浪袭来的时代,越来越多的人将目光锁定在这片蓝海。

一、高速光谱雷达

北京极点迅速科技有限公司,近期推出了一种全新的自动驾驶感知技术——高速光谱雷达,采用该技术可以用非常低的成本,实现性能卓越的高速感知功能。

公司产品实测结果显示,在车速高达120-140 km/h时,可以稳定而有效地快速感知,道路前方150-200米、静止或移动的障碍物。产品采用独创的光流追踪及感知算法,内置先进的的动态平衡器,有效平滑车辆的抖动与颠簸影响,即使在高速行驶中,依然可以完成远距离的稳定的感知与测距。

该产品还可以通过对行驶环境的感知,监测到不适合高速的状况,报警提示降速,培养安全驾驶习惯。所有感知测距工作都在产品内部完成,不需要后期复杂算法处理,可以快速启动应用。

出乎意料的是,该产品初期价格不到500美元,未来甚至可以实现200美元以下。

二、环境感知技术

特斯拉的自动驾驶原理,简单解释就是有传感器,控制器,和执行器组成。传感器负责感知周围的环境把信息传递给控制器,控制器结合各传感器的数据产生决策数据告诉执行器,让执行器执行控制请求。这样就可以通过感知路面的数据控制汽车自动行驶了。

随着技术的发展,现如今,自动驾驶系统包含环境感知、决策规划和执行控制三个方面,整个自动驾驶的技术架构如图所示:

而环境感知技术主要分为两种:视觉感知技术和雷达感知技术,其中视觉感知是自动驾驶环境感知的最主要的方式,也是我们接下来介绍的一种技术。

目前,视觉感知常采用的传感器为:单目、双目或夜视相机,从不同角度全方位拍摄车外环境, 再通过图像识别技术识别近距离内的车辆、行人和交通标志等,完成车道线检测、障碍物检测和交通标志识别等任务。

相机一般提供RGB(颜色值)数据,没有深度信息,虽然可以利用双目摄像头做 一些深度信息,或者用算法基于单目摄像头做一个深度信息的融合,但是在实际使用过程中误差是很大的,而且单目摄像头在每次使用前都需要做一次标定,非常麻烦,因此业界一般只使用摄像头的 RGB 的信息。

相机工作的时候,对光照的条件要求比较高,需要一个好的稳定的光照条件,从特斯拉的事故中我们就可以发现,当日的太阳特别刺眼,严重影响了相机的识别。其他一些恶劣条件下,比如大雪、大雨、大雾天气以及前方车辆遮挡视线等,同样会干扰甚至致盲相机。

多传感器融合技术,就是利用计算机技术将来自多传感器或多源的信息和数据,在一定的准则下加以自动分析和综合,从而完成信息处理的过程。这有点像人的大脑综合处理信息的过程一样,将各种传感器的信息进行处理整合,最终产生对于观测环境一致的解释。

在信息融合处理的过程中,根据对原始数据处理方法的不同,信息融合系统的体系结构主要有三种:集中式、分布式和混合式。

集中式:将各传感器获得的原始数据直接送到中央处理器进行融合处理,可以实现实时融合。

集中式的信息融合体系,从图6中看出来其结构简单,数据处理的精度较高,算法灵活并且融合的速度较快。但是各传感器的流向是由低层向融合中心单向流动,各传感器之间缺乏必要的联系,并且中央处理器计算和通信负担过重,系统容错性差,系统可靠性较低。

分布式:先对各个独立传感器所获得的原始数据进行局部处理,然后再将结果送入中央处理器进行融合处理来获得最终的结果。

分布式的优点在于每个传感器都具有估计全局信息的能力,任何一种传感器失效都不会导致系统崩溃,系统可靠性和容错性高。并且它对通信带宽要求低,计算速度快,可靠性和延续性好。

但分布式信息融合系统的传感器模块需要具备应用处理器,这样的话自身的体积将更大,功耗也就更高;而且中央处理器只能获取各个传感器经过处理后的对象数据,而无法访问原始数据。

混合式:集中式和分布式的混合应用,即部分传感器采用集中式融合方式,剩余的传感器采用分布式融合方式。

混合式兼顾了集中式融合和分布式的优点,稳定性强,且具有较强的使用能力,但对通信带宽和计算能力要求较高。

在能见度较低时,相机的效果并不理想,其测距精度远不如雷达和激光扫描仪,但它能够提供边缘,具有扩展对对象的姿势和分类的巨大潜力。 作为外部环境感知技术手段, 视觉感知是智能驾驶环境感知领域不可或缺的重要组成部分。

正因为视觉感知具有上述的缺陷,所以自动驾驶车辆往往还会配置雷达,来进行雷达感知。雷达感知通过激光、微波或声波获取车辆周边环境的二维或三维距离信息,再通过距离或速度分析对行驶环境进行感知。它能以较高精度直接获取物体二维或三维距离信息、对光照环境变化不敏感。常用的传感器有毫米波雷达、激光雷达等。

三、自动驾驶各阶段有什么区别?L3为分水岭

资料显示,自动驾驶等级分为L0-L5,L1、L2被划为辅助驾驶,L3、L4、L5才属于自动驾驶。其中,L3级被称为“有条件自动驾驶”,即在大部分路段可启用自动辅助驾驶模式,遇到紧急情况则需要驾驶员接管。

值得注意的是,从L2到L3跨越之间最大的鸿沟就是一旦车辆出现事故,责任认定的问题,所以立法对L3的推动作用是至关重要的。

浙商证券表示,L3级自动驾驶可以看作是单车硬软件价值的分水岭。在L3+级意味着自动驾驶模式下发生的交通事故将由车企负责,这表明L3+级车型的安全标准将更高更严格,部分消费者会愿意为此支付溢价,这也将倒逼一批硬软件厂商升级产品。

四、行业空间有多大?

安信证券指出,乘用车市场的高级别智能驾驶有望加速落地,利好整车厂及相关软硬件供应商的后续发展,预计2025年L3渗透率将达到25%,销量有望超过450万辆。

而按照2020年底发布的智能网联汽车技术路线图指引,预计中国市场2025年L2~L3级车占比达50%,2030年L2~L3级车占比超70%,同时L4级及以上车占比达20%。

五、哪些产业链可以关注?

1、车规级芯片等软硬件

银河证券表示,随着L3级自动驾驶获得立法支持,L3渗透率提升有望加速,在L3级别之下的自动驾驶系统需要对传感器收集到的数据进行深度学习,不断进行算法迭代,从而对产业链环节中涉及到的各个环节标准也将不断提高,对车规级芯片算力、算法和激光雷达、摄像头视觉解决方案以及高精度地图的软硬件升级需求将以数倍乃至数十倍空间扩容。

2、高精度地图、功率半导体和光学

浙商证券认为,L3的导入将助推软件与硬件的高速增长,Adas领域应用软件开发、高精度地图是软件方面最受益领域;而在硬件领域:域控制/芯片、功率半导体与光学领域则是最具潜力的方向。

3、汽车载摄像头

此外,自动驾驶层级的跃迁将伴随着对应光学系统的技术升级和需求提升。L1/L2级别的自动驾驶系统一般搭载3-5个摄像头,L3级别一般搭载6-8个摄像头,L4/L5级别则可搭载10-20个摄像头。

根据Yole的预测,全球汽车平均每台搭载摄像头的数量将从2018年的1.7颗增加至2023年的3颗,CAGR达12%。而2020年我国汽车摄像头平均搭载数量为1.3颗,因此仍然具备一定的渗透空间。

4、乘用车高精准定位系统

申万宏源表示,乘用车高精度定位属于典型的“0到1”环节,且正在随着自动驾驶级别的演进获得增量市场,也就是往往在L3及以上级别感知需要配置,高精度定位将作为高级别自动驾驶感知层的硬件冗余做普遍配置,将成为L3以及上自动驾驶车辆的标配,预计2025年国内车载组合定位产品全球市场规模约60亿。

文章来源:嘉车有约,华尔街见闻,大气水滴8J

免责声明:凡注明来源本网的所有作品,均为本网合法拥有版权或有权使用的作品,欢迎转载,注明出处本网。非本网作品均来自其他媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。如您发现有任何侵权内容,请依照下方联系方式进行沟通,我们将第一时间进行处理。

0赞 好资讯,需要你的鼓励
来自:番茄爱车
0

参与评论

登录后参与讨论 0/1000

为你推荐

加载中...