特斯拉成也FSD,败也FSD:开始减配摄像头、复活毫米波雷达

车评速递 2023-01-17
2873 字丨阅读本文需 7 分钟

“8颗摄像头搞定所有”,马斯克一直这样布道特斯拉的FSD传感器方案。

但布道归布道、愿景归愿景,现实是现有方案撑不住FSD,情况又有了新变化——

最新曝光的特斯拉文件,据称还是特斯拉中国的内部文件,其中信息显示:特斯拉将会采用新一代硬件传感器方案,匹配新一代特斯拉自动驾驶算力基础HW4.0。

1、HW4.0,会有哪些不同?

如果下一代特斯拉真的变成7摄像头+1毫米波雷达的方案,对于自动驾驶功能体验,以及技术研发会带来什么样的变化?

目前特斯拉的前置摄像头130万像素,全车换成换成500万像素摄像头,带来的最大变化是系统捕捉到的图像更清晰,在数据层面上给决策系统提供了更详实的依据。

具体来说,是500万像素产品,其SNR(信噪比)和HDR(高动态范围)比原先的130万像素摄像头高得多。

SNR即信噪比,指放大器的输出信号的功率,与同时输出的噪声功率的比值,常常用分贝数表示。

设备的信噪比越高表明它产生的“杂音”越少。对于来说,信噪比越大,说明混在图像信号里的无用噪点信息越小,数据质量越高,否则相反。

HDR是描述描述摄像头拍摄明暗对比比较强烈的场景时的识别能力,可以狭义理解为拍摄明暗对比场景时抑制过曝和改善曝光不足的能力。

500万像素摄像头,使图像数据的“含金量”更高,同时也让目标识别变得更加容易。理论上讲能够提升FSD的能力上限。

但就像有网友指出的,硬件是基础,最终的疗效,还要看FSD软件研发的进度。

此外,摄像头自带的加热清洁系统,毫无疑问会让FSD在恶劣天气下表现更好,也是为系统能力下限兜底的措施。

而换装500万摄像头,一个必然的结果就是系统数据处理负担的增加。

这也是为何这套系统被认为是HW 4.0的匹配方案。

底层算力芯片特斯拉自研,台积电7nm制程,算力216TOPS,是目前方案的3倍。这也说明,看似减掉一个摄像头,但实际上新方案对于环境的感知能力和系统计算需求,都有显著提升。

2、特斯拉为什么要「弃用」传统雷达?

此前,特斯拉人工智能总监曾这样表示,对于低分辨率雷达来说,通过类似立交桥这样的场景时,融合感知很棘手。因为雷达的仰角分辨率很低,这意味着很难分辨出立交桥和下面停着的车辆,一旦无法正确区分立交桥和车辆,就可能会导致碰撞。

相比较而言,特斯拉可以通过数据训练来对摄像头的感知能力进行软件定义,并允许在整个生命周期中使用OTA更新迭代改进性能。因为摄像头会产生大量的数据,而软件的改进仍然可以使这些数据得到最大限度的利用。

而传统雷达的技术更新,尤其是硬件(信道数量)限制了感知能力的提升。直到高分辨率4D成像雷达的出现,通过快速增加虚拟信道技术,大幅度提升了返回数据的分辨率。这也是为什么特斯拉开始重新评估毫米波雷达的作用。

更重要的是,特斯拉一直受困于「幽灵刹车」问题。

就在今年2月,美国国家公路交通安全管理局(NHTSA)宣布,将对41.6万辆特斯拉汽车展开正式调查,原因是该机构接到大量车主投诉称,自动辅助驾驶系统Autopilot出现了刹车意外激活的情况(也就是突然无征兆地刹车)。

办法之一,实际上就是要彻底解决假阳性问题。比如,视觉感知目前仍然需要依靠大量的数据反哺来进行不断的训练,但长尾问题始终是存在的。这恰恰是高分辨率成像雷达的优势之一。

而幽灵刹车,不仅仅是造成消费者对辅助驾驶系统的体验不佳的印象,更关键的是会造成很多意外事故发生。此外,这种问题主要是由于传感器的感知缺陷造成的,而在夜间或大雾或大雨等恶劣天气条件下,摄像头的性能会很差。

同时,反应时间也比毫米波雷达雷达长,往往需要几帧来识别物体的相对速度变化,甚至缺乏良好的深度感知。实际上,特斯拉曾多次尝试在传统雷达基础上进行改进,来实现分辨率的提升。

之前特斯拉把「幽灵刹车」问题归结为毫米波雷达性能差,但令人尴尬的事,取消雷达「改用纯视觉感知方案」并没有根本性解决问题,车主的投诉反而指数级增长。

就在本周,美国国家公路交通安全管理局(NHTSA)公布第一轮辅助驾驶、自动驾驶报告数据,主要来自去年6月开始各家汽车制造商和运营商向NHTSA报告的一系列事故数据。

其中,以L2级辅助驾驶为例,特斯拉、本田和斯巴鲁是三家提交事故报告最多的品牌,合计为373例,占全部392起事故报告的95.6%。所有事故中,碰撞发生最多的部位是车辆的前部(包括正前方以及侧前方),占比达到76.5%。

从这些数据可以看出,前向碰撞是主要的事故形态,也是特斯拉发生的一系列事故的大部分场景。与此同时,NHTSA正在调查一系列特斯拉的安全事故,其中可能涉及到幽灵刹车问题。

在高工智能汽车研究院看来,在不准备配置激光雷达的条件下,4D成像雷达提供了四维(距离、多普勒、方位角、仰角)的直接和独立探测能力,通过基于密集点云的前融合,可以大幅提升智能驾驶系统的安全性和舒适性。

以NXP与为升科(CubTEK)联手发布最新一代4D成像雷达方案为例,提供图像级感知能力和小于0.1度的角度分辨率,实现增强4D感知功能,满足L3级以上自动驾驶的感知需求。

在关键参数方面,由于精密天线与NXP处理器上的硬件加速功能进行了高度协同工作,该款4D成像雷达可以同时进行短程和远程的测距,能够同时分辨前方200-300米处并行行驶的两车。

二是速度方面,这款4D成像雷达能够确定车辆和物体各自的速度,这些信息在自动紧急制动、自适应巡航控制等与路线规划有关的安全驾驶决策当中极为重要。

三是方位角,即被检物体距离雷达中心线的右侧或左侧的距离,如果有多个物体距离很近,为升科CubTEK与NXP联手打造的这款4D成像雷达可以提供小于1°的方位角分辨率,能够将这些物体彼此区分开。

四是仰角的测量,这款4D成像雷达能够计算出物体相对于路面的高度,然后确定车辆能否安全地通过被检测的物体,如不能通过则需要避开这些物体,主要应用在探测道路上方的立交桥或其他桥梁。

按照NXP的测算,从L2+到要求最高的L5,每辆车可能需要超过10个成像雷达传感器。以L2+为例,4-6个成像雷达,可以实现360度环绕感知,从而替代传统角雷达无法满足AVP的需求。

同样,视觉起家的Mobileye也认为,这种架构上的范式转变使传统雷达性能实现了真正的飞跃——增加检测准确率,同时减少回声的杂波。同时,能实现较弱反射目标的更远探测(300米),以及不必要的静态杂波滤除,解决静止物体识别问题。

此外,雷达架构尤其是芯片能力的提升,也推动毫米波雷达进入软件定义时代,意味着同样的硬件方案,具有更大的灵活性。复杂的专有算法,类似摄像头的计算机视觉技术,可以有效处理雷达探测到的物体。

比如,NXP的S32R45,配置四颗Arm Cortex-A53@800MHz,提供超过300 GFLOPS的算力,满足192个虚拟通道的数据处理。而Mobileye则提出,在2304个虚拟通道(12倍数量)下,提升处理能力的效率,并控制在11 TOPS内。

在安波福公司看来,在传感器方面,以毫米波雷达为中心的解决方案提供了一种可选的路径,尤其是4D成像雷达的加入,意味着,接下来机器学习技术也可以使用来自雷达的数据,并与其他数据进行融合。

对于L2+/L3功能,如高速公路自动驾驶和车道改变辅助,用于前向的4D成像雷达可以提供更高的角分辨率数据以及高程感知能力,同时提升角雷达的近距离精准探测能力,提升高阶自动泊车的感知识别。

在实际的道路场景应用上,此前安波福公司也给出了结合机器学习能力的一系列数据。比如,针对道路上的小物体或碎片,机器学习可以将探测距离再提高50%以上,并能跟踪200米范围内的小物体。

同时,对于前方小物体是否可以安全行驶通过,机器学习系统也可以用安全的和不安全的物体进行训练。此外,与经典的雷达信号处理相比,机器学习减少了70%的漏检,通过与其他传感的融合可以进一步改善检测。

事实上,从目前披露的特斯拉HW4.0的一些硬件调整来看,逻辑非常清晰:第一、仍然要保证在提升硬件性能的同时,尽量采用相对成熟的工艺。第二、软件和硬件之间需要平衡,不能完全依靠单一要素;第三、仍然要继续解决感知难题,这是系统安全的基础。

文章来源: 智能车参考,高工智能汽车

免责声明:凡注明来源本网的所有作品,均为本网合法拥有版权或有权使用的作品,欢迎转载,注明出处本网。非本网作品均来自其他媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。如您发现有任何侵权内容,请依照下方联系方式进行沟通,我们将第一时间进行处理。

0赞 好资讯,需要你的鼓励
来自:车评速递
0

参与评论

登录后参与讨论 0/1000

为你推荐

加载中...