Nvidia英伟达的AI智能汽车信仰

3887 字丨阅读本文需 20 分钟

说起英伟达的智能汽车AI芯片,如我们之前文章智能自动驾驶六大主流车载芯片及其方案,介绍其算力领先,完整工具链,其开放的合作方式,所以很多人都看好,而且那篇文章的投票结果也显示35%人看好。当前一众新势力例如蔚小理都采用或即将采用其芯片,而且现在奔驰,捷豹路虎,比亚迪竟然直接采用其Drive Hyperion 进行合作,网上其新闻应接不暇,例如最近的GTC。

但其实很多人和我有一样对当前智能汽车特别是英伟达有着小朋友一样的一百个问号,英伟达为什么在AI智能汽车就这么受欢迎?AI智能汽车到底包含什么?什么是GTC?什么是Drive Hyperion?有哪些芯片?有哪些传感器?首先采用的英伟达芯做自动驾驶的小鹏是用了Drive Hyperion方案吗,等等等?所以本文将借用英伟达相关资料,以及最近GTC(GPU Technology conference) 2022最新的相关信息总结,先让大家了解why 为什么AI时代英伟达,接下来看看他们的Drive hyperion一个能告诉你怎么落地实现AI驱动智能汽车的完整开发套件,试图解开脑袋里面对于智能汽车以及英伟达的一百个问号。

本文结构如下:

WHY-为什么大家都采用Navidia方案

· 为什么GPU适合于AI算法 

· 端到端的AI方案(芯片,软件,算法,地图,工具链)

· 产品线覆盖ADAS,L2,L3,L4到ROBTAXI

HOW- 方案怎么去落地和实现?

· Drive Hyperion是什么?

· Drive Hyperion 传感器细节以及生态

希望能给大家一些知识和启发

为什么GPU适合于AI算法 

其实很多人最先听到英伟达应该是来自于电脑时代的显卡,没错就是电脑的显卡GPU,那么人工智能时代为什么不是电脑时代CPU霸主英特尔,不是移动互联时代的高通呢?当然这两家也布局了GPU,例如英特尔的mobileye(从2022 CES 看Mobileye 自动驾驶产品技术以及战略(谁说算力是唯一标准)), 高通的dragon ride(高通在2022 CES展示的“数字底盘”是什么?是底盘吗? )但显然英伟达一直深耕GPU视觉图像处理,而GPU相对于CPU更适合智能时代的神经元算法。

回到电脑时代,我们听到的广告永远是双核,四核处理器,多线程。其实GPU里面有更多的内核,成千上万。CPU的内核很少很复杂,很快,由于它们的灵活性,它们非常适合一般任务。它们对单个作业的顺序处理速度非常快,并且它们可以执行的不同任务范围非常广泛。而GPU有更多的内核,但它们更小,相对弱,灵活性更差,非常适合简单计算的大规模吞吐并行处理。现在智能AI的基本原理就是深度神经网络,成千上万的神经元突触自然需要大量的并行计算。想想当你将一层的输出转发到下一层时会发生什么:输出是一个向量,下一层的神经元集合由它们的权重矩阵表示。矩阵乘法是许多乘法和求和的并行计算。应用非线性函数时也是如此,更不用说反向传播过程了。简单的理解是CPU是几个武功超强的英雄,而GPU是一伙打群架的。而AI智能时代就是需要一伙人分块分工,传递总结完成工作。这个逻辑有意思符合现代文明的发展哈,我们不需要皇帝和被代表,我们需要众议,但一定需要好的制度也就是算法配合才行,要不然也是乌合之众。

端到端的AI方案

显然,英伟达在GPU领域的先发和深耕正好符合了AI时代的需求,但更厉害的是英伟达不仅仅提供了芯片给智能汽车,更构建了端到端的AI方案(芯片,软件,地图)也就是让本是机械汽车行业的容易理解和上手使用。

其实我们之前文章已经介绍过了英伟达的端到端的方案,总体就是从设计,模型训练,虚拟验证。但这次随着GTC 2022的更多发布,我们采用另外一种方式介绍:Onboard 以及off board硬件;软件;AI算法来介绍。对于Onboard 以及off board硬件,英伟达提供芯片以及方案,例如下文我们要介绍的Drive hyperion就是开发套件,其中Drive AGX可以作为装车硬件参考;另外DGX系列提供数据处理,训练,Constellation提供虚拟仿真元宇宙的硬件。

对于软件,英伟达Drive OS 提供基础软件堆栈,包含嵌入式实时操作系统 (RTOS)、Hypervisor、CUDA 库、TensorRT™和其他访问处理芯片的模块组成。Driveworks综合模块库类似于软件的中间件,方便进行开发调用。基于以上就是应用端Drive chauffeur自动驾驶,Drive concierge智能座舱。

有了硬件和软件,如我们上文讲还有一个重要的东西就是算法,英伟达提供覆盖全面的算法。

从相对成熟的CNN ,RNN 到现在热门Transformer, GAN以及RL 和各类新算法例如可以补充CNN某些区域性能不佳的胶囊网络Capsule Nets。英伟达都能够提供成熟多种算法供开发者调用。

英伟达基于AI的软硬件以及算法都提供了,同时英伟达收购了高精地图供应商Deepmap,打造了AI 视觉为主(视觉为王-小鹏以及特斯拉的自动驾驶方案),通过高精地图以及多种传感器兼容冗余的包容性智能驾驶方案。

产品线覆盖智能驾驶以及座舱还有元宇宙

所以英伟达掌握智能汽车的流量密码,基于这个流量密码-人工智能,其顺理成章的推出主要产品就是基于视觉AI的智能驾驶,基于语音AI的个人助手。也基于其数据推出元宇宙Omniverse

智能驾驶方面如我们之前文章视觉为王-小鹏以及特斯拉的自动驾驶方案中讲到分高速和低速两部分实现,英伟达的产品向下可以覆盖主动安全,横向可以拓展智能驾驶座舱交互技术(智能座舱系列文一,他到底是什么?)。

这次GTC 2022中视频其实可以看出其AI 个人助手Drive Concierge集成了环境感知,乘客感知融合和互联网,未来遐想很多,例如互联网从PC时代到移动互联时代,下一个时代或许是穿戴助手机器人时代?其元宇宙Omniverse,对于汽车业来讲可能比facebook等来讲更直接和有用,首先对于自动驾驶的设计验证已经启动,这切合当前汽车行业的需求,未来整车汽车设计都可以往元宇宙上迁移,例如我们之前讲汽车性能方面文章汽车设计吸引力(造型,人机工程,实用性,声学)- 整车开发流程第七章第三节。中很多评估验证都可以变成虚拟,记得刚入行那时很多时间都是给领导们搜集资料评估减少项目的试验样车样件,因为这些东西都很贵很费时,而时间和成本是商业最大的敌人,所以现在每家都喊未来全虚拟验证也正好符合当前趋势。

而Omniverse 的构建伴随AI 还牵扯制造,维修保养甚至未来的品牌营销,未来很多想象空间。

回到其现在也是大家特别关心的智能驾驶业务,基于其AI处理器,其智驾业务覆盖从ADAS主动安全到L5全自动驾驶的Robtaxi。

挡风玻璃后面的前视方案用于主动安全曾经是mobileye发起的,也是其主力市场,而如今英伟达可以降维打击实现。

当前一众靠几个模块实现的L2级别的(例如大众MEB的域控制器-ICAS),例如前视觉模块+雷达实现的ACC和LKA,另外一个环视摄像头+模块实现的环视泊车,另外或许还要一个模块进行整合的,英伟达提出了他的一个模块的解决方案。

而到了L2+,L3/L4的级别智能驾驶和座舱联系的更紧密,因为此时不单是车辆的智能驾驶还需要体现人机交互提醒,人机共驾的局面,所以英伟达融合其座舱和智能驾驶域,需要考虑更多的传感器以及接口。

到了L5当前最实用的方向就是Robotaxi,Robotaxi比其之前level的自动驾驶,他更纯粹不需要考虑人类的驾驶,也就没有之前汽车的历史负担,所以英伟达可把他整车智能方案装进一个模块里面。

所以英伟达在此提供了所有的方法论和工具,显然英伟达更进了一步,还为顾客开发出了开发套件也就是我们解析来要讲的How,他的Hyerion Drive 开发套件。
Drive Hyperion是什么?DRIVE Hyperion Developer Kit 是一种智能驾驶汽车参考架构,可加速生产过程中的开发、测试和验证,如果熟悉电子产业的,可能知道树莓派等开发板和套件,他们有类似。Hyperion来自于希腊神话,她生下了太阳,月亮,黎明,可想这名字的含义。

他包含了你可以理解为开发智能驾驶域控制器(对应汽车工程师熟悉的开发ECU),自动驾驶所需传感器组合,还包括环境数据记录仪也就是真值视频记录仪。借助此参考架构,开发人员可以使用紧凑的记录和回放工具,从车辆传感器捕获原始数据,并回放编码数据以进行仿真。

这次GTC 2022上面Jason 黄CEO 表示基于hyerion 8 开发套件的奔驰自动驾驶车辆将在2024年左右上市,而紧随其后的有捷豹路虎的车辆在2025年左右上市,未来还有比亚迪,Lucid(Lucid(欧美豪华电动车新势力)投资路演解读)使用。另外其还介绍了未来基于Altan芯片的Hyerion 9 将在2026年左右推出。其实很多人不知道英伟达在2017年左右就推出过Hyerion 7。  

Hyerion 7显然就是基于XAVIER芯片的,可以大胆推测Xpeng应该是基于当时Hyerion 7开发工具进行开发。 这也践行了英伟达开发套件的理论,你可以直接采用方案,你也可以基于方案进行自主硬件开发例如小鹏应该就是基于Hyerion 7方案通过德赛开发域控制器。而现在奔驰,捷豹路虎,比亚迪可能直接和英伟达对接设计域控器或直接委托英伟达或者其他T1生产。

Drive Hyperion 传感器细节以及生态

英伟达和特斯拉一样同样是以图像AI为主导的智能驾驶,所以摄像头的360度覆盖是终究目标。但英伟达采取了兼容多种不同形式的传感器来冗余确保风险最少。同时根据自动驾驶要求需求可灵活更改传感器组合数量以及位置。

例如上图其Hyerion 8.1 传感器布置参数细节

L2+ Base套装,4个外部感知摄像头,4个环视鱼眼摄像头,5个毫米波雷达,12个超声波。L3 High套装,1个激光摄像头,8个外部感知摄像头,4个环视鱼眼摄像头,9个毫米波雷达,12个超声波,3个内部驾驶舱摄像头。另外在官网上还发现下图传感器包含功能和品牌等技术参数的推荐,

英伟达视觉方案,把摄像头分为,长距窄幅,中距中幅,短距宽幅,然后就是环视的鱼眼超宽幅。通过这些摄像头的配置来达到360覆盖然后抓重点,例如前视必须要有远距,等。

对于毫米波雷达,和摄像头类似,有长距,短距,超长距。还有4D成像。他们的原理和摄像头类似并且和摄像头形成互补360覆盖(为什么需要互补就要看我们之前文章自动驾驶中的传感器以及组合方案)。

英伟达很聪明,构建了其传感器生态,采取推荐的方案,这时候会想到当年的百度appllo 也喊出构建其生态,但显然困难重重。

围绕英伟达的传感器生态都是大牌,例如摄像头领域的大头On semiconductor,我们熟悉的sony。radar不用说了大陆,海拉都在。激光雷达国内的禾赛上榜。IMU传感器都涵盖。

总结

显然英伟达的杀手锏是以及自己的GPU为龙头,覆盖软硬件,AI算法,完整工具链,整合多种传感器生态的方式,你可以全部用我的东西,你也可以只用部分的灵活商务合作方式,可谓构建了一个以人工智能为核心的信仰生态。

记得Tesla的马斯克说过他可以开放他所有的自动驾驶东西给别人用,而这一步英伟达提前一步实现。

而这让我想起最近看的电影《天国王朝》基督徒和穆斯林争夺的耶路撒冷其实不过是自己内心捍卫的意识形态而非任何实物,耶路撒冷让多种意识形态共存捍卫的信仰是相容共生,所以单从这一点,如果马斯克抛弃兼容其他传感器那么顶多算构建帝国而非类似于英伟达构建信仰。当然通过我的文章以及分析我无法评判英伟达技术是否强大,其实他GPU背后是芯片Arm架构,通过Arm架构构建其打群架的GPU,而Arm也是一家神奇的公司,当前其他智能AI芯片例如Mobileye,瑞萨,德州仪器TI都采用Arm架构,关注我们有机会写一写GPU背后的霸主Arm,Arm偏向输出标准知识而非产品。

但显然英伟达做到另外一个原则,以客户为中心,提供完整工具链,灵活的合作方式给到客户,T1或者主机厂以及一众AI创业公司。而回归到当前主机厂竞争激烈的自动驾驶以及座舱,很多时候判断他们的强弱不是in house的能力有多强,而是整合应用创新能力,更重要的是是否以客户为中心(这里其实Vehicle 公众号一直践行和学习的就是,文章并不想去传达高深的东西,只想让读者能够易懂)。

参考文章

Nvidia drive  - NvidiaGTC 2021 automotive announcements - NvidiaAI in the drive‘s seat - Danny shapiorDesign For ScaleGPU Based

Infrastructurefor Autonomous Vehicles - ManishDrive product brief - NvidiaSAFER DRIVING BEGINS INTHE DATA CENTER - Dr Thomas

免责声明:凡注明来源本网的所有作品,均为本网合法拥有版权或有权使用的作品,欢迎转载,注明出处本网。非本网作品均来自其他媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。如您发现有任何侵权内容,请依照下方联系方式进行沟通,我们将第一时间进行处理。

0赞 好资讯,需要你的鼓励
来自:vehicle公众号
0

参与评论

登录后参与讨论 0/1000

为你推荐

加载中...