计算芯片“新贵”DPU,是国产芯片的下一个突破口吗?

电子放大镜 2022-11-04
2720 字丨阅读本文需 6 分钟

数据处理单元或 I/O 处理单元的出现,或者任何你想称呼它的东西,都是由经济驱动和架构必要性驱动的。

与卸载方法相比,芯片正面临标线限制( reticle limits ),网络和存储功能的 CPU 处理非常昂贵等挑战,这些事实结合起来使 DPU 成为可能。因为其出现能够更好地保护服务器工作负载,尤其是在多租户(multitenant)环境中,这使得 DPU 不可避免。而现在,这种卸载的经济性使 DPU变得非常可取。

Amazon Web Services 发明了 Nitro DPU,Google 与 Intel 合作创建“Mount Evans”IPU,AMD 收购 了Xilinx 和 Pensando(两者都有 DPU)以及 Nvidia 收购 Mellanox Technology。他们这些动作背后的原因都是——DPU 正在成为网络中的控制点,并且越来越多地成为计算和存储的看门人,它是这些超大规模厂商和希望将 DPU 传播给大众的 IT 供应商的所有系统架构的中心。

进入九月,在美国发出对中国出口高性能数据中心GPU的限制后,加速计算核心技术国产化的趋势日渐明朗,这也顺势带动了国产AI芯片、DPU、GPU市场热度。在资本市场上,中国相关概念股应声上涨、同时相关企业融资成功的消息更是层出不穷,国内芯片企业正在趁势快速发展着。

9月20日讯,根据国内媒体报道,国产DPU芯片公司中科驭数今天宣布完成数亿元B轮融资,融资规模远超以往轮次。据悉,本次融资主要由金融街资本领投,建设银行旗下建信资本跟投,老股东灵均投资、光环资本、泉宗资本追投,中科驭数希望借此加速自研DPU芯片的迭代与产业布局。

问题来了,如今火爆全网的DPU到底是什么?它和我们这些普通消费者所熟知的CPU、GPU到底有什么不同之处?比起混合CPU+GPU的传统异构计算架构,DPU在计算领域里究竟拥有着怎样的优势?在这场围绕数字化时代的异构计算大乱斗中,国产DPU的发展前景如何?让我们来好好探讨一下。

什么是DPU?

所谓DPU,指的是数据处理器(Data Processing Unit),理论上是继CPU、GPU之后,设置在数据中心内部的第三颗主力芯片。

根据维基显示,DPU的概念最早是由美国初创公司Fungible提出的。在Fungible的定义中,DPU是一种运行Linux操作系统的SoC,其主要目标是通过承担原本由CPU承担的网络、存储和安全的加速处理任务,满足网络侧的专用计算需求,以此优化和提升数据中心效能。

事实上,由于制程接近边际效益、摩尔定律逐渐失效的缘故,如今CPU芯片的性能增长正在逐年放缓,CPU的性能从5-10年前每年30%的增幅,到三年前大概只有每年不到3%的性能增幅。

作为对比,由于云端应用的丰富、数据中心规模的扩大、数字化进展的驱动,近些年来网络带宽正在飞速上涨,这也导致了目标算力、网络带宽与计算性能的失调,进一步加剧了服务器节点上CPU的计算负担,CPU的算力几乎已经无法应对大量云计算带来的负担。

在这种背景下,DPU自然应运而生。

不同于为了高效管理本地资源而生的传统CPU架构,DPU可以说是一种为了管理大量网络资源而生的架构。举个例子,为了实现大量数据传输,数据中心的主机每天都要进行海量的⽹络协议处理,这会大量占用算力,而DPU则可以承担起网络协议处理的工作,以此分担CPU的负载,帮助CPU释放算力负担。

除了网络协议外,DPU还能承载数据中心所需的存储、安全和虚拟化等工作负载。举个例子,传统的数据中心要远程读取存储数据,还需经过CPU的编译和转发,而DPU则可以通过RDMA(远程直接数据存取)直接读取主机存储数据,而AWS推出的Nitro Hypervisor更是宣称可以通过DPU承担虚拟化负载,让CPU免去执行虚拟化所需的算力损耗。

综上所述,大家应该也看明白了,DPU的作用本质就是给CPU“减负”。将原本CPU要承担的网络、存储、虚拟化等功能卸载到自己身上,并利用自己的算力特长,对这些工作进行加速运算。

事实上,DPU已经不是第一个为弥补CPU能力不足而发扬光大的产品,多年前GPU的大热也是为了弥补CPU在图形处理能力方面的短板,近年逐渐兴起的AI芯片本质也是为了弥补CPU在人工智能算法方面的不足。至于普通消费者,只要知道DPU是为了数据中心这种大规模算力场景而生的,与我们的台式机、笔记本电脑基本无关就行了。

百家争鸣,谁能笑到最后?

虽说最早提出DPU概念的是Fungible,但是将DPU这一概念重新推向时代潮头的无疑是英伟达。2020年4月,英伟达以69亿美元完成对以色列网络芯片商迈络思(Mellanox)的收购,英伟达CEO黄仁勋更是将DPU定义为和CPU、GPU并肩的数据中心的“三大支柱”之一。

自此,DPU正式成为了芯片领域里的香馍馍,巨大的市场需求推动越来越多的玩家进入DPU赛道。除了国外主流芯片厂商外,如今不少国产公司已在这条百亿美元赛道上崭露头角,其中不乏阿里云、百度云等互联网巨头,也有中科驭数、芯启源、大禹智芯等初创公司。

先看看国外企业,去年6月,英特尔发布了其可编程网络设备IPU(基础设施处理器),用于加速存储虚拟化、网络虚拟化和安全等功能,并释放CPU核心。今年9月,AMD以19亿美元的价格收购DPU芯片厂商Pensando Systems,以此补齐“云战略”最后一块拼图。

在今年4月的GTC大会上,英伟达发布了新一代数据处理器 —— BlueField-3 DPU。这是首款为 AI 和加速计算而设计的 DPU ,专门针对多租户、云原生环境进行了优化,据悉一个BlueField-3 DPU所提供的数据中心服务,可相当于多达300个x86主核才能实现的服务。

国产厂商这边,今年6月,阿里云在三代神龙卡的基础上正式推出其自主研发的云基础设施处理器(CIPU),号称将替代CPU成为云时代IDC的处理核心,可以综合调度CPU、GPU、存储硬盘、交换机等硬件。事实上,这枚芯片除了名字之外,与 DPU的功能和作用几乎无异。

成立于2018年的中科驭数,在自研敏捷异构KPU芯片架构以及DPU软件开发平台HADOS的基础上,自主研发了业界首颗融合高性能网络与数据库一体化加速功能的DPU芯片和标准加速卡系列产品,目前已经和金证股份、中移物联网等企业达成战略合作。

此外,成立于2015的芯启源和成立于2020年的大禹智芯也是目前国内DPU赛道的主流玩家,其中芯启推出了基于SoC架构的DPU完整解决方案,并于今年6月完成了数亿元Pre-A3轮融资,大禹智芯则是一家由英特尔、思科核心研发人员组成的初创企业,于今年7月宣布完成数千万元Pre-A轮融资。

作为芯片新物种,DPU市场空间正在快速扩张。赛迪顾问预测,全球DPU市场将在2023-2024年迎来爆发式增长,预计至2025年,中国DPU产业市场规模将超过565.9亿元,全球DPU产业市场规模将超过245.3亿美元,复合增速分别为 51.73%、170.60%。

与国外厂商“逐鹿中原”

“我们认为DPU的潜力确实是巨大的。”在鄢贵海看来,从技术发展的角度来看,DPU的出现有一定的必然性——上层应用对于算力的需求在过去5年急剧增长,使得DPU的应用场景很多,它将广泛分布在5G、云计算、大数据、数据中心和边缘计算等领域。

而从工业和信息化部今年发布的《新型数据中心发展三年行动计划(2021—2023年)》中,鄢贵海更是看到了新型算力芯片难得的历史发展机遇。

该计划明确提出要加快提升算力算效水平,“推动CPU、GPU等异构算力提升,逐步提高自主研发算力的部署比例”“加强专用服务器等核心技术研发”“树立基于5G和工业互联网等重点应用场景的边缘数据中心应用标杆”等要求和措施。

“虽然国内厂商在芯片产品化的环节相比国外一线厂商还有差距,但是在DPU架构的理解上是有独到的见解的,而且我国目前在数据中心这个领域,无论是市场规模、增速还是用户数量,相较于国外都有巨大的优势。”鄢贵海认为,国内厂商有望充分利用这一“应用势能”,加快发展步伐,在DPU这个赛道与国外厂商“逐鹿中原”。

不过,挑战与机遇并存。

“目前要解决DPU标准化应用,还存在一定挑战。”鄢贵海解释道,由于数据中心本身的复杂性,各大厂商一方面采用商用现货组件(即COTS)来构建系统,追求低成本,一方面又设法分层服务化,打造面向不用类型客户的标准化产品,但除此之外的所有技术实现几乎都是“八仙过海,各显神通”——如AWS有Nitro,阿里云有MOC。

“有的厂商强化IO能力、有的关注路由转发、有的重视存储卸载、有的关注安全加密,不一而足。”鄢贵海说,而上层负载不同,也必然对底层架构有各异的需求,这也许是目前DPU标准化面临的最大挑战。

文章来源: 光明网,雷科技,半导体行业观察

免责声明:凡注明来源本网的所有作品,均为本网合法拥有版权或有权使用的作品,欢迎转载,注明出处本网。非本网作品均来自其他媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。如您发现有任何侵权内容,请依照下方联系方式进行沟通,我们将第一时间进行处理。

0赞 好资讯,需要你的鼓励
来自:电子放大镜
0

参与评论

登录后参与讨论 0/1000

为你推荐

加载中...