主板、CPU、存储…ChatGP将“造富”哪些相关产业链?

IT猿人 2023-03-03
4864 字丨阅读本文需 12 分钟

AI领域的从业者认为,ChatGPT是AIGC(AI Generated Content,利用人工智能技术来生成内容)应用的新起点,随着深度学习模型不断完善、开源模式的推动、大模型探索商业化的可能,AIGC有望进入应用爆发期。ChatGPT技术的商用落地,对半导体行业有哪些推动作用?

当前,最火的人工智能(AI)应用当属ChatGPT,它是OpenAI发布的聊天机器人程序。ChatGPT与用户对话时可结合上下文做出反应,还支持写代码、写邮件、写脚本、写文案等文字输出型任务。

由于ChatGPT在问答环节的优异表现,该程序一经推出就受到了全球市场的关注,上线两个月后注册用户人数就突破一亿。在此背景下,ChatGPT背后蕴含的巨大市场潜力还有待挖掘,该技术可望撬动海量的应用场景。

爆火的ChatGPT

一款2022年11月底上线,仅在互联网圈引发关注的AI(人工智能)聊天机器人,在2023年初突然席卷了海内外资本市场。

2023年1月底,国内尚处于春节休市期间,海外市场传来消息,由OpenAI公司研发的AI聊天机器人ChatGPT开始推出付费订阅版本,这预示着AIGC(人工智能生成内容)应用开始进入稳定商业化阶段。

ChatGPT能够在大部分领域与人类进行持续的语言交互,落地即成为历史上用户增长最快的消费应用。瑞银数据显示其月活跃用户已达1亿,付费订阅版的推出进一步打开AIGC应用在To C(消费者端)领域的商业化空间。目前微软已将其纳入Bing(必应)搜索引擎,并在办公软件Teams内推出AI会议纪要、邮件撰写等付费功能。

2月5日,融合ChatGPT技术的微软搜索引擎Bing短暂上线,已有少量用户提前体验,该搜索引擎据称可以以聊天方式进行搜索。

与此同时,被称为美版“今日头条”的新闻资讯类公司BuzzFeed(BZFD.US)在1月底宣布计划采用OpenAI加强内容创作,1月26日、27日,该股股价累计上涨330%。

炒作蔓延到港股市场,商汤-W(0020.HK)在1月26日中国香港市场恢复交易后至今上涨38.25%。

A股市场也在春节假期恢复交易后掀起一轮ChatGPT概念的炒作潮。汉王科技(002362.SZ)从1月30日A股春节后恢复交易开始,连续7日涨停。连续涨停期间,涨停价位堆积的买入单金额甚至一度比该股流通市值还高,达到百亿元规模。

除了汉王科技,先知先觉的资金也开始了其他选择,海天瑞声(688787.SH)在涨跌幅限制20%的股票中涨幅最高,截至2月15日,该股13个交易日内涨幅达到260%。

ChatGPT的面世点燃了AI行业内部的竞争硝烟。谷歌(GOOGL.US)在ChatGPT宣布商业化后,罕见召回了两位创始工程师,并在ChatGPT火爆后不久紧急上线了自家的对标产品——Bard。

然而Bard首秀却遭遇了一连串失误,导致谷歌股价下跌超过9%。2月15日,谷歌在一封内部邮件中对全体员工表示,希望员工能花费二到四个小时来测试Bard。“我知道这一刻令人不安,这是可以预料的,因为基础技术正在飞速发展,且潜力巨大。”谷歌CEO(首席执行官)桑达尔·皮查伊在给员工的电子邮件中说道。

国内公司方面,百度、阿里、腾讯、京东、网易、360等一众国内互联网巨头,纷纷宣布入局。其中,百度宣布即将上线聊天机器人“文心一言”,预计3月完成测试。

网易有道首席科学家段亦涛表示,ChatGPT的诞生,从用户体验的角度来看,和之前能够交互的模型相比,其的确给人们非常不一样的体验。“它更像人了。从技术上来看,这种技术的突破是非常大的进展,在这个技术成熟之前,我们都谈不上人工智能,它出现之后,我们才摸到了人工智能的门槛。”段亦涛称。

创投圈从来不会缺席这样的盛宴。近日,原美团联合创始人王慧文对外宣称要“打造中国OpenAI”,并利用此前注册的北京光年之外科技有限公司开始对外招聘,自称“出资5000万美元,估值2亿美元”“带资入组”“求组队”。

“越来越多的行业会在AIGC的赋能下提高效率,更多的垂类工具可能会逐渐出现。大家需要接纳、学习、使用这些工具,跟上时代。也可能大家期待有些更颠覆性的影响,但这个我们还不确定。AIGC可能有颠覆某些行业的潜力,不同领域里速度有快有慢。”源码资本合伙人黄云刚认为。

上海阜盈投资管理有限公司董事长张卫民则认为,从全球发展趋势来看,现在已经进入了人工智能产业全面爆发阶段,“这犹如20年前的互联网尚处于萌芽期,如果忽视或拒绝参与其中头部公司的投资,将会失去未来可期的投资收益”。

当前,人工智能日益成为引领新一轮科技革命和产业变革的核心技术。特别是随着ChatGPT现象级应用的爆火,展现了通用人工智能为众多行业赋能的巨大潜力。作为全球化移动互联网从业者,李涛认为,以ChatGPT为代表的第四次人工智能发展浪潮,将以“内部提效工具、现有产品进化、AI+场景重塑、构建新产业引擎”四大步骤催动颠覆性的社会变革。

接下来,爆火的ChatGP将带火哪些产业链呢?

ChatGP将“造富”哪些相关产业链?

1.训练AI模型需海量算力资源

从本质上而言,ChatGPT是一类AI语言模型。官方资料显示,ChatGPT是在GPT 3.5模型基础上微调而成。ChatGPT与InstructGPT是姊妹模型,它们均采用了大型语言模型(Large Language Model,LLM)生成领域的新训练范式——RLHF(Reinforcement Learning from Human Feedback),即以强化学习方式依据人类反馈优化语言模型,两者仅在数据收集设置上有细微区别。

根据ChatGPT向用户的透露的信息,RLHF是一种使用了强化学习的方式,可直接优化带有人类反馈的语言模型。实际上,它涉及到多个模型和不同训练阶段,其技术可大致分解为以下三点:第一,预训练一个语言模型(LM) ;第二,聚合问答数据并训练一个奖励模型(Reward Model,RM);第三,用强化学习(RL)方式微调LM。总而言之,RLHF可增强人类对模型输出结果的调节,并且还能对结果进行更具理解性的排序。

关于ChatGPT的介绍 图片来源:OpenAI官网

再观察GPT 3.5之前的GPT-3模型,其参数量高达1,750亿个,训练所需数据量达45TB。通过使用RLHF的训练方法,即使InstructGPT只有13亿个参数量,它的输出效果也依旧优于GPT-3。OpenAI公布的资料显示,InstructGPT与ChatGPT是姊妹模型,由此可猜测两者的参数量可能相差不大。

也许有读者对于参数量缺乏具体的概念,本文通过列举一个通俗的例子来解释——2020年9月,微软获得了OpenAI GPT-3的独家授权,该公司为训练GPT-3建设了一个超算中心,该中心的超级计算机装载了一万张英伟达GPU。而训练GPT-3消耗了微软355个GPU年的算力(1块GPU运行355年的算力),单次训练费用更是高达460万美元。不过,截至发稿日,笔者未查询到ChatGPT模型训练费用信息。

ChatGPT是一个AI模型,它离不开算力的支持——在训练阶段,需要大量的语料数据来训练模型,在应用阶段,需要大算力服务器来支持模型的运行。即使ChatGPT的参数量可减少到数十亿个,训练和运行它也需消耗很大的计算资源。

2.推动智能计算机进一步发展

OpenAI ChatGPT的现象级走红,推动科技公司加快类ChatGPT产品的部署。近期,谷歌、微软、百度等企业都宣布将提供AI模型服务,其中谷歌将推出由LaMDA模型支持的对话式人工智能服务Bard,微软在搜索引擎Bing中嵌入了OpenAI的GPT-3.5,百度将推大模型新项目“文心一言”,最初版本将嵌入搜索服务中。

随着更多科技公司部署类ChatGPT服务,为训练AI模型将需要巨大的算力,这种需求也让一些企业看到了AI算力服务的商机。2023年2月10日,浪潮信息推出AI算力服务产品。该公司表示,将基于中国领先智算中心的算力基础设施,为中国客户提供AI算力资源和配套服务,支撑AI模型构建、训练和推理的业务全流程,赋力生成式AI产业创新。

当然,资金雄厚的科技巨头可能会搭建自己的计算中心。例如,前文所述的微软的超级计算机,该中心设备用于在Azure公有云上训练超大规模的AI模型。据了解,该中心装载了超过28.5万个CPU、1万个GPU,其中单个GPU服务器的网络连接能力达400Gb/s,该设备算力峰值达每秒可执行23.5-61.4个万亿浮点运算。

购买AI算力服务和搭建计算中心,都需要大规模的计算机设备的支持。

表1:超级计算机和智能计算机的区别

在进一步讨论时,首先要厘清一个概念——算力是代表处理数字化信息能力的强弱,不同类型的算力存在着较大的差别。比如,超级计算机的算力单位是FLOPS(每秒浮点运算能力),而智能计算机的算力单位是OPS(每秒操作次数),这是两个不同的概念。

另外,衡量算力水平还要考虑算力精度。瞭望智库指出,目前业界用于衡量超级计算的Linpack测试,测试的是超级计算机的“双精度浮点运算能力”,即64位浮点数字的计算(FP64)。此外,在以二进制所表示数字精度中,还有单精度(32位,FP32)、半精度(16位,FP16)以及整数类型(如INT8、INT4)等。数字位数越高,意味着精度越高、可支持的运算复杂程度越高,其能适配应用场景越广。

智能计算机是一种专用算力设备,它在推理或训练等智能计算方面表现出色,但大多数智能计算机不具备高精度数值计算能力;超级计算机是一种通用算力设备,其设计目标是提供完备、复杂的计算能力,在高精度计算能力更强,应用范围更广,主要被科研人员用于行星模拟、新材料开发、基因分析等科学计算和大数据处理。

AI模型训练只需用到智能计算机,但目前的智能计算机技术还不成熟,仅在模式识别、知识处理及开发智能等方面有应用。尽管当前该类设备还未达到预期目标,但它在文字、语音、图形图像识别与理解,以及机器翻译等领域取得了一些进展,同时相关初级产品也已经问世。

3.推动更多AI细分市场的发展

如前文所述,AIGC的出现有望撬动AI大规模落地的场景。同时,相关企业在多个AI产业链的布局将更深入。比如,在硬件层包括芯片和传感器,其中AI芯片主要有通用型的GPU、可定制的FPGA、专用的ASIC,以及类脑芯片。英伟达的Orin芯片基于通用GPU,地平线的征程5芯片,既是ASIC芯片,也是DSA(特定领域架构)芯片;类脑芯片有IBM的TrueNorth、英特尔的Loihi、高通的Zeroth、西井科技的DeepSouth、杭州电子科技大学的达尔文、aiCTX的DynapCNN处理器等。

整体而言,AI芯片供应商主要有英伟达、AMD、Intel、VelociHOST、景嘉微、地平线、寒武纪、比特大陆、复旦微、赛灵思、Altera(英特尔旗下)、异构智能、谷歌等;传感器部分有舜宇光学、禾赛科技等供应商;算法层有商汤科技、旷视科技、云从科技、依图科技、第四范式等;应用层有海康威视、科大讯飞、锐明技术等。

虽然智能计算机并不追求太大的算力频率,但是其对芯片的功耗和散热要求较高,所以,低功耗的FPGA和ASIC芯片在智能计算机上有更大的用武之地。与此同时,AI芯片也将从面向厂商的训练场景为主,转变为面向消费者的推理场景为主。业内AI专家对此评价称,GPU的高并行计算能力和高通用性的协调统一,在消费者时代的统治力或许难以为继,未来ASIC芯片、中国产GPGPU芯片或将能切入MaaS(出行即服务)产业生态。

4.服务器产业链的发展会受益吗?

或许会有读者联想到,理论上,更大的算力意味着更多的计算机设备,搭建这些设备也需要更多的核心器件。这是否意味着,企业对类ChatGPT技术的追求,对服务器产业链的发展起到积极的促进作用?

笔者在表2中列举了一些全球服务器产业链信息,主要涉及到关键器件及整机供应商。

表2:服务器核心器件及整机供应商不完全盘点

·服务器主板供应商

服务器主板是专门为满足服务器应用而开发,要求具备高稳定性、高性能、高兼容性的特点。本表列举的服务器主板供应商集中在中国和美国,比如美国的英特尔、超微;中国大陆的联想等,以及中国台湾的华硕、技嘉、微星、泰安(神达旗下)等。

·服务器CPU供应商

x86服务器CPU与非x86服务器CPU的市场占比 制图:国际电子商情 数据来源:综合自各研报

截至2023年Q1,全球约有90%的服务器CPU采用x86架构,剩下的10%左右采用非x86架构。目前,英特尔占据了x86服务器CPU 90%以上的市场份额,同为x86架构阵营的AMD虽然近年来在PC CPU领域穷追猛打,但在服务器CPU方面其份额还难以撼动英特尔的地位。IBM的CPU采用Power架构,其全球市场占也比与英特尔低。另外,中国台湾的Cyrix(被威盛电子收购),中国大陆的海思、中科院计算所、天津飞腾、申威科技等也有服务器CPU产品,但这些企业的市占比与英特尔有很大的差距。

·GPU供应商

AI模型需要大量的深度学习和机器训练,比如参数量达1,750亿个的GPT-3,需要用到大量的英伟达V100(32GB)、A100和H100(80G)GPU产品的支持。目前,英伟达A100、H100 GPU产品已经被亚马逊AWS、微软Azure、谷歌云、甲骨文等公司采用。另据IDC统计资料显示,在中国的GPU服务器领域,英伟达的市占率也高达95%,几乎所有的云服务提供商和超算都采用英伟达的芯片来支持AI计算。

此外,AMD、Intel、VelociHOST等美资企业也生产GPU产品;中国的GPU供应商则有景嘉微、长沙韶光(航景科技子公司)等。

·存储相关供应商

本表格列举的存储相关供应商的业务涉及到内存、外存(硬盘)和内存接口芯片。

目前,内存接口芯片已经升级到DDR5世代,供应商有澜起科技、Rambus、IDT三家。虽然速率为4800MT/s的DDR5在PC笔电的渗透快于服务器,但是只有当传输速率达到6400MT/s时,PC端才需要搭载DDR5内存接口芯片。因此,当前DDR5内存接口芯片在服务器上的应用更多,预计在2022-2024年三年期间,服务器端DDR5的渗透率分别为15%、40%、60%。

内存供应商有韩国的SK海力士、三星电子等,美国的美光科技、金士顿等,中国的金泰克、芝奇(台湾)等;外存供应商有美国的西部数据(含旗下闪迪)、希捷等,中国的联想、金泰克等。

·服务器整机供应商

在服务器整机部分,笔者主要列举了中美两国的供应商。

美国有戴尔、HPE、IBM、思科等;中国有华为、新华三、浪潮、联想、中科曙光、山东超越等。

对服务器产业的利好短期内并不明显。

超级计算机和智能计算机有多台服务器组成。客观上,科技企业对类ChatGPT服务的追捧,有利于全球服务器产业链的发展,但是这种作用恐怕难以在短期内体现。据分析机构的预测,2023年全球服务器整机市场的表现并不太好。

2023年1月底,集邦咨询修正了对2023年全球服务器整机市场的预测数据,增速下调至1.87%。该机构表示,受全球经济持续疲软影响,北美四大云端服务供应商下修了2023年服务器采购量,且数字可能将持续下调,下修幅度从大到小依次为Meta、微软、谷歌、亚马逊云科技。这四家企业的服务器采购量由原先预估的同比增长6.9%,降至4.4%,这将影响2023年全球服务器整机出货年增率下降到1.87%。

其实,已确定部署类ChatGPT的企业,主要是一些规模大、实力强的巨头,毕竟部署这类业务需要极大的算力,训练和验证模型的成本也非常昂贵。相信随着更多此类技术进一步产业化,市场上还会出现不同的细分业务模式。

文章来源: 国际电子商情,财经杂志,光明网,

免责声明:凡注明来源本网的所有作品,均为本网合法拥有版权或有权使用的作品,欢迎转载,注明出处本网。非本网作品均来自其他媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。如您发现有任何侵权内容,请依照下方联系方式进行沟通,我们将第一时间进行处理。

0赞 好资讯,需要你的鼓励
来自:IT猿人
0

参与评论

登录后参与讨论 0/1000

为你推荐

加载中...