生成式AI“突袭”,高算力成核心追求,硬件软件两手抓

微观人 2023-02-10
2884 字丨阅读本文需 7 分钟

OpenAI发布的ChatGPT以强大的信息整合和对话能力惊艳全球,但随着访问量的激增,宕机现象频频出现。人工智能的快速发展,带来算力需求的成倍增长,相关底层硬件站上“风口”,CPO——光电共封装便是其中之一。

据光通信行业市场研究机构LightCounting预计,按照端口数量统计,CPO的全球发货量将从2023年的5万件逐步增长到2027年的450万件。A股上市公司中通宇通讯、锐捷网络、联特科技等已提前布局CPO赛道。

多位接受《证券日报》记者采访的业内人士认为,高算力需求下的超高能耗,是阻碍人工智能商业化的最大痛点。CPO能大幅降低能耗,从而降低成本,有望成为解决方案之一。

CPO技术有望成为高能效比解决方案之一

ChatGPT近日走红,一些用户却在使用时频频收到提示信息:“当前需求量高,我们正调节系统,请稍等。”“1小时内请求过多,请稍后再试。”

算力成为以ChatGPT为代表的人工智能的核心竞争力。华安证券计算机行业联席首席分析师王奇珏接受《证券日报》记者采访时表示:“根据OpenAI的研究,从2012年至2018年期间,最大的AI训练对于算力的消耗已经增长了30万倍,平均每3个多月就翻倍。远远超过摩尔定律。”

相关企业在算力方面的投入巨大。王奇珏介绍:“以国内某项目为例,自2020年3月份宣布以来已耗资56亿元,投入使用后总算力超过4910PFLOPS。”

根据国际权威数据调研机构IDC与浪潮信息联合发布的《2022-2023中国人工智能计算力发展评估报告》,2022年国内智能算力规模达到268EFLOPS,超过通用算力规模。预计未来5年中国智能算力规模的年复合增长率将达52.3%。

中央财经大学数字经济融合创新发展中心主任陈端接受《证券日报》记者采访时表示,“算力是支撑整个创新能级的重要底盘,一方面,可以通过‘东数西算’国家整体战略布局,进行算力资源的国家层面综合调配;另一方面,需要从技术层面上解决痛点。”

而CPO技术有望成为高能效比的解决方案之一。CPO是指将网络交换芯片和光模块共同装配在同一个插槽上,形成芯片和模组的共封装,其主要应用于高传输速率数据中心,可实现高算力场景下的低功耗、高能效。

国盛证券研报表示,“在功耗上,CPO通过交换机等设备和光模块等耦合在PCB上,通过液冷板降温,降低功耗。在体积和传输质量上,CPO满足超高算力后光模块数量过载等问题。在成本上,随着规模上量CPO或有一定经济性。英伟达、思科、英特尔、博通等网络设备大厂等都在储备或采购CPO、硅光相关设备,已部分应用于超算等市场。”

什么是CPO?

简单来说就是将交换芯片和光引擎共同装配在同一个Socketed(插槽)、PCB上面,形成芯片和模组的共封装,和此前的Chiplet有点类似但有区别。

至少目前,主流看法认为CPO是芯片与模组封装的终极形态,Pluggable、NPO是过渡阶段。

按照AIGC产业链划分来看,CPO属于上游的算法、算力层面。

通过CPO集成封装,缩短了交换芯片和光引擎间的距离(控制在5~7cm),使得高速电信号能够高质量的在两者之间传输,满足系统的误码率(BER)要求,还可以实现更高密度的高速端口,提升整机的带宽密度,并且集成使得元件更加集中,也有利于引入冷板液冷。

AI的发展离不开高算力,基础设施包括硬件设备相关最明显的一个变化是算力大幅增长后,相关能耗和成本也会大幅提升。在算力的成倍甚至是指数级增长下,能耗和成本的当前方案可能无法满足,或者说没有商业性和经济性。于是乎,DOP就成为了低功耗低成本高能效的解决方案。

年初以来的科技爆发,或许也与外围市场观点的变化有关系。近期,美大持续加大对AI布局。之前市场一直比较担心海外衰退,在整个通胀背景之下对于数据中心云计算相关的投资降速,从几大科技巨头在相关方面的资本支出也能看得出来。但自从CHATGPT的出圈,以及各巨头的实际行动来看,又点燃了市场的情绪,最为关键的是行业应用增长点是比较确切的,这也就为资金进场吃下了定心丸。

关于CPO,目前海外包括Nvidia、Cisco、Intel、Broadcom等都在储备或采购相关设备,已部分应用于超算等市场,未来FANG等大厂加速切换至AI投入,相关解决方案渗透率可能大幅上行,值得期待。

上下游谁更收益?重点看数据、算力和算法三要素领域

回顾人工智能发展历程,两点因素扮演了重要角色,一是算法的创新,二是硬件的提升。

ChatGPT 是OpenAI原创性自动问答系统InstructGPT的延续,建立在GPT-3的后续改进版本GPT-3.5基础上,通过引入强化学习模型, 大幅提高了AI在人机对话时的准确度和可控性。从上游需求的增加来看,算力、数据标注、自然语言处理等可能受益。

算力是 AI模型的“发动机”。中银证券报告指出,ChatGPT在参数规模上已经达到了千亿级别,对AI大模型而言,不论是训练还是推理,对于算力这一基础设施都有着极大的需求。

“ChatGPT主要源于GPT-3的预训练模型,而GPT-3相比于此前的模型,最大的不同在于模型体量的大幅提升。人工智能的跨越式发展将成为算力流量消耗的重要驱动力,未来数据中心和相关的配套产业有望实现更好增长。”安信证券报告进一步指出。

而数据是 AI模型的“汽油”,是一切人工智能的基础。数据标注是大部分人工智能算法得以有效运行的关键环节。“在ChatGPT训练的三个阶段中,只有第三阶段不需要使用人工标注数据,而第一、第二阶段都需要大量的人工标注。”东吴证券进一步指出,“现有数据标注以人工标注为主,属于劳动密集型产业。随着机器学习不断完善,自动标注成为大趋势。”

另外,算法是 AI模型的“大脑”,是AI实现技术跃迁的根本,也是最难以被直观理解的部分。一个好的算法除了能更好的完成设定的任务外,还需具备更强的通用性(激活更多的可用数据)和更优化的计算原理(减少算力的负担)。因此,在AI领域具备科研资源和资金实力的公司将有望拔得头筹。

而对于ChatGPT的下游应用场景,梳理机构一致看好的应用方向,主要集中在智能客服、搜索引擎、图像、文字、代码生成等三大方面。

智能客服方面,中金公司报告表示,ChatGPT在未来投入商业化领域中,可通过强化的上下文理解能力,优化银行、电商等客服机器人,大大提高服务质量。

搜索引擎方面,ChatGPT更是带来了行业是否将迎来“革命性”变化,能否替代传统搜索引擎的大讨论。

归纳性工作上,文字上,东方证券指出,ChatGPT的上线,将推动文本类AI渗透于文本生产、智能批阅等应用领域,相关领域必将迎来极大的发展空间。

“同时,代码开发相关的工作更加规整,也非常适合AI辅助生成。ChatGPT在目前测试中表现出的代码生成能力,虽然欠缺一些底层的稳定性,但相比于Copilot更加灵活。在进行针对性的优化后,基于新GPT模型的AI代码辅助工具有望在中短期内落地。”中信证券指出。

因此,具体到细分投资方向上,上投摩根基金指出,从产业链出发,主要可以考虑三类:一类是从事大模型基础研发的企业,一类是上游为大模型研发提供算力等基础设施的厂商,另一类是下游针对细分场景开发软件的第三方应用厂商。

标的方面,算力领域,财通证券建议投资者关注海光信息、龙芯中科、宝信软件等。AI处理器方面,华西证券建议投资者关注寒武纪、商汤、海光信息等。AIGC相关技术储备的应用厂商,受益标的有万兴科技、中文在线、阅文集团、昆仑万维、视觉中国视觉等。

值得一提的是,在ChatGPT的下游应用领域,海外已经有成功的落地案例。

2023年1月,美国新闻聚合网站BuzzFeed官宣将依托OpenAI为其用户互动栏目Quizzes制作和个性化各种小测试。ChatGPT会生成一系列提问,再根据个人的回答产生用户独有的、可分享的文章。

不久前,Meta向BuzzFeed支付了数百万美元,以让BuzzFeed为Meta的平台生成内容,并培训平台上的创作者。

赵凤飞表示,目前市场上出现的概念股大涨,有较强的主题催化成分,具有一定的博弈色彩。但如果ChatGPT在未来的商业化落地上还能再有斩获,或者其它的AI公司也能推出有竞争力的AI产品,那AI板块的行情则有望持续更久。国内的AI公司,包括很多A股上市的AI公司,在NLP相关领域也有多年积累,具备较为深厚的技术积淀,也有相关的产品。但目前来看,同ChatGPT这种现象级产品相比,仍有一定差距。

当然,万物皆有利弊。赵凤飞提示:“很多上市公司对AI的布局尚处于早期阶段,竞争格局还不够清晰,是否有可持续的商业模式也有待检验,这些也都是潜在的风险。投资者可以选择智能产业相关的主题基金,或者选择一些长期聚焦在信息技术领域的基金产品,这些产品对AI技术的关注会相对较多,对相关领域的利好也会更加敏锐。”

文章来源: 金融界,后生哥说,证券日报 

免责声明:凡注明来源本网的所有作品,均为本网合法拥有版权或有权使用的作品,欢迎转载,注明出处本网。非本网作品均来自其他媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。如您发现有任何侵权内容,请依照下方联系方式进行沟通,我们将第一时间进行处理。

0赞 好资讯,需要你的鼓励
来自:微观人
0

参与评论

登录后参与讨论 0/1000

为你推荐

加载中...