巨头火拼ChatGPT,最大的受益者是谁?

AI小助手 2023-02-15
2312 字丨阅读本文需 6 分钟

谷歌、百度相继宣布将推出对标ChatGPT的产品,腾讯、阿里、华为等也在紧锣密鼓地布局。颠覆移动互联网的新应用,已经出现了?不过,今天不是要比较分析哪家的更有前景,而是想和大家聊一下背后的两大赢家。

一、万物皆可“ChatGPT”?

资料显示,开发ChatGPT的Open AI是一家2015年成立的创业公司,创始人包括美国创业孵化器Y Combinator前总裁阿尔特曼、马斯克、PayPal联合创始人蒂尔立等。2019年,微软10亿美元的注资让Open AI开启了商业之路,至今其估值已达到近300亿美元。

而ChatGPT则是Open AI推出的文本类AI应用,是一种强化过的人工智能深度学习模型,也是AIGC(人工智能内容生成)技术进展的成果之一。

不同于苹果的Siri、百度的小度,ChatGPT更加智能,其可以与用户在一个语境下持续聊天,并且根据上下文进行互动,甚至能完成写论文、写代码、做题等任务。

有调查显示,89%的美国大学生承认使用ChatGPT做家庭作业,53%的学生用它写论文,48%的学生使用ChatGPT完成测试。比尔·盖茨甚至在接受福布斯采访时称:ChatGPT的意义不亚于PC和互联网诞生。

在此背景下,ChatGPT被称为“人工智能历史上里程碑式的产品”,有“跨时代的影响”。面对这样一个“革命性”的风口,资本市场已经嗅到了炒作的机会。

二、巨头火拼ChatGPT

在ChatGPT迅速蹿红之后,竞争者纷至沓来。

先是谷歌宣布已向人工智能初创企业Anthropic投资约3亿美元,同时推出基于大型语言模型LaMDA的聊天机器人Bard,并宣布将嵌入其搜索引擎。

微软紧随其后,推出基于AI驱动的必应搜索引擎和Edge浏览器,以类似于ChatGPT的方式回答用户的搜索提问。

值得一提的是,2019年微软在ChatGPT的所有者OpenAI身上投入十亿美元,而在今年1月底微软宣布与OpenAI扩大合作伙伴关系,向OpenAI进行一项为期多年、价值数十亿美元的投资,以加速在人工智能领域的技术突破。

光投资合作还不够,微软亲自下场将ChatGPT技术整合到搜索引擎中,展现其向谷歌再次发起挑战的决心。

在目前的全球搜索引擎市场中,谷歌依然是绝对的老大,地位几乎不可撼动,市场份额高达93%,微软旗下Bing以3%的份额排名第二。

国内巨头也不甘示弱,紧跟上这波AI热潮。

百度“类ChatGPT应用”文心一言(ERNIE Bot)将在今年三月份完成内测,面向公众开放,内测包括答案回复、智能生成等。

阿里达摩院牵头的类ChatGPT对话机器人也正在研发中,目前已开放给公司内员工测阶段,可能将与钉钉深度结合。

三、最重要的是 GPU

看上去很美的 AI 技术,商业化落地进展总是不及预期。但是,ChatGPT 掀起的热潮,却成为 AI 未来商业化空间的最新想象。

从底层技术角度看,ChatGPT 是一种基于 Transformer 架构的预训练语言模型。这套模型,能通过海量语料数据,自动训练生成语法结构和语句结构,这被称为 " 生成类模型 "。

ChatGPT 应用和 AI 表达路径,或语言模型主要功能,就是通过巨量数据做预训练,之后就能理解 C 端用户的语言指令,或更进一步根据用户指令,生成相关文字结果并做文本输出。

当前,AI 生成类模型主要分两类,一类是以 ChatGPT 为代表的语言类,另一种是以扩散模型(Diffusion)为代表的图像类。

若要保证 ChatGPT 的 Transformer(语义理解和形成有逻辑的语言输出)效果,就必须拥有一个超大语言模型,即 LLM(Large Language Model)。这个大模型有着极多的标签参数,便于 NPU 调用。技术论文显示,ChatGPT 参数量达到了惊人的 1750 亿。若使用标准浮点数,则占用的存储空间能达到 700GB。

如 ChatGPT 的参数量级,以及需要的 Transformer 效果,则运算硬件单元需要什么样的类型或技术要求?

简单来说,这需要三方面要求:分布式计算、内存容量 / 带宽、算力。

首先,单机训练显然无法胜任 ChatGPT 的效果要求,因此需要使用分布式计算;其次,在大规模分布式计算过程中,除了高算力,分布式计算节点之间的数据传输也极为重要。这对节点数据互联带宽提出了极高的要求。

第三,内存容量,这个相对容易理解。做海量数据训练,分布式计算节点的存储空间,决定了节点数据量的多少。数据量级越大,AI 训练效率越高,结果自然也会相应越好。

如此就很清楚,符合 ChatGPT 需求的 AI 芯片主要不是 CPU,而是包含 NPU 的 GPU。所谓 NPU,即嵌入式神经网络处理器(Neural-network Processing Units)。神经网络并不是指算法,而是一种特征提取方法。决定神经网络优劣的核心因素,在于拥有多少可供训练的数据量。事实上,现在建模拼的不是算法,而是数据量级。

四、背后赢家:英伟达和台积电

就AI芯片的市场格局来看,英伟达是全球GPU和AI计算平台的领军者,据Omdia的数据,2020年英伟达在用于云和数据中心的AI处理器市场占据了80.6%的收入份额。

另据IDC的数据,2021年英伟达在企业GPU市场的份额达到91.4%,而AMD仅8.5%,在Top500超级计算机中,近七成是由英伟达支撑的,上文提到的微软为OpenAI开发的超级计算机所用的GPU就是由英伟达提供的。

因而在这一轮ChatGPT的热潮下,英伟达的股价也闻风而动,1月底以来英伟达上涨16%。

在智能手机、PC、ping ban遇冷后,上游芯片厂商的注意力转移到了AI领域。英伟达之外,英特尔在接连收购Altera、Nervana、Movidius人工智能初创公司后积极追赶;AMD计划于今年推出Alveo V70 AI芯片新品;苹果M2系列芯片持续导入AI加速器设计。

2022年半导体行业陷入“寒冬”之际,英特尔、AMD迫切希望寻求到新的增长点,不过目前后面这几家还没能对英伟达形成冲击。

花旗预估,ChatGPT可能会在未来12个月内为英伟达带来30亿美元至110亿美元的销售额。2022财年英伟达的收入达到创纪录的269亿美元,其中数据中心业务贡献了106亿美元,占总收入的40%。

随着芯片厂商相继进入新技术的大规模试制阶段,芯片制造资源的竞争也随即拉开,台积电的先进制程产能又成为了争抢的对象。

先进制程产能和出货量方面,台积电一家独大。

根据台积电最新发布的2022财年第四季度财报,四季度台积电实现营收205亿美元,两年来首次不及预期,但受益于先进制程营收占比的扩大,5nm制程营收占比32%,7nm营收占比22%,净利润(97亿美元)和毛利率(62.2%)双双创历史新高。

按产品类型划分,高性能计算(HPC)营收环比上涨4%,收入占比42%,连续取代传统强项智能手机业务(收入占比38%),稳坐台积电第一大收入来源。

目前智能手机需求依旧疲软,原本已经进入量产阶段的3nm遭遇“砍单”,高额的成本令苹果和高通都谨慎起来。

此前台媒报道称,由于大厂开始调整订单,台积电2023年第一季度的产能利用率将大幅下降。公司N7线(7纳米、6纳米级技术)的利用率2023年初将下降到50%左右。

ChatGPT的迅速蹿红可能拯救了一把正愁找不到买家的台积电,近期传出英伟达、AMD同步向台积电下急单,相关芯片将在4月后逐步产出。

据研究机构Couterpoint预测,英伟达和AMD的新品集中在4nm和5nm,预计2023年下半年之后陆续推出采用台积电3nm制程的CPU和GPU产品,2023年台积电5纳米家族产能约半数由AMD与英伟达包办,另一半则由苹果拿下。

文章来源: 华尔街见闻,全天候科技,野马财经

免责声明:凡注明来源本网的所有作品,均为本网合法拥有版权或有权使用的作品,欢迎转载,注明出处本网。非本网作品均来自其他媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。如您发现有任何侵权内容,请依照下方联系方式进行沟通,我们将第一时间进行处理。

0赞 好资讯,需要你的鼓励
来自:AI小助手
0

参与评论

登录后参与讨论 0/1000

为你推荐

加载中...