微软自研的AI芯片,除了更便宜,还有什么能动摇英伟达霸主地位?

微观人 2023-04-20
2149 字丨阅读本文需 6 分钟

据外媒The Information报道,微软公司正在研发代号为“Athena”(雅典娜)的AI芯片,为ChatGPT等AI聊天机器人提供技术支持。

消息人士称,微软自2019年以来一直在推进Athena芯片研发项目,项目由微软CEO萨蒂亚·纳德拉(Satya Nadella)牵头,专为大语言模型的训练和推理而设计。Athena目前正由一小群微软和OpenAI员工进行测试,初代芯片可能基于台积电5nm工艺。

尚不清楚该芯片是能够部分替代英伟达(NVIDIA)A100、H100等GPU的通用AI加速器,还是用以辅助提升GPU性能的AI芯片,有业内分析师推测可能是前者。

研究公司SemiAnalysis分析师称,微软每年在Athena研发投入可能在1亿美元左右,如果顺利,微软将通过Athena将每颗芯片成本降低三分之一,从而为ChatGPT发展提供重要动力。

ChatGPT掀起AI新竞赛愈演愈烈,包括亚马逊、谷歌在内的其他大型科技公司都布局了AI芯片,现在,微软也正试图将算力这张“底牌”完全握在自己手里。

为ChatGPT提供动力

每颗芯片成本或降1/3

这两位知情人士说,微软最早可能在明年让Athena在微软和OpenAI内部广泛使用。

然而,据其中一位知情人士透露,微软仍在讨论是否将这些芯片提供给其Azure云计算服务的客户。他们说,这是因为大多数客户不需要训练自己的模型,用不到这类芯片。

如果微软决定向其云客户开放Athena,它还必须为Athena开发比英伟达现有产品更有吸引力的软件。英伟达已经用了15年的时间改进了目前的产品,开发人员也在广泛使用它。

研究公司SemiAnalysis首席分析师迪伦•帕特尔(Dylan Patel)称,ChatGPT每天的运营成本约为70万美元,即每条查询0.36美分。他说:“大部分成本是基于他们所需的昂贵服务器。”“与英伟达的产品相比,Athena如果具有竞争力,每个芯片的成本可以降低三分之一。”

AI训练芯片“一哥”英伟达被视作云计算资本支出重心转向AI的最大受益者。据美国《财富》杂志披露,OpenAI一年的计算和数据支出高达4.1645亿美元。分析师称ChatGPT Beta版本使用了10000个英伟达GPU训练模型,新一代GPT-5大模型正在25000个英伟达GPU上训练。

帕特尔说,微软希望在包括Bing、Office 365(现在的Microsoft 365)和GitHub在内的所有应用程序中使用大语言模型。使用市面上已有芯片进行大规模部署,每年将花费数百亿美元。

英伟达在GPU领域处于市场垄断地位

英伟达的成功之处在于,它控制着图形处理器(GPU)市场约80%的份额。GPU作为一种专门芯片,为OPenAI推出的ChatGPT等服务提供所需的计算能力。

图形处理器单元旨在非常有效地处理人工智能计算过程中涉及到特定类型的数学,而英特尔的通用中央处理单元(CPU)只能以较低的效率处理更广泛的计算任务。

黄仁勋指出,NVIDIA的技术是AI的基础,早在2016年,NVIDIA就向OpenAI交付了第一台NVIDIA DGX AI 超级计算机--支持ChatGPT的大型语言模型突破背后的引擎。

他表示,对于像ChatGPT这样的大型语言模型推理,NVIDIA发布了一款新的GPU--具有双GPU NVLink的 H100NVL。与用于GPT-3处理的 HGX A100相比,速度提高了10倍。

根据高纳德(Gartner)研究公司的数据,人工智能正在接管科技行业,预计到2026年,用于数据中心的GPU等专用芯片的份额,将从2020年的不到3%上升至15%以上。

从目前人们对于ChatGPT的热情,以及它所开启的潜在应用来看,目前的ChatGPT热,可能意味着人工智能正处于一个应用的拐点。

大模型规模已经过时

「大型模型时代已经到头了,我们需要用新的思路和方法,让 AIGC 取得新的进展。」

扩大模型规模,利用更复杂的参数,调用更大的算力,基本上是 OpenAI 过去几年在 GPT 上所使用的迭代方法。

GPT-2 大概拥有 15 亿参数,而 GPT-3 则拥有 1750 亿参数,而 GPT-4 虽然没有官方数字验证,但不少机构也推测出,它使用了数万亿字的文本和上万台云计算服务器,训练它的成本已经超过了 1 亿美元。

随着 ChatGPT 的影响力越来越大,微软也使用了其底层技术,推出了新 bing。

随之,Google 推出了 Bard,Adobe 推出了 Firefly,除了这些大企业外,硅谷许多资金充裕的初创企业,像是 Anthropic、AI21、Cohere 和 Character.AI,也在疯狂地投入,构建更大规模的算法,以赶上 ChatGPT 和 OpenAI。

对于硬件资源的极大需求,也造成了英伟达 A100、H100 GPU 的抢购潮。

在 eBay 上,英伟达的 H100 已经成热门商品,价格更是炒到了 4 万美元,而其官方售价只是 3.3 万美元。并且,H100 一般是打包 8 张组成一个服务器销售。目前,并没有其他的第三方对外销售的 GPU 与英伟达竞争,在 AI 浪潮之下,谁的英伟达 GPU 越多,仿佛就掌握了 AIGC 行业的取胜之匙。与传统行业的资本垄断、大企业垄断类似,对于算力的追求,也催生了「算力垄断」。

而 Sam Altman 也表示,OpenAI 还没有开发 GPT-5 的计划。言下之意便是,无脑的扩大模型规模,并不会让 GPT 保持无限的迭代。目前来说,ChatGPT 与微软的新 bing 都遇到了不少因为算力不太够而出现宕机、服务不稳定的状况。同时,新 bing 也并未面向所有用户,「排队等待」的状况仍然存在。

而这也是 Google 还无法将类似的生成式 AI 完全引入其搜索的一个原因。

曾在 Google 从事 AI 工作,现在是 Cohere 创始人的 Nick Frosst 也表示 Altman 很有先见之明,并且也表示,新的人工智能模型设计或架构可能会基于人类反馈进行调整。

按照这个思路来说,OpenAI 或许已经在用新的思路在构思 GPT-5 了。

英伟达的挑战者不会消失

前段时间举办的英伟达 GTC 开发者大会上,英伟达 CEO 黄仁勋在总时长 1 小时 20 分钟的主题演讲中,前 1 个小时几乎都在讲 AI。偏心是肯定,但也足够合情合理。

从长远来看,未来大模型的研发和部署是必然趋势,每个大模型训练和部署的背后,都需要成千上万个 GPU 芯片支持。英伟达也很难完全垄断这块庞大的市场,不仅因为及时供货的能力,还在于其他 AI 公司不会乐见于英伟达 GPU 一家独大,这也给其他公司留下了空间和时间。

本月早些时候,谷歌研究人员在一篇论文中公布了用于训练 AI 模型的超级计算机的技术细节,包括如何将 4000 多个自研的第四代 TPU 芯片连接成一台超级计算机,通过协同来训练模型。谷歌宣称,该系统比基于英伟达 GPU 的超算系统速度快了 1.7 倍,能效高了 1.9 倍。

此外,过去几年国产 GPU 均取得了一定的突破,尽管距离英伟达等头部厂商还有很大的差距。但在美国禁令和缺货的背景下,国产 GPU 仍然有机会谋求成为国内 AI 市场的 Plan B,慢慢壮大之后再寻求进一步的发展,包括挑战英伟达的霸权。

正如投资机构 a16z 早前评价 ChatGPT 时所说,「基础设施服务商可能才是最大赢家,获得最多的财富。」尽管大众的目光大都放在各家的大模型上,但在战争的「幕后」,还会有好戏持续上演。

文章来源: 热点我见,雷科技,爱范儿,智东西

免责声明:凡注明来源本网的所有作品,均为本网合法拥有版权或有权使用的作品,欢迎转载,注明出处本网。非本网作品均来自其他媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。如您发现有任何侵权内容,请依照下方联系方式进行沟通,我们将第一时间进行处理。

0赞 好资讯,需要你的鼓励
来自:微观人
0

参与评论

登录后参与讨论 0/1000

为你推荐

加载中...