三星HBM3已进入英伟达验证,偌大的蛋糕不再一人独食

E子 2023-12-04
2347 字丨阅读本文需 6 分钟

高带宽内存(HBM)是支持人工智能(Generative AI)的关键,随着高带宽内存(HBM)成为下一代内存半导体的主战场,三星电子(Samsung Electronics)和美光(Micron)之间正在酝酿激烈的竞争,以抢夺目前由SK hynix垄断的Nvidia订单。

11 月 28 日,台湾市场研究公司 TrendForce 预测,Nvidia 将在下个月完成对三星电子 HBM3 的验证。业内人士认为,三星电子目前正在向 Nvidia 供应 HBM3 样品,根据下个月的验证结果,三星电子可能会与 Nvidia 签订正式合同。

Nvidia 的图形处理器(GPU),尤其是高端的 H100 型号,是高价值产品,每个售价为 6000 万韩元。这种高利润率使 Nvidia 有可能改变存储器半导体行业的游戏规则。作为 HBM 市场的领导者,SK hynix 从去年开始向 Nvidia 独家供应 HBM3,领先于三星电子。此举帮助 SK hynix 缩小了与 DRAM 市场领导者三星的市场份额差距 4.4 个百分点。受 HBM 和 DDR5 等高价值产品业绩的提振,SK hynix 的 DRAM 业务在今年第三和第四季度扭亏为盈。

由于美国内存芯片制造商美光(Micron)将于明年量产第五代 HBM3E 产品,业界预计 HBM 领域将全面爆发 "三国杀"。预计这三家公司将展开激烈竞争,争夺 Nvidia 即将推出的 H200 和 B100 人工智能半导体所需的 HBM3E 供货。

据报道,随着Nvidia计划将其HBM供应商多元化,以提高供应链管理效率,SK hynix的单打独斗可能会结束,迎来一个无限竞争的时代。根据TrendForce的数据,从7月份的美光开始,到8月份的SK hynix和10月份的三星电子,三家公司都提供了HBM3E样品。考虑到 Nvidia 通常需要六个月左右的时间来验证 HBM 样品,预计供应量的轮廓将在明年出现。

AI巨头扩大HBM采购

ChatGPT热潮除将GPU等AI大算力芯片推向高峰之外,也极大带动了市场对新一代内存芯片HBM的需求。7月26日SK海力士发布第二季度财务报告,尽管整体出现亏损,但HBM3和DDR5 DRAM等高端产品销售增加,第二季度营业收入比第一季度增加44%,营业亏损减少15%。三星和美光也表示,HBM在销售额中开始占据更大份额。

事实上,目前全球各大AI巨头包括英伟达、AMD、微软和亚马逊等均已开始加大HBM采购,并将HBM3E作为其采购的重点。这一举措被视为在新一轮AI大战中抢占先机,以应对日益激烈的市场竞争。

英伟达作为全球领先的GPU制造商,其H100、A100已广泛应用于AI服务器和数据中心。在面对AI应用日益增长的挑战下,英伟达加大HBM3E的采购量,旨在为其GPU提供更高性能和更快的数据传输速率,以满足AI计算的需求。

AMD最近发布下一代GPU MI300X。MI300X面向大语言模型(LLM)优化,可以支持400亿个参数的Hugging Face AI 模型运行。在存储方面,MI300X采用192GB的HBM3内存、5.2TB/秒的带宽和896GB/秒的Infinity Fabric 带宽。为了提高其GPU在AI应用中的竞争力,AMD将加大对HBM3E的采购量,以进一步提升其产品的性能和效率。

亚马逊和微软则是云服务领域的两大巨头。在大模型热潮下,两家公司也大幅增加投资,优先引入生成式AI技术。亚马逊近期投资1亿美元建立人工智能创新中心。微软旗下的Azure云服务则扩大与ChatGPT开发商OpenAI的合作关系。

从发布的数据来看,HBM3E与HBM3相比,传输速度提升25%,从原来的6.4GT/s提升至8.0GT/s,从而将显存的带宽提升至1TB/s。SK 海力士将采用最新的10纳米级(1b) 技术进行HBM3E的量产。各大AI巨头积极向HBM供应商SK海力士以及三星订购HBM3E,以满足不断增长的市场需求。

HBM需求暴涨

在人工智能浪潮下,市场需求持续激增,HBM 技术成为人们关注的焦点。全球市场研究公司集邦咨询预计,2023 年 HBM 需求将同比增长 58%,2024 年可能进一步增长约 30%。

HBM 相比较传统 DRAM 具有高带宽、高容量、低延迟、低功耗等优势,特别适合 ChatGPT 等高性能计算场景。目前在 HBM3 研发最前沿的是 SK 海力士和三星两家公司,英伟达的 H100 / H800、AMD 的 MI300 系列 AI 加速卡均采用 HBM3。

SK 海力士和三星预计将在 2024 年第一季度提供 HBM3e 样品。另一方面,美国内存公司美光正在绕过 HBM3,直接追求 HBM3e。

HBM3e 将采用 24Gb 单晶芯片堆栈,并采用 8 层 (8Hi) 配置,单个 HBM3e 芯片的容量将飙升至 24GB。HBM3e 预计将在 2025 年纳入 NVIDIA 的 GB100,导致三大 OEM 计划在 2024 年第一季度发布 HBM3e 样品,并在下半年进入量产。

除了 HBM3 和 HBM3e 之外,最新的更新表明存储巨头正在计划推出下一代 HBM——HBM4。

虽然 HBM4 有望取得重大突破,但仍有一段路要走,因此现在讨论其实际应用和广泛采用还为时过早。业内专家强调,目前 HBM 市场以 HBM2e 为主。然而,HBM3 和 HBM3e 有望在不久的将来占据领先地位。

集邦咨询预计,2023 年主流需求将从 HBM2e 转向 HBM3,预计需求占比分别约为 50% 和 39%。随着更多基于 HBM3 的加速器芯片进入市场,需求将在 2024 年大幅转向 HBM3,超过 HBM2e,预计占据 60% 的市场份额。

多国积极拓展,产业界仍需冷静

随着HBM技术的价值被发掘,目前各主要芯片制程厂商均在积极布局。其中台积电正大举扩充SolC系统整合单芯片产能,正向设备厂积极追单,预计今年底的月产能约1900片,明年将达到逾3000片,2027年有机会提升到7000片以上。值得注意的是,台积电SolC是业界第一个高密度3D小芯片堆叠技术,公司扩产此举主要意在应对AI等领域的旺盛需求。

此外据报道,SK海力士已开始招聘逻辑芯片 (如CPU、GPU) 设计人员,计划将HBM4通过3D堆叠直接集成在芯片上。SK海力士正与英伟达等多家半导体公司讨论这一新集成方式。据SK海力士预测,HBM市场到2027年将出现82%的复合年增长率。

截至2022年,HBM市场主要被全球前三大DRAM厂商占据,其中海力士HBM市占率为50%,三星的市占率约40%、美光的市占率约10%。

与此同时,国内相关厂商则主要处于HBM上游设备和材料供应环节。其中,华海诚科2023年8月投资者关系活动记录显示,公司的颗粒状环氧塑封料(GMC)可以用于HBM的封装,相关产品已通过客户验证,现处于送样阶段。截至11月20日,公司股价11月以来已经翻两倍。

此外,联瑞新材的部分客户是全球知名的GMC供应商,他们需要使用颗粒封装材料来提升封装高度和满足散热需求。据海力士公开披露,球硅和球铝是升级HBM的关键材料。而联瑞新材也已开始配套生产HBM所用的球硅和球铝。

因此,虽然眼下HBM的市场基本被海外巨头所占据。但随着ChatGPT的AI大模型问世,百度、阿里、科大讯飞、商汤、华为等科技巨头纷纷要训练自己的AI大模型,AI服务器的需求大幅度激增。这也意味着,芯片储存的自主可控仍是当下产业发展的重要方向。所以在未来HBM国产化也将成为大的发展趋势。

但值得注意的是,HBM 虽好但国内产业界仍需冷静对待。这是因为HBM 现在依旧处于相对早期的阶段,其未来还有很长的一段路要走。但可预见的是,随着人工智能产业的迅速发展以及相关技术的频繁迭代,内存产品设计的复杂性注定会快速上升,并对带宽提出了更高的要求,进而不断上升的宽带需求将持续驱动 HBM 发展。

而对于该产业在二级市场的发展,中银国际方面则表示,伴随AI大模型训练的不断推进,HBM作为关键性技术,其增长确定性极高,相关投资机会有望集中在封装设备材料及国产HBM配套供应。

文章来源: 半导体芯闻,集微网,金融界,IT之家

免责声明:凡注明来源本网的所有作品,均为本网合法拥有版权或有权使用的作品,欢迎转载,注明出处本网。非本网作品均来自其他媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。如您发现有任何侵权内容,请依照下方联系方式进行沟通,我们将第一时间进行处理。

0赞 好资讯,需要你的鼓励
来自:E子
0

参与评论

登录后参与讨论 0/1000

为你推荐

加载中...