英伟达“溢价”购买存储芯片,HBM成为“燎原”AI服务器产业链的星星之火

圈圈圆圆圈圈 2023-08-01
2517 字丨阅读本文需 7 分钟

韩国存储芯片巨头们正在打一场翻身仗。

尽管从最新财报来看,存储芯片复苏未见好转,供应过剩导致营业利润大幅下降,但这些存储芯片巨头们的股价均在上周上涨。力挽狂澜的核心功臣,便是逐渐成为数据中心AI训练必备组件的AI相关内存芯片——高带宽内存(HBM)。

因生成式AI开发和商业化竞争加剧,第二季度对AI相关内存的需求大幅增加。HBM的受关注程度,在上周SK海力士和三星发布最新财报后举行的电话会议期间可见一斑,分析师们就HBM相关进展和后续规划密集发问。

自去年英伟达发布世界首款采用HBM3的GPU H100以来,HBM3及更先进HBM芯片的热度一直居高不下。据英国《金融时报》援引两位接近SK海力士的消息人士报道,英伟达和AMD要求SK海力士提供尚未量产的下一代HBM3E芯片的样品。英伟达已要求SK海力士尽快供应HBM3E,并愿意支付“溢价”。

虽说今年缩减开支是重头戏,但存储芯片巨头们在HBM方向的投资仍相当舍得——合计掌控着全球90%HBM芯片市场的两家韩国大厂SK海力士和三星均表态,计划明年将HBM芯片产量提高一倍,并为了更好应对HBM不断增长的需求,而减少其他类别存储芯片的投资。

HBM3与HBM3e将成为明年市场主流

根据TrendForce集邦咨询调查显示,2023年HBM(High Bandwidth Memory)市场主流为HBM2e,包含NVIDIA A100/A800、AMD MI200以及多数CSPs自研加速芯片皆以此规格设计。同时,为顺应AI加速器芯片需求演进,各原厂计划于2024年推出新产品HBM3e,预期HBM3与HBM3e将成为明年市场主流。

HBM各世代差异,主要以速度做细分。除了市场已知的HBM2e外,在进入HBM3世代时,产业出现较为混乱的名称。TrendForce集邦咨询特别表示,目前市场所称的HBM3实际需细分为两种速度讨论,其一,5.6~6.4Gbps的HBM3;其二,8Gbps的HBM3e,别名HBM3P、HBM3A、HBM3+、HBM3 Gen2皆属此类。

目前三大原厂HBM发展进度如下,两大韩厂SK海力士(SK hynix)、三星(Samsung)先从HBM3开发,代表产品为NVIDIA H100/H800以及AMD的MI300系列,两大韩厂预计于2024年第一季送样HBM3e;美系原厂美光(Micron)则选择跳过HBM3,直接开发HBM3e。

HBM3e将由24Gb mono die堆栈,在8层(8Hi)的基础下,单颗HBM3e容量将一口气提升至24GB,此将导入在2025年NVIDIA推出的GB100上,故三大原厂预计要在2024年第一季推出HBM3e样品,以期在明年下半年进入量产。

今明HBM需求预计陡峭增涨,两家大厂披露HBM最新路线图

业内专家表示,由于调整产能需要时间,未来两年HBM供应预计仍将紧张,而快速增加HBM产量也很困难,因为它需要专门的生产线。

SK海力士和三星给出了相近的产业趋势解读:内存需求一直在从去年创纪录的低增长水平中复苏,当前复苏尚不足以使全行业库存水平恢复正常,上半年库存水平仍较高,但库存已经见顶,并预测随着减产效果进一步显现,下半年存储芯片需求将较上半年有所改善。

为了进一步加速库存正常化,两家存储芯片大厂都在选择性地对DRAM和NAND的某些产品进行额外的生产调整,下半年重点抓盈利能力,专注于高附加值和高密度产品来优化其产品组合,特别是加强销售组合中HBM、DDR5等高价值前沿产品的份额的增长,减少库存水平较高、盈利能力不及DRAM的NAND的产量。

SK海力士相信第三季度AI服务器需求将持续增涨,特别是高密度DDR模块和HBM,这两款产品的收入有望在下半年比上半年增速更高,HBM的需求将在明年保持相当健康的增长。

近期,特别是随着超大规模企业对生成式AI服务的竞争加剧,三星收到了来自此类客户的大量需求,预计今年和明年HBM的需求可能会出现相当陡峭的增长。

目前SK海力士的首要任务是投资增加HBM的大规模生产。该公司刚刚对今年年初制定的有关技术产能组合的规划进行了调整,以应对对高密度DDR5和HBM不断增长的需求。

对于HBM路线图来说,重要的是与GPU的发布或领先加速器市场的公司的时间表保持一致。SK海力士预计将在2026年某个时候转向HBM Gen 4,并正为此做准备。

根据其路线图,明年下半年将是HBM3E量产期,也是HBM3E的供应扩大期。今年SK海力士的重点是增加HBM量产所需的1Z纳米的比例,还准备增加1B纳米产能和TSV产能,为明年上半年开始供货的HBM3E做准备。

为了与市场增长预期保持一致,三星一直在扩展其HBM业务,产品方面拥有向主要客户独家供应HBM2的记录,后续还就HBM2E开展业务,计划2023年下半年开始大规模生产HBM3。三星HBM3正在接受具有行业顶级性能和密度或容量的客户资格认证,已开始向主要的AI SoC公司和云计算公司发货8层16GB和12层24GB产品。具有更高性能和容量的三星下一代HBM3P芯片计划于今年晚些时候发布。

三星还一直投资HBM生产能力,基于此已经预订了大约10亿或十亿中值Gb级的客户需求,大约是去年的两倍,并正在通过提高生产力来进一步提高供应能力,到2024年计划将HBM产能增加至少是2023年水平的两倍。另据此前报道,三星拟投资1万亿韩元扩产HBM。

对于三星来说,它虽然在HBM竞争的反应比SK海力士慢半拍,但考虑到通常AI芯片与HBM存储器一起集成到单个封装中,三星拥有一个其他芯片企业所不具备的优势——兼具先进GAA工艺技术、HBM技术和先进封装技术。

如果未来三星能够推出最大化发挥这三类关键技术协同效应的解决方案,这有望成为未来三星在AI算力市场竞争中的关键壁垒。

AI服务器产业链燎原星星之火

近期,各大媒体纷纷报道关于与英伟达相关的AI服务器涨价的消息。曾经仅售8万元的AI服务器如今已经猛涨至160万元,涨幅高达20倍。这一现象不仅与市场行情紧密相关,更是AI大模型需求迅猛增长的结果。AI服务器作为通用算力芯片的重要承载者,英伟达高端GPU供不应求,推动了整个AI服务器行业的涨价潮。然而,AI服务器的涨价并非只有GPU一枝独秀,还牵涉到存储芯片等多种核心器件,形成了多层次的市场需求。

AI服务器由传统服务器演变而来,它是高性能计算机的代表,承载着网络上80%的数据和信息。普通服务器和AI服务器最大的区别在于后者采用了组合拳的形式,常见的是CPU+GPU、CPU+TPU等搭配。CPU退居幕后,GPU等AI芯片在其中充当主角做大量运算,这使得AI服务器具备了强大的算力,满足了AI对密集型计算的需求。

AI服务器价格的疯涨与AI市场需求的激增密切相关。AI大模型的训练和推理需求都迅猛增长,训练模型要求高算力,推理相对较低但无止境,加之GPU等芯片在其中充当主角,这导致AI服务器成本高昂。英伟达的A100等高端GPU因为性能优秀,成为决定性因素,一台普通服务器连换不到AI服务器里的8个A100。因此,AI服务器价格疯涨,也反映了GPU等核心器件的价值占比较高。

AI服务器需求的飙升不仅仅局限于GPU,还带动了存储芯片等器件的价值倍增。AI模型训练算力需求每年增长高达10倍,存储量大幅提升。数据中心成为存储增长的重要引擎。同时,板内互联接口芯片、电源管理、散热、PCB、网卡等器件的价值量都有提升。存储芯片的价值占比接近30%,成为AI服务器核心组件中价值增长最为明显的一环。

AI服务器的涨价现象背后是AI市场需求的迅猛增长所致,英伟达高端GPU作为决定性因素,成为AI服务器价格攀升的关键。同时,存储芯片等核心器件的需求也飙升,整个AI服务器市场的需求层次逐渐丰富。AI服务器行业的蓬勃发展,为AI技术的不断进步提供了强有力的支撑。然而,AI服务器涨价的问题也需要引起行业重视,寻求更多技术创新和产业协同,确保AI技术的稳健发展。

文章来源: 爱在私有,芯东西,全球半导体观察

免责声明:凡注明来源本网的所有作品,均为本网合法拥有版权或有权使用的作品,欢迎转载,注明出处本网。非本网作品均来自其他媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。如您发现有任何侵权内容,请依照下方联系方式进行沟通,我们将第一时间进行处理。

0赞 好资讯,需要你的鼓励
来自:圈圈圆圆圈圈
0

参与评论

登录后参与讨论 0/1000

为你推荐

加载中...