HBM4,再起风云
来源:证券之星 发布时间:2024-12-23 11:39 作者:叶知秋 阅读量:6010
如果您希望可以时常见面,欢迎标星收藏哦~
据世界半导体贸易统计最近发布的报告显示,全球存储器市场规模预期将从今年的1670亿美元(约238万亿韩元)增长到明年的1894亿美元(约270万亿韩元)。然而,每种产品的情况预计都会分为两极对立。
首先,人工智能数据中心所需的HBM和大容量eSSD(企业级SSD)等高附加值尖端内存产品的需求预计明年将保持强劲。该产品也是三星电子、SK海力士等国内企业主导的市场;另一方面,通用内存(尤其是传统产品)的供过于求现象正在恶化。这些产品的价格在今年第四季度已经开始下降。IT需求依然低迷,后来者的激进业务扩张正在成为迫在眉睫的危机因素。
在此形势下,HBM会是重要突破口,这正是三大巨头加紧在这方面投入的原因之一。主要是因为该技术有望带来尖端的性能和效率数据,这也是提升 AI 计算能力的门户。围绕着这项技术的竞争也开始白热化。
三星和SK海力士,加速 HBM4
三星电子准备在明年下半年量产HBM4。HBM4 是 HBM3E(第五代)的后继产品,是目前商业化的最新一代 HBM。它计划安装在英伟达的下一代人工智能加速器“Rubin”系列中。
三星电子的 HBM4 基于 1c DRAM,即 10 纳米级第六代 DRAM。考虑到竞争对手SK海力士和美光在HBM4中使用1b DRAM,即第五代DRAM,领先一代。为了确保在下一代 HBM 市场中的竞争力,战略是快速提高性能。
为此,三星电子将于今年年底开始在平泽市P4投资建设1c DRAM量产线。具体设备供货已与相关合作伙伴商谈,预计最快明年年中完成线路建设。
与此同时,三星电子正在通过修改HBM3E的部分电路来重新向NVIDIA供货。与此同时,三星电子一直在与NVIDIA一起对HBM3E 8层和12层进行质量测试,但由于性能等问题一直未能量产。
SK 海力士继续研发,目标是在今年第四季度实现 HBM4 的“流片”。流片是指在实验室完成芯片设计并将图纸发送到制造过程。这是产品进入量产阶段的主要工序。
SK Hynix 将 1b DRAM 应用于 HBM4,就像 HBM3E 一样。这是一个注重产品稳定性和良率的选择。因此,业界认为SK海力士将能够比竞争对手更顺利地开发HBM4。
目前,SK海力士的1b DRAM投资主要集中在利川M16晶圆厂。据悉,通过将现有的传统DRAM生产线转换为1b DRAM,到明年产能将增加至每月最多14万至15万片。
美光公布HBM4E 工艺进展
在韩国双雄大举进攻之际,美光也不甘人后。据报道,美光科技最近提供了其下一代 HBM4 和 HBM4E 工艺的更新,并透露预计将于 2026 年开始大规模生产。
美光表示,凭借强大的基础和对成熟的 1β 工艺技术的持续投资,美光方面认为公司的 HBM4 将保持上市时间和能效领先地位,同时性能比 HBM3E 提高 50% 以上。美光预计 HBM4 将在 2026 年实现行业大批量生产。
“HBM4E 的开发工作正在与多家客户一起顺利进行,HBM4E 将紧随 HBM4 的步伐。HBM4E 将为内存业务带来一次范式转变,它整合了使用台积电先进的逻辑代工制造工艺为某些客户定制逻辑基片的选项。我们预计这种定制功能将推动美光的财务业绩改善。”美光方面强调。
对于那些不知道的人来说,HBM4 在许多方面都是革命性的,但这里有一个有趣的点需要注意,即业界计划将内存和逻辑半导体集成到一个封装中。这意味着将不再需要封装技术,而且考虑到单个芯片将更接近这种实现,它将被证明具有更高的性能效率。这就是为什么美光提到他们将使用台积电作为其“逻辑半导体”供应商,类似于 SK 海力士所采用的供应商。
在分析会上,美光还提到了 HBM4E 工艺的存在,成为除 SK 海力士之外唯一一家率先披露该技术发展情况的公司。虽然我们目前不确定美光 HBM4 系列的规格,但该公司确实透露,HBM4 预计将堆叠多达 16 个 DRAM 芯片,每个芯片的容量为 32 GB,并配备 2048 位宽的接口,这使得该技术远远优于上一代产品。
美光也表示,HBM4E 产品的开发工作正在与多家客户一起顺利进行,因此我们可以预期不同的客户将采用具有不同配置的基础芯片。这标志着朝着定制内存解决方案迈出了一步,这些解决方案适用于带宽需求大的 AI、HPC、网络和其他应用。
据透露,HBM4 预计还将与 AMD 的 Instinct MI400 Instinct 系列一起出现在 NVIDIA 的 Rubin AI 架构中,因此该工艺将获得广泛的市场认可。目前 HBM 需求处于顶峰,而美光自己也透露,到 2025 年,生产线已被预订,因此未来将更加光明。
客户有了新变化
在过去,HBM主要由英伟达这些厂商消耗。但ZDnet认为,以NVIDIA为首的HBM市场明年将经历一场变革。这是全球大型科技公司一直在开发自己的人工智能半导体并积极增加尖端 HBM 的影响。
业内人士也表示,从明年初开始,谷歌、Meta、亚马逊网络服务等全球大型科技公司对HBM的需求预计将增加。
这一趋势在美光19日发布的2025财年第一季度业绩公告中也能得到证实。美光仅提到 Nvidia 作为其现有的 HBM 供应商,但宣布通过此次业绩公告获得了更多客户。
美光解释说,“我们本月开始向第二大客户供应 HBM”,“我们计划在明年第一季度开始向第三大客户批量生产供应,以扩大我们的客户群。” 明年的HBM市场规模也从原来的250亿美元提高到300亿美元。
一位半导体行业官员表示,“我们正在分析美光提到的第二个和第三个客户是谷歌和亚马逊。”他补充道,“据我了解,这些公司在增加自己的 AI 芯片时正在积极订购 HBM3E。”从今年年底开始发货。”他解释道。
例如,谷歌在其自主研发的第六代TPU“Trillium”上安装了HBM3E。据了解,AWS 将在其内部开发的用于 AI 学习的“Trainium2”芯片组中使用 HBM3 和 HBM3E。这两款芯片均于今年年底发布。
一位半导体行业的高级官员表示,“台积电的CoWoS客户比例发生了变化。之前Nvidia是第一,AMD是第二,但AWS最近上升到了第二位。”
CoWoS 是由台湾主要代工厂台积电 开发的 2.5D 封装。2.5D封装是 一种在芯片和基板之间插入称为中介层的薄膜的技术,是生产基于HBM的AI加速器的基本要素之一。
Broadcom最近还加大了在AI和HBM相关市场的占有率。博通是一家大型无晶圆厂公司,按收入排名全球第三。除了通信半导体和数据中心网络业务外,该公司还从事为特定客户量身定制服务器基础设施的业务。
Broadcom 正在基于自身的半导体设计能力为Google和Meta提供AI半导体设计支持。因此,今年上半年,我们一直在与三星电子、SK海力士、美光等主要DRAM制造商进行HBM3E 8层的质量测试。目前,据了解,SK海力士和美光已成功进入该市场。
接下来,我们看一下Broadcom和Marvell这些领先巨头对HBM的应用和看法。
开启HBM定制新时代
过去的报道中,我们多次提及了HBM将进入定制时代。
毫无疑问,HBM4 凭借其 2048 位内存接口令人印象深刻。然而,HBM4E 将更加令人印象深刻,它可以为某些客户提供定制的基础芯片,从而提供具有潜在附加功能的更优化的解决方案。
这正好吸引了Broadcom和Marvell对HBM提出了新的解决方案。
首先看博通方面,本月初,博通推出了 3.5D eXtreme Dimension 系统级封装 平台,用于 AI 和 HPC 工作负载的超高性能处理器。新平台依赖于台积电的 CoWoS 和其他先进的封装技术。它使芯片设计人员能够构建 3D 堆叠逻辑、网络和 I/O 芯片以及 HBM 内存堆栈的系统级封装 (SiP)。该平台允许使用高达 6000mm2的 3D 堆叠硅片和 12 个 HBM 模块的 SiP。首批 3.5D XDSiP 产品将于 2026 年上市。
博通表示,Broadcom 的 3.5D XDSiP 已面世,为定制计算的新时代提供动力。该创新平台的主要优势包括:
1、增强的互连密度- 与 F2B 技术相比,堆叠芯片之间的信号密度提高了 7 倍。
2、卓越的功率效率- 通过利用 3D HCB 代替平面晶粒到晶粒 PHY,将晶粒到晶粒接口的功耗降低 10 倍。
3、减少延迟- 最大限度地减少 3D 堆栈内计算、内存和 I/O 组件之间的延迟。
4、紧凑的外形尺寸- 可实现更小的中介层和封装尺寸,从而节省成本并改善封装翘曲。
据 TheElec 日前报道,韩国内存芯片巨头 SK 海力士已赢得向博通供应高带宽内存的大订单。消息人士称,这家美国芯片巨头将从 SK 海力士采购内存芯片,以安装在一家大型科技公司的人工智能计算芯片上。
再看Marvell,他们也提供了定制 HBM 计算架构,适用于定制超大规模 XPU。
众所周知,HBM 内存牺牲了容量和可扩展性,换取了更高的带宽。一般来说,HBM 部署在 CPU 和加速器或 XPU 旁边的方式是,它通过连接两块硅片的硅中介层上的标准线路进行连接。XPU 通常有两个或更多 HBM 堆栈,由 DRAM 堆栈和基片组成。
超大规模计算厂商与 Marvell 和主要的 HBM 厂商正在定义一种新的定制接口,该接口占用的计算芯片空间更少。这使得 Marvell 及其客户能够在 XPU 旁边放置更多 HBM,从而增加每个芯片的内存带宽和容量。它还可以降低使用定制内存的芯片的功率要求。
当然,挑战在于 HBM 的标准互连版本占用了芯片上更多的海岸线空间。通过减少连接 HBM 和 XPU 所需的物理空间,这些空间可用于其他 I/O 或更多 HBM。Marvell 表示,这可以提高 I/O 性能,同时将接口功耗降低 70%。
这也意味着定制 HBM 解决方案不是 JEDEC 解决方案。或者换句话说,cHBM不会是标准的现成 HBM。)HBM4 使用超过 2000 个引脚,是 HBM3 的两倍。通过使用定制互连,无需所有这些引脚。它还释放了芯片区域以添加定制逻辑,如压缩和安全功能。
Marvell也表示,预计每平方毫米面积的吞吐量将增加约 4 倍。它还展示了未来带宽将比现在高出 10 倍的前景。
HBM无疑会给存储厂商带来巨大利好。由于主要内存公司 HBM 出货量的扩大,尖端 DRAM 预计明年将呈现稳健趋势,但通用传统 DRAM 市场预计将持续供过于求。
根据市场研究公司 DRAM Exchange 的数据,本月底 8GBDDR4 模块的平均价格为 18.5 美元,环比下降 11.9%。这证明对包括个人电脑在内的 IT 需求疲软。
同时,也有观点认为三星电子是否向NVIDIA供应12层HBM3E可能会对通用DRAM产生影响。
瑞穗证券在最近的一份报告中表示,“如果向 NVIDIA 的 HBM3E 12 层供应继续延迟,三星电子将把分配给 HBM 的 DRAM 生产转换为通用产品。因此,DRAM 供应量将增加,领先他表示,由于明年上半年 DRAM 产量增加,“DRAM 价格预计将加速下降”。
总而言之,一场围绕着DRAM的新角逐,正在隆重上演。
半导体精品公众号推荐
专注半导体领域更多原创内容
关注全球半导体产业动向与趋势
今天是《半导体行业观察》为您分享的第3984期内容,欢迎关注。
『半导体第一垂直媒体』
实时 专业 原创 深度
公众号ID:icbank
喜欢我们的内容就点“在看”分享给小伙伴哦
郑重声明:此文内容为本网站转载企业宣传资讯,目的在于传播更多信息,与本站立场无关。仅供读者参考,并请自行核实相关内容。