三星、SK 海力士和美光都推出了下一代 DRAM(一种主要存储器类型),专门用于人工智能系统。HBM 被称为“高带宽内存”,将多层 DRAM 堆叠在一起,然后可以和其他公司制造的图形处理单元封装为一个单元。这允许大量数据同时在内存和处理器之间移动。数据在两个芯片之间移动所需的时间也减少了。这会提高计算速度和效率。
芯片行业咨询公司 SemiAnalysis 表示,HBM 的价格大约是标准 DRAM 芯片的五倍,为制造商带来了更大的总利润。目前,HBM 占全球内存收入的比例不到 5%,但 SemiAnalysis 项目预计到 2026 年将占到总收入的 20% 以上。
根据台湾科技市场研究公司 TrendForce 的数据,SK 海力士是 Nvidia 领先的 HBM 供应商,截至去年控制着约一半的市场。三星占 HBM 市场的 40%,美光占 10%。
SK 海力士首席财务官 Kim Woo-hyun 在 4 月份的财报电话会议上表示,预计 2023 年 HBM 收入将同比增长 50% 以上,并预计未来几年将进一步增长。三星也指出,ChatGPT 等生成式人工智能应用程序的兴起是未来内存需求的积极力量。
发布于 广东
