1.jpg
2.jpg
服务器方面,伴随AI服务器需求持续增加,AI高端芯片如NVIDIA H200/B100、AMD MI350及云端服务业者自研ASIC陆续推出或开始量产。但由于Training AI Server是目前市场主流,其扩大采用的存储器是以有助于高速运算的DRAM产品为主,故相较于NAND Flash,DRAM的单机平均搭载容量成长幅度更高,Server DRAM预估年增率17.3%,Enterprise SSD则约13.2%。目前头部三星、SK海力士、美光三大巨头在HBM上的扩产也是史无前例。三星:2024年HBM产量将比去年提高2.5倍,2025年再提高2倍三星电子从2023年四季度开始扩大HBM3的供应。此前2023年四季度三星内部消息显示,已经向客户提供了下一代HBM3E的8层堆叠样品,并计划在今年上半年开始量产。到下半年,其占比预计将达到90%左右。”负责三星美国半导体业务的执行副总裁Han Jin-man则在今年CES 2024上表示,三星今年的HBM芯片产量将比去年提高2.5倍,明年还将继续提高2倍。三星官方还透露,公司计划在今年第四季度之前,将 HBM 的最高产量提高到每月15万至17万件,以此来争夺2024年的HBM市场。此前三星电子斥资105亿韩元收购了三星显示位于韩国天安市的工厂和设备,以扩大HBM产能,同时还计划投资7000亿至1万亿韩元新建封装线。SK海力士:3月量产全球首款第五代高带宽存储器HBM3E2月20日,据韩媒最新消息,SK海力士将于今年3月开始量产全球首款第五代高带宽存储器HBM3E,计划在下个月内向英伟达供应首批产品。SK海力士则表示,“我们无法确认与客户相关的任何信息。”SK海力士在财报中表示,计划在2024年增加资本支出,并将生产重心放在HBM等高端存储产品上,HBM的产能对比去年将增加一倍以上,此前海力士曾预计,到2030年其HBM出货量将达到每年1亿颗,并决定在2024年预留约10万亿韩元(约合76亿美元)的设施资本支出——相较2023年6万亿-7万亿韩元的预计设施投资,增幅高达43%-67%。扩产的重点是新建和扩建工厂,去年6月有韩媒报道称,SK海力士正在准备投资后段工艺设备,将扩建封装HBM3的利川工厂,预计到今年年末,该厂后段工艺设备规模将增加近一倍。此外,SK海力士还将在美国印第安纳州建造一座最先进的制造工厂,据英国《金融时报》消息,这家韩国芯片制造商将在这家工厂生产HBM堆栈,这些堆栈将用于台积电生产的Nvidia GPU,SK集团董事长表示,该工厂预计耗资220亿美元。美光:继续赶追,押宝HBM4美光在全球HBM市场份额占比较低,为了缩小差距,美光对其下一代产品HBM3E下了很大的赌注,美光首席执行官Sanjay Mehrotra表示:“我们正处于为Nvidia下一代AI加速器提供HBM3E的验证的最后阶段。”其计划于2024年初开始大批量发货HBM3E内存,同时强调其新产品受到了整个行业的极大兴趣,这暗示NVIDIA可能不是唯一最终使用美光HBM3E的客户。在这场没有占据先发优势的比拼中,美光似乎押宝在下一代HBM4这一尚未确定的标准上。官方消息显示,美光披露了暂名为HBM next的下一代HBM内存,其预计HBM Next将提供36GB和64GB容量,能提供多种配置。与三星和SK海力士不同,美光并不打算把HBM和逻辑芯片整合到一个芯片中,在下一代HBM发展上,韩系和美系内存厂商泾渭分明,美光可能会告诉AMD、英特尔和英伟达,大家可以通过HBM-GPU这样的组合芯片获得更快的内存访问速度,但是单独依赖某一家的芯片就意味着更大风险。据TrendForce集邦咨询了解,HBM4预计规划于2026年推出,目前包含NVIDIA以及其他CSP(云端业者)在未来的产品应用上,规格和效能将更优化。受到规格更往高速发展带动,将首次看到HBM最底层的Logic die(又名Base die)采用12nm制程wafer,该部分将由晶圆代工厂提供,使得单颗HBM产品需要结合晶圆代工厂与存储器厂的合作。再者,随着客户对运算效能要求的提升,HBM4在堆栈的层数上,除了现有的12hi (12层)外,也将再往16hi (16层)发展,更高层数也预估带动新堆栈方式hybrid bonding的需求。HBM4 12hi产品将于2026年推出;而16hi产品则预计于2027年问世。