AI 大模型的兴起催生了海量算力需求,而数据处理量和传输速率大幅提升使AI服务器对芯片内存容量和传输带宽提出了更高的要求。HBM具备高带宽、高容量、低延时与低功耗等优势,相同功耗下其带宽是DDR5的三倍以上。高端AI服务器GPU搭载HBM芯片已成主流,未来HBM市场前景极为广阔。
日前,英伟达在S23大会上发布了下一代AI芯片NVIDIAHGXH200,其升级重点为搭载全新HBM3e内存。本次NVIDIA计划的H200,实际上是配备HBM3e内存的独立H100加速器更新版本。据英伟达称,H200预计将于2Q24出货,AWS、谷歌云、微软Azure、甲骨文云等均将成为首批部署基于H200实例的云服务提供商。
近日,英伟达宣布推出新一代的GPUH200,本次新品发布的最大亮点在于,H200为全球首款搭载HBM3e内存的GPU。在全球最快内存HBM3e的助力下,H200在内存容量、带宽和性能等方面迎来了全面升级。
一方面,H200能以每秒4.8TB的速度提供141GB内存,内存较A100和H100几乎翻倍,带宽较A100和H100分别增加2.4/1.4倍;另一方面,高内存带宽也使H200能够实现更快的数据传输,对于模拟、人工智能等内存密集型的高性能计算场景,H200可实现较CPU快110倍的生成结果时间,为处理生成AI和HPC工作负载的海量数据提供强大支持。
AI大模型的兴起催生了海量算力需求,而数据处理量和传输速率大幅提升使AI服务器对芯片内存容量和传输带宽提出了更高的要求。HBM在此背景下应运而生。与传统DDR存储器不同,HBM使用TSV和微凸块垂直堆叠多个DRAM芯片,并通过封装基板内的硅中介层与GPU直接相连,从而具备高带宽、高容量、低延时与低功耗等优势,相同功耗下其带宽是DDR5的三倍以上。
据慧聪电子,2023年开年后三星、SK海力士两家存储大厂HBM订单就快速增加,价格也水涨船高,据悉近期HBM3规格DRAM价格上涨5倍。
根据KIW2023半导体会议消息,合计掌控着全球90%HBM芯片市场的两家大厂SK海力士和三星均表态,计划明年将HBM芯片产量提高一倍,并为了更好应对HBM不断增长的需求,而减少其他类别存储芯片的投资。
其中,海力士占据先发优势,在2023年5月率先推出了HBM3e,宣布将于2023年下半年发布样品,2024年上半年投入生产。
TrendForce认为,高端AI服务器GPU搭载HBM芯片已成主流,2023年全球搭载HBM总容量将达2.9亿GB,同比增长近60%,SK海力士预测,HBM市场到2027年将出现82%的复合年增长率。
HBM先进DRAM加工工艺和TSV加工工艺中,ALD为关键核心设备之一。原子层沉积(ALD)是一种逐层进行原子级生长的薄膜制备技术,通过调控不同的前驱体类型,在基底表面发生化学吸附反应。
ALD可实现高深宽比、极窄沟槽开口的优异台阶覆盖率及精确薄膜厚度控制。AI服务器的HBM3由8或12个DRAM裸片堆叠制成,驱动其前驱体用量实现大幅增长。AI需求驱动HBM高增,有望持续为前驱体市场带来增量。
另外,HBM封装带来堆叠层数提升、散热需求升级,对封装材料及粉体颗粒性能提出更高要求。带动了低CUT点、高填充、低放射性含量的硅微粉、具备特殊电性能如LowDf(低介质损耗)等特性的球形硅微粉和高纯球形氧化铝粉需求增加。
GMC是颗粒状环氧塑封材料,颗粒状环氧塑封料在塑封过程采用均匀撒粉的方式,在预热后变为液态,将带有芯片的承载板浸入到树脂中而成型,凭借操作简单、工时较短、成本较低等优势,GMC有望发展成为主要的晶圆级封装塑封材料之一,市场发展前景良好。
总的来看,伴随AI大模型训练的不断推进,HBM作为关键性技术,其增长确定性极高,相关投资机会有望集中在封装设备材料及国产HBM配套供应。