大型雲端業者搶進AI 伺服器 2024年先進封裝產能看增4成。資料照
TrendForce研究指出,2023年由生成式AI應用帶動AI伺服器成長熱潮,以大型雲端業者最積極,包含Microsoft、Google、AWS或其他中系業者如Baidu、ByteDance等陸續採購高階AI伺服器,以持續訓練及優化其AI分析模型。高階AI伺服器需採用的高階AI晶片,將推升2023-2024年高頻寬記憶體(HBM)的需求,並驅動先進封裝產能2024年將成長3~4成。
TrendForce指出,目前NVIDIA的A100及H100,各搭載達80GB的HBM2e及HBM3,在其最新整合CPU及GPU的Grace Hopper晶片中,單顆晶片HBM搭載容量再提升20%,達96GB。
另外,AMD的MI300也搭配HBM3,其中,MI300A容量與前一代相同為128GB,更高階MI300X則達192GB,提升了50%。同時預期Google將於2023年下半年積極擴大與Broadcom合作開發AISC AI加速晶片TPU亦採搭載HBM記憶體,以擴建AI基礎設施。
TrendForce預估,2023年市場上主要搭載HBM的AI加速晶片,搭載HBM總容量將達2.9億GB,成長率近6成,2024年將持續成長3成以上。
此外,AI及HPC等晶片對先進封裝技術的需求日益提升,其中,以台積電的CoWoS為目前AI 伺服器晶片主力採用者。高階AI晶片及HBM強烈需求下,台積電2023年底CoWoS月產能有望達12K,其中,NVIDIA、AMD、Google等高階AI晶片需求成長下,將使下半年CoWoS產能較為緊迫,而此強勁需求將延續至2024年,預估若在相關設備齊備下,先進封裝產能將再成長3-4成。