高通商標,圖為2023年8月。路透社
不讓輝達和AMD專美於前!晶片大廠高通宣布推出兩款AI加速器伺晶片AI200 與 AI250,將以液冷伺服器機櫃系統形式銷售,協同運作以執行大型 AI 模型,預計2026 年與 2027 年上市。揭示急起直追AI伺服器戰場的決心。知名半導體分析師陸行之表示,高通能否在AI戰場占據重要地位,需觀察部屬成本、軟體能力、銷售額和相關記憶體和封裝技術等六項指標。
高通資料中心與邊緣運算事業總經理 Durga Malladi 表示,AI200 與 AI250 延伸自高通行動晶片中的Hexagon 神經處理單元 (NPU)。高通透過其他領域累積 AI 運算實力,如今進軍資料中心相對順利。
以目前高通 AI200和AI250機架系統方案來看,皆採用高散熱效率的直接液冷架構,透過PCIe進行縱向擴展,橫向擴展則採用乙太網路,機架級系統功耗為160kW,強調聚焦AI推論並著重成本效益。
高通並未公布 AI200 與 AI250 的售價或記憶體配置上限,但已釋出單張 AI 運算卡可支援高達 768GB 記憶體,更受市場上同級 GPU 產品。今年 5 月,高通已與沙烏地阿拉伯企業 Humain 簽署合作協議,為沙國資料中心供應 AI 推論晶片,預計部署規模可達 200 兆瓦 (megawatts) 電力運算容量。
陸行之表示,高通宣布加入AI晶片戰局,股價暴漲11%,但目前估計這個沙烏地阿拉伯的Humain 200MW合作案貢獻還不大,是否對輝達, 超微, 博通造成威脅,還需要繼續追蹤觀察。
陸行之進一步以6個觀點分析,高通能否在AI賽道占據重要地位,
1. 每千兆瓦部署成本
高通10億美元、輝達50-60億美元,超微45-50億美元,Google小於45億美元
2. 軟體能力對比
高通對比輝達的CUDA護城河、超微的ROCM。
3. 2026年推出的AI200及2027年推出的AI250卡/機架能否按期交付給Humain(沙特公共投資基金)
4. 假設高通晶片提供200兆瓦推理算力,預計未來三年銷售訂單達48億美元(400億美元×20%×60%),但仍不足總銷售額5%。
5. 高通未說明每機架配置多少張卡,以及200MW資料中心需多少機架,晶片尺寸與性能可能低於同行(提及每卡768GB LPDDR DRAM/每機架160kW)
6. 可能不採用HBM/CoWoS技術,使用PCIE重計時器實現縱向擴展,並通過乙太網交換機實現橫向擴展。