2023年全球AI服務(wù)器出貨量將增長38.4%,AI芯片將增長46%
5月29日信息,根據(jù)市場研究機構(gòu)TrendForce公布的最新報告顯示, 預(yù)計2023年AI服務(wù)器(含搭載GPU、FPGA、ASIC 等)出貨量近 120萬臺,同比增長38.4%,占整體服務(wù)器出貨量近 9%,預(yù)計到2026年占比將提升至15%,同時上調(diào)2022~2026年AI服務(wù)器出貨量年復(fù)合成長率至 22%。另外,預(yù)計AI服務(wù)器芯片2023年出貨量將增長 46%。
TrendForce表示,英偉達(NVIDIA)GPU為AI服務(wù)器市場搭載的主流芯片,市占率約60%~70%,其次為云端業(yè)者自研的AISC芯片,市占率超過20%。觀察NVIDIA市占率高的要原因有三:
第一,不論美系或中系云端服務(wù)業(yè)者(CSP),除了采購NVIDIA A100與A800,下半年需求也陸續(xù)導(dǎo)入NVIDIA H100與H800,尤其是新的H100與H800平均銷售單價約為前代A100與A800的2~2.5倍,再加上NVIDIA積極銷售自家整體解決方案。
第二,高端GPU A100及H100的高獲利模式也是關(guān)鍵,NVIDIA旗下產(chǎn)品在AI服務(wù)器市場已擁有主導(dǎo)權(quán)優(yōu)勢,TrendForce研究稱,H100本身價差也依買方采購規(guī)模,會產(chǎn)生近5千美元差距。
第三,下半年ChatGPT及AI計算風(fēng)潮將持續(xù)滲透各專業(yè)領(lǐng)域(云端/電商服務(wù)、智能制造、金融保險、 智慧醫(yī)療及智能駕駛輔助等)市場,同步帶動每臺搭配4~8張GPU的云端AI,以及每臺搭載2~4張GPU的邊緣AI服務(wù)器應(yīng)用需求漸增,今年搭載A100及H100的AI服務(wù)器出貨量年增率將超過50% 。
此外,從高端GPU搭載的HBM內(nèi)存來看,NVIDIA高端GPU A100、H100主要采用的是HBM2e、HBM3內(nèi)存。以今年H100 GPU來說,搭載HBM3技術(shù)規(guī)格,傳輸速度也較HBM2e快,提升整體AI服務(wù)器系統(tǒng)計算性能。隨著高端GPU如NVIDIA A100、H100,AMD MI200、MI300,以及Google自研TPU等需求皆逐步提升,TrendForce預(yù)估2023年HBM需求量將年增58%,2024年有望再增長約30%。
