AI列車開動! NVIDIA、臺積領軍 臺伺服器十虎將出列
臺十大伺服器相關業(yè)者與NVIDIA關係相當緊密,當中有合作20多年的繪圖卡市場老戰(zhàn)友。法新社
隨著黃仁勳預期AI列車正要開動,臺半導體與伺服器產(chǎn)業(yè)鏈能順勢搭上車的業(yè)者已陸續(xù)出線。
臺伺服器供應鏈表示,生成式AI應用爆發(fā),NVIDIA成為最大贏家,以CUDA及GPU技術設下護城河,而NVIDIA能快速建置AI王國,臺廠成為重要助攻手。
繼推出採用Hopper架構的H100 GPU,以及與Grace CPU 搭配的GH100后,升級版H200及GH200將在第2季正式登場。
NVIDIA于GTC大會上更進一步宣布採用全新Blackwell架構B100/B200與GB200、支援多節(jié)點與液冷的機架系統(tǒng)B200 NVL72。
新品推出,受惠的不只是臺積電與其設備供應鏈,連臺伺服器十大戰(zhàn)將也在零組件、模組、整機至資料中心領域提供強大火力支援,制造與銷售全面助攻,于GTC大會全面亮相,而三大散熱業(yè)者雙鴻、奇鋐與廣運等也同步出線。
針對AI 伺服器供需市況,黃仁勳于GTC會后接受媒體提問時表示,資料中心的安裝基礎價值約為 1 兆美元且持續(xù)成長中,2024年NVIDIA對于CoWoS的需求非常高,現(xiàn)在才正要展開全新旅程,與臺積電的合作相當緊密,非常有信心臺積電的產(chǎn)能會“成長、成長、再成長”。
而此回應也消弭近期市場對于NVIDIA未來半年新舊產(chǎn)品轉(zhuǎn)換期可能產(chǎn)生的客戶下單停看聽疑慮。
黃仁勳在GTC大會演說上多次提及與臺積電與相關臺廠的合作關係,更表示其現(xiàn)下為合作伙伴和AI產(chǎn)業(yè)所做的事,就像臺積電為其打造晶片,NVIDIA的構想是向臺積電取經(jīng),臺積電的模式是負責制造,NVIDIA也用一樣的方式,也就是AI Fundry。
簡言之,臺積電的專業(yè)代工模式與領先技術獲取客戶高度信任,也就是NVIDIA的營運策略與態(tài)度。
臺供應鏈表示,NVIDIA一直以來AI GPU就在臺積電下單,而針對游戲市場的RTX30系列則轉(zhuǎn)單三星電子(Samsung Electronics)8奈米制程,但因良率與效能不佳,立即決定下世代RTX 40系列全面回歸臺積電4奈米制程,而接下來RTX 50系列持續(xù)採用3/4奈米制程。
另在AI GPU方面,最新揭露的Blackwell架構GPU也是下單臺積電,2025年下世代AI GPU也會進入3奈米制程,由于轉(zhuǎn)單成本高昂,若無外力干預,NVIDIA未來數(shù)年仍將採用臺積電2奈米、A14及A10等更先進制程。
同時除了CoWoS先進封裝技術外,未來也將跟進超微(AMD)、蘋果(Apple),進一步導入SoIC技術。
據(jù)了解,為了NVIDIA與眾多AI晶片客戶,臺積電也加快先進封裝擴產(chǎn)計畫,傳聞多時的嘉義新廠計畫,在未來數(shù)年訂單能見度更加清晰下終于確立,也此顯見AI晶片未來數(shù)年強勁成長動能。
不只是臺積電為NVIDIA拿下AI話語權的主要推手,弘塑、辛耘等相關CoWoS供應鏈也加快設備生產(chǎn)、交貨時程,間接成為NVIDIA的小幫手。
值得注意的是,NVIDIA于GTC大會上宣布 合作伙伴將從2024年稍晚開始提供基于Blackwell的產(chǎn)品,除了與AWS、Google Cloud、微軟Azure 和甲骨文(Oracle)等合作外,臺廠中,華擎旗下永擎、華碩、鴻海、技嘉、英業(yè)達、和碩、廣達旗下云達、緯創(chuàng)與子公司緯穎等將提供基于Blackwell產(chǎn)品的各種伺服器。
如緯穎就推出基于GB200 NVL72的AI伺服器機柜與最新的整機柜液冷管理系統(tǒng)UMS100。
而近年已投入NVIDIA伺服器平臺開發(fā)的華擎,新品發(fā)布與接單出貨也急起直追,除有Blackwell架構的全新AI伺服器產(chǎn)品線外,也取得歐美客戶下單H100、H200伺服器,2024年伺服器佔整體營收比重約15%,其中AI伺服器將達3成,為2024年主要成長動能。
事實上,臺十大伺服器相關業(yè)者與NVIDIA關係相當緊密,當中有合作20多年的繪圖卡市場老戰(zhàn)友,也有10多年前看好NVIDIA在AI發(fā)展而全力相挺的廣達、鴻海等。
