皮衣老黃再出震圈之作!AI芯片還是英偉達(dá)的天下
時隔5年,全球頂尖AI計算技術(shù)盛會、年度NVIDIA GTC大會重磅回歸線下,就在剛剛,英偉達(dá)創(chuàng)始人兼CEO黃仁勛發(fā)表長達(dá)123分鐘的主題演講,發(fā)布AI芯片最新震圈之作——Blackwell GPU。
當(dāng)?shù)貢r間3月18日13點(diǎn),北京19日凌晨4點(diǎn),GTC最重磅的主題演講正式開始,在播放一段AI主題短片后,黃仁勛穿著標(biāo)志性的黑色皮衣從圣何塞SAP中心場館主舞臺登場,與觀眾寒暄。
他首先回顧了英偉達(dá)30年來追求加速計算旅程的開端,歷數(shù)研發(fā)革命性計算模式CUDA、將首臺AI超級計算機(jī)DGX交給OpenAI等一系列里程碑事件,然后將話題自然地聚焦到生成式AI上。
在宣布與多家EDA龍頭的重要合作伙伴關(guān)系后,他談到快速演進(jìn)的AI模型帶動訓(xùn)練算力需求暴漲,需要更大的GPU,“加速計算已達(dá)到臨界點(diǎn),通用計算已失去動力”,“在每一個行業(yè),加速計算都比通用計算有了巨大的提升”。
緊接著,大屏幕上過電影般快速閃現(xiàn)從GPU、超級芯片到超級計算機(jī)、集群系統(tǒng)的一系列關(guān)鍵組件,然后黃仁勛重磅宣布:全新旗艦AI芯片Blackwell GPU,來了!
這是GPGPU領(lǐng)域最新的震圈之作,從配置到性能都將前輩Hopper GPU拍倒在沙灘上。他舉起雙手展示了Blackwell和Hopper GPU的對比,Blackwell GPU明顯大了一圈。
畢竟手心手背都是肉,對比完后,黃仁勛馬上開始安慰:“It’s OK, Hopper. You’re very good, good boy, or good girl.”
但也不能怪老黃喜新厭舊,因?yàn)锽lackwell的性能,實(shí)在是太強(qiáng)了!無論是FP8,還是全新的FP6、FP4精度,以及HBM能塞下的模型規(guī)模和HBM帶寬,都做到“倍殺”前代Hopper。
8年,從Pascal架構(gòu)到Blackwell架構(gòu),英偉達(dá)將AI計算性能提升了1000倍!
最新芯片技術(shù)Blackwell發(fā)布
發(fā)布會上,黃仁勛宣布英偉達(dá)(NVIDIA)將推出用于萬億參數(shù)級生成式AI的NVIDIA Blackwell架構(gòu)。搭載Blackwell技術(shù),英偉達(dá)將推出B200和GB200系列芯片。
這些超級AI芯片相比英偉達(dá)自身產(chǎn)品也有巨大提升。據(jù)介紹,B200擁有2080億個晶體管,而H100/H200有800億個晶體管,采用臺積電4NP工藝制程,可以支持多達(dá)10萬億個參數(shù)的AI大模型。GB200將兩個B200 Blackwell GPU與一個基于Arm的Grace CPU進(jìn)行配對。
新的芯片架構(gòu)和技術(shù)將極大改善能耗。黃仁勛舉例稱,如果要訓(xùn)練一個1.8萬億參數(shù)量的GPT模型,需要8000張Hopper GPU,消耗15兆瓦的電力,連續(xù)跑上90天。但如果使用Blackwell GPU,只需要2000張,跑90天只要消耗四分之一的電力。
英偉達(dá)表示,基于Blackwell的處理器,如GB200,為人工智能公司提供了巨大的性能升級,其AI性能為每秒20千萬億次浮點(diǎn)運(yùn)算,而H100為每秒4千萬億次浮點(diǎn)運(yùn)算。該系統(tǒng)可以部署一個27萬億參數(shù)的模型。黃仁勛稱,毫無疑問,微軟Azure、AWS、谷歌云等一眾科技巨頭都是Blackwell架構(gòu)的首批用戶。
英偉達(dá)在公告通稿中列舉了將采用Blackwell的一些組織,比如微軟、亞馬遜、谷歌、Meta、戴爾、OpenAI、甲骨文、馬斯克領(lǐng)導(dǎo)的特斯拉和xAI。黃仁勛介紹了包括這些公司在內(nèi)的更多合作伙伴。
在演講中,黃仁勛宣布推出新的AI微服務(wù),用于開發(fā)和部署企業(yè)級生成式AI應(yīng)用。黃仁勛表示,未來如何開發(fā)軟件?與現(xiàn)在一行行代碼不同,未來可能就要靠一堆NIMs(Nvidia inference micro service),用與AI聊天的形式調(diào)動一堆NIMs來完成訓(xùn)練、應(yīng)用的部署。英偉達(dá)的愿景是成為AI軟件的“晶圓廠”。
目前,英偉達(dá)的AI微服務(wù)NIM網(wǎng)站已經(jīng)上線。據(jù)介紹,NIM微服務(wù)提供了最快、性能最高的AI生產(chǎn)容器,用于部署來自NVIDIA、A121、Adept、Cohere、Getty Images和Shutterstock的模型,以及來自Google、Hugging Face、Meta、Microsoft、Mistral AI和Stability AI的開放模型。
充分發(fā)揮英偉達(dá)優(yōu)勢的新AI生態(tài)系統(tǒng)
早在AI還以自動駕駛為主旋律的時期,英偉達(dá)就已經(jīng)開始向車企客戶推廣其云端服務(wù)解決方案。而為了滿足AI大模型時代的模型共享、模型定制化、模型運(yùn)行、云計算支持在內(nèi)的一系列問題,英偉達(dá)在這次GTC上推出了全新的“英偉達(dá)推理微服務(wù)(NIM)”。
NIM在構(gòu)建的過程中,充分借鑒了K8S(Kubernetes)這些年的成功經(jīng)驗(yàn),將行業(yè)API,AI算法支持庫、云端架構(gòu)支持、AI算法加速、定制模型、定制存儲、企業(yè)管理等訴求都注入到一個小的“容器”中,進(jìn)而將AI模型的成果打包和部署過程高度簡化。
如果說容器化的理念已經(jīng)很可怕,那么更可怕的是這套解決方案,與目前AI行業(yè)智能體發(fā)展趨勢的契合度。
早在去年,在ChatGPT能力之上二次開發(fā)的AutoGPT就曾大火過一波,當(dāng)時AutoGPT的策略是通過ChatGPT的多次循環(huán),實(shí)現(xiàn)對復(fù)雜目標(biāo)的拆分和分散尋找答案。但隨著后來的實(shí)踐,整個行業(yè)其實(shí)已經(jīng)看到了其能力的局限性——單靠語言大模型并不能解決所有問題。
而目前行業(yè)內(nèi)比較贊同的解決方案,就是在不斷提升基礎(chǔ)大模型能力的基礎(chǔ)上,不斷針對小的場景,提供專門的數(shù)據(jù)和目標(biāo),優(yōu)化出解決一些問題的模型,也可以叫做“智能體”。通過這些“智能體”數(shù)量和覆蓋的累積,以及基礎(chǔ)大模型的調(diào)度能力,最終讓AI實(shí)現(xiàn)“自我計劃、自我協(xié)調(diào)”的進(jìn)階人工智能水平。更形象的說,就是一個輸入框解決用戶的絕大部分需求。
而持續(xù)為云端提供充沛AI運(yùn)行能力的英偉達(dá),顯然有推進(jìn)這套機(jī)制的資本。
在有望加速全行業(yè)AI應(yīng)用落地之余,英偉達(dá)的這套NIM體系,還將把各種有潛力的AI模型和應(yīng)用,緊緊地綁定在英偉達(dá)有著明顯優(yōu)勢的云端算力性能和成本之上,進(jìn)一步對抗由智能手機(jī)廠商發(fā)起的端側(cè)攻勢,讓其緊握遠(yuǎn)期實(shí)現(xiàn)通用人工智能(AGI)的先機(jī)。
根據(jù)英偉達(dá)官方目前公布的計劃,NIM體系將在NVIDIA AI企業(yè)版中首發(fā),雖然NIM本身不收費(fèi),但是NVIDIA AI企業(yè)版收費(fèi)不低,單GPU的使用權(quán)限包年就需要4500美金,小時租金為1美元每小時。
「現(xiàn)實(shí) AI」:數(shù)字倉庫和機(jī)器人
在推進(jìn)算力和算力的使用上,英偉達(dá)是認(rèn)真的。英偉達(dá)在二十年前就做出了 CUDA,推崇加速計算,今日的碩果累累來自于二十年前種下的因。
黃仁勛開場時回顧二十年前,半開玩笑地講到:「當(dāng)時我們已經(jīng)算到了有今日?!?/span>
而黃仁勛看到的未來是什么樣的呢?
在今天的 GTC 上,我們也小小地瞥見了一下黃仁勛眼中的未來:在世界的底層,是無限擴(kuò)展的、不竭的算力,在中層,是數(shù)字孿生,是 simulation,是依靠算力帶來的對物理世界的無限精準(zhǔn)的模仿,實(shí)驗(yàn)和預(yù)測,而在上層,則是一個依靠算力達(dá)到最優(yōu)解的世界——在這個世界里,人與機(jī)器人共生。一切第一次發(fā)生的,都是發(fā)生過無數(shù)次的。
這其中,英偉達(dá) 2021 年開始推出的 Omniverse,就是中間層非常重要的工具。
Omniverse 是英偉達(dá)擅長的計算機(jī)圖形、人工智能、科技計算和物理模擬真正大一統(tǒng)的平臺,能夠?qū)Νh(huán)境實(shí)現(xiàn) 1:1 的數(shù)字孿生。
此次發(fā)布會,結(jié)合人工智能的浪潮,Omniverse 展現(xiàn)了許多新的應(yīng)用可能。
Omniverse 可以為現(xiàn)在最火的具身智能,提供一個訓(xùn)練場所。英偉達(dá)表示,英偉達(dá)建立了 Isaac Lab,一款機(jī)器人學(xué)習(xí)應(yīng)用程序,用于在 Omniverse Isaac 模擬器上進(jìn)行訓(xùn)練。通過新的計算編排服務(wù),可以在基于物理的模擬中訓(xùn)練機(jī)器人,并能零次訓(xùn)練(zero-shot)遷移到實(shí)際環(huán)境。
機(jī)器人模型將使機(jī)器人能夠從少量人類演示中學(xué)習(xí),從視頻中理解人類、在模擬中訓(xùn)練模型,并最終直接部署到物理機(jī)器人上。
黃仁勛還在發(fā)布會上宣布了 Project GR00T 項(xiàng)目,GR00T 是一個用于人形機(jī)器人的通用基礎(chǔ)模型,基于 Jetson Thor(英偉達(dá)的一款GPU)來開發(fā)生產(chǎn)機(jī)器人。
除此之外,英偉達(dá)還展示了一個數(shù)字倉庫的案例。
視頻中,展示了一個一個 10 萬平方英尺倉庫的 Omniverse 模擬環(huán)境,它整合了運(yùn)行視頻、Isaac 感知器堆棧的數(shù)字工人 AMR、來自 100 個模擬天花板安裝攝像頭的整個倉庫的集中活動地圖等。
在視頻中,一個數(shù)字工人 AMR 的原定計劃的路線上,發(fā)生了一起事故,路徑受阻。英偉達(dá) Metropolis 可以實(shí)時改變路徑規(guī)劃。通過基于生成式 AI 的 Metropolis 視覺基礎(chǔ)模型,操作員甚至可以使用自然語言提問發(fā)生了什么事情。
在此次 GTC 上,英偉達(dá)宣布,將創(chuàng)建 Omniverse Cloud 的 api,而且將非常易用,企業(yè)可以更容易地使用 Omniverse,同時其中還將有 AI 的能力。比如可以直接用自然語言場景描述,創(chuàng)建仿真環(huán)境的 3D 圖像。
同時,英偉達(dá)宣布與 Vision Pro 達(dá)成合作,Omniverse Cloud 將能夠向 Vision Pro 串流?!笍奶摂M車上下來,穿過車門的感覺,非常奇怪,但也非常棒?!裹S仁勛講到,「Vision Pro 將把你帶入 Omniverse Cloud,你能夠體驗(yàn)到的工作流是無與倫比的?!?/span>
超過 1 萬人在現(xiàn)場觀看 Keynote,900 場以上的分享以及數(shù)百家展商,2024 年 GTC 被戲稱為「AI 界的伍德斯托克」——除了蘋果公司,少有公司能讓科技變成一種人人想要「沾上邊」的時尚。畢竟,在「生成式 AI」代表未來的當(dāng)下,每個人都想成為那個跟上潮流的人。
英偉達(dá)無疑是那個潮流背后最大的推手之一,同時也是目前最大的受益方,它需要做的,是為所有人提供更大的夢想,和更多的算力。順便,或許,成為全球市值最高的公司,沒有之一。
