九色综合狠狠综合久久,色一情一乱一伦一区二区三区,人人妻人人藻人人爽欧美一区,扒开双腿疯狂进出爽爽爽动态图

歡迎訪問深圳市中小企業(yè)公共服務(wù)平臺電子信息窗口

Meta每每落后對手竟是因為一枚芯片!GPU才是AI模型的“神”

2023-04-27 來源:網(wǎng)絡(luò)整理
1708

關(guān)鍵詞: 晶體管 芯片 GPU

ChatGPT大戰(zhàn),Meta為何遲遲沒有動作?

就在今天,路透社記者挖出了一個大瓜,原因讓人瞠目結(jié)舌——相比谷歌、微軟等大廠,Meta跑AI時,用的竟然是CPU!

很難想象,在深度學(xué)習(xí)幾乎占機(jī)器學(xué)習(xí)半壁江山的時代,一個科技巨頭竟然能用CPU堅持這么久。雖然他們也曾嘗試過自研AI芯片,但最終遭遇滑鐵盧。

現(xiàn)在,ChatGPT引爆的生成式AI大戰(zhàn)打得昏天黑地,這就更加劇了Meta的產(chǎn)能緊縮。




用CPU訓(xùn)練AI,Meta怎么想的?

Meta遲遲不肯接受用GPU的原因,令人匪夷所思。

GPU芯片非常適合AI處理,因為它們可以同時執(zhí)行大量任務(wù),從而減少處理數(shù)十億條數(shù)據(jù)所需的時間。然而,GPU 也比其他芯片更昂貴,英偉達(dá)控制著80%的市場份額,并在配套軟件上,也保持著絕對的領(lǐng)先地位。

直到去年,Meta在處理AI工作負(fù)載時,主要使用的還是CPU。CPU是計算機(jī)的主力芯片,幾十年來數(shù)據(jù)中心用的也是CPU,但它在AI工作上表現(xiàn)并不佳。

據(jù)悉,Meta還曾自研芯片,在內(nèi)部設(shè)計的定制芯片上進(jìn)行推理。但在2021年,Meta還是失望地發(fā)現(xiàn),比起GPU,這種雙管齊下的方法速度更慢、效率更低。而且GPU在運(yùn)行不同類型的模型上,遠(yuǎn)比Meta的芯片更靈活。

而且,小扎決定All In元宇宙這一舉措,也直接榨干了Meta的算力。不管是AI的部署,還是威脅的應(yīng)對上,都遭到了極大的削弱。

這些失誤,引起了前Meta董事會成員Peter Thiel的注意,隨后,他于2022年初辭職。

據(jù)內(nèi)部人士透露,在離開前的一次董事會會議上,Thiel告訴小扎和高管們,他們對Meta的社交媒體業(yè)務(wù)太自滿,并且過分關(guān)注元宇宙了,這讓公司很容易被TikTok的挑戰(zhàn)所撼動。




AI為什么使用GPU而不是CPU?

隨著人工智能技術(shù)的快速發(fā)展,AI越來越多地使用GPU(圖形處理器)來加速計算,而不是傳統(tǒng)的CPU(中央處理器)。那么為什么AI使用GPU而不是CPU呢?


1、GPU的結(jié)構(gòu)

GPU是專門用于并行處理的設(shè)備,具備大量的核心,可以同時處理數(shù)百個線程,而CPU則一般只有幾個核心,每秒能夠處理的線程數(shù)量較少。這就使得GPU比CPU更加適合于并行計算,使得訓(xùn)練深度學(xué)習(xí)模型更高效。

舉個例子:如果你需要計算一個高清電影的每一幀畫面,CPU計算需要循環(huán)處理每個像素點,因為每個像素點都是單獨的。每個像素點計算需要幾個步驟,但是循環(huán)重復(fù)多少次,一個像素點的計算都是獨立的。但是,使用GPU可并行化處理每一個像素,這樣相當(dāng)于在一秒鐘內(nèi)同時處理數(shù)百個像素點,大大節(jié)省了時間。這就是GPU的并行處理能力的優(yōu)越性。

此外,GPU還擁有高速緩存和顯存,而且顯存的容量比CPU要大得多,可以同時存儲大量的數(shù)據(jù)。AI訓(xùn)練需要處理大量的矩陣和向量運(yùn)算,這就需要大量的數(shù)據(jù)存儲和高速訪問,而GPU的顯存就能很好地滿足這個需求。

2、AI的特點

AI的訓(xùn)練需要處理大量的數(shù)據(jù),具有計算密集型特點,因此需要使用高性能的計算設(shè)備。另外,AI的模型越來越復(fù)雜,需要更多的計算資源才能完成訓(xùn)練。而GPU的高性能和并行計算能力,正好解決了這個問題。

而CPU是為了兼容處理各種任務(wù)所設(shè)計的,因此具有處理多種語言和控制任務(wù)的優(yōu)勢,對于AI訓(xùn)練的計算密集型任務(wù)相對較弱。這就導(dǎo)致使用CPU來訓(xùn)練AI需要更長的時間,并且更難以滿足計算資源的需求。

此外,隨著GPU技術(shù)的發(fā)展,GPU價格越來越實惠,越來越多的公司和個人都選擇使用GPU來訓(xùn)練他們的AI模型。有些GPU甚至是搶占市場,一發(fā)布網(wǎng)即被購買一空。

綜上所述,AI使用GPU而非CPU是因為GPU具有并行處理、高性能以及更大程序的數(shù)據(jù)存儲空間等優(yōu)越性能,能更好地滿足AI計算的要求。對于AI來說,選擇GPU訓(xùn)練和應(yīng)用,能大幅提高AI算法的效率和性能,從而更好地應(yīng)用到各個領(lǐng)域中。




搭上人工智能的快車,GPU未來取代CPU?

AI人工智能、虛擬現(xiàn)實與自動駕駛等技術(shù),近年來引起了很高的市場關(guān)注,成為當(dāng)下科技領(lǐng)域和投資領(lǐng)域最為火熱的話題。特別是以深度學(xué)習(xí)為首的AI應(yīng)用,因為AlphaGo在人機(jī)對戰(zhàn)中的大獲全勝,更是在全世界吹起一股AI風(fēng)潮。

隨著科學(xué)技術(shù)的發(fā)展,GPU早已不是計算機(jī)當(dāng)中最為基礎(chǔ)的“搬運(yùn)工”,因為擅長大規(guī)模并發(fā)計算,所以GPU除了圖像處理,也越來越多地參與到計算當(dāng)中來,在人工智能、金融學(xué)、密碼學(xué)、云服務(wù)等領(lǐng)域開始發(fā)揮越來越重要的作用。尤其是人工智能產(chǎn)業(yè)中,甚至成為行業(yè)內(nèi)公認(rèn)的“利器”之一。

GPU為何在AI應(yīng)用當(dāng)中嶄露頭角?楊旭東解釋說,除了機(jī)器學(xué)習(xí)的幫忙,深度學(xué)習(xí)的類神經(jīng)演算法也在人工智能應(yīng)用當(dāng)中發(fā)揮著重要的作用。深度學(xué)習(xí)當(dāng)中有一種技術(shù)叫“卷積神經(jīng)網(wǎng)絡(luò)CNN”,這種網(wǎng)絡(luò)在數(shù)學(xué)上是許多卷積運(yùn)算和矩陣運(yùn)算的組合,恰恰和GPU本來能做的矩陣運(yùn)算十分相似,因此深度學(xué)習(xí)就可以用GPU進(jìn)行加速。

從2011年人工智能研究人員首次使用GPU為深度學(xué)習(xí)加速之后,GPU就開始在人工智能領(lǐng)域發(fā)揮巨大作用,這也讓GPU本身有了跨越式的發(fā)展。十年時間內(nèi),不僅在性能上提升了20多倍,市場規(guī)模也得到了大幅提升。有機(jī)構(gòu)預(yù)測,到2027年,全球GPU市場規(guī)模有望突破2000億美元,從2020年到2027年,復(fù)合增長率有望高達(dá)33%。

因此有觀點認(rèn)為,按照現(xiàn)在的發(fā)展速率,因為CPU處理器已經(jīng)出現(xiàn)了性能過剩等問題,若干年以后,GPU有望取代CPU。而在2017年的某場會議當(dāng)中,英偉達(dá)(NVIDIA)CEO黃仁勛也曾公開表示,摩爾定律已經(jīng)失效,GPU最終會取代CPU。

摩爾定律是由英特爾創(chuàng)始人之一戈登?摩爾所提出,其主要內(nèi)容為:集成電路(芯片)上可容納的晶體管數(shù)目,約每隔18至24個月便會增加一倍,性能也將提升一倍。

但近年來,隨著以智能手機(jī)處理器性能的過剩以及性能提升的放緩,摩爾定律開始受到越來越多的質(zhì)疑。

“GPU很難取代CPU,甚至在未來很長一段時間都無法實現(xiàn)?!睏钚駯|對這樣的觀點給予了否認(rèn)。他解釋說,這是因為從設(shè)計邏輯上來看,兩者就有著根本的區(qū)別,CPU要統(tǒng)籌控制整個系統(tǒng),各種復(fù)雜的指令都要它來執(zhí)行,GPU如果也要這樣做,自身就會變得復(fù)雜起來,連本職工作也無法完成了,所以GPU是無法取代CPU的。

“目前主流CPU晶體管數(shù)量在10億左右,而頂級GPU晶體管數(shù)量已經(jīng)達(dá)到了100億甚至更多,所以CPU做不了GPU的事情,GPU也完成不了CPU的工作。”但楊旭東強(qiáng)調(diào),未來隨著制造技術(shù)進(jìn)步和芯片的縮小,CPU和GPU架構(gòu)之間將得到很好的融合。也就是說,CPU進(jìn)一步強(qiáng)化處理數(shù)據(jù)模塊的能力,GPU也可以承擔(dān)更復(fù)雜的指令,最終促進(jìn)計算機(jī)性能的大幅提升。