九色综合狠狠综合久久,色一情一乱一伦一区二区三区,人人妻人人藻人人爽欧美一区,扒开双腿疯狂进出爽爽爽动态图

歡迎訪問深圳市中小企業(yè)公共服務(wù)平臺電子信息窗口

AI PC、AI手機(jī)密集發(fā)布,生成式AI浪潮向邊緣側(cè)延伸

2023-11-03 來源: 集微網(wǎng)
1274

關(guān)鍵詞: 高通 英特爾 英偉達(dá)

AIGC與終端側(cè)設(shè)備相結(jié)合,可以更加有效地突出用戶使用個性、降低運(yùn)行成本、加快響應(yīng)速度,對于生成式AI的商業(yè)落地有著重要促進(jìn)作用。近來,聯(lián)想、小米等智能終端廠商紛紛加大了針對邊緣AI領(lǐng)域的開發(fā)力度,生成式AI浪潮正在從云端向邊緣與終端側(cè)延伸。


AI PC規(guī)模出貨元年即將到來


10月24日,聯(lián)想舉辦第九屆聯(lián)想創(chuàng)新科技大會,除了宣布與微軟、NVIDIA、英特爾、AMD、高通等企業(yè)在智能設(shè)備、基礎(chǔ)設(shè)施和解決方案領(lǐng)域持續(xù)深化合作之外,還展示了旗下首款A(yù)I PC(人工智能電腦)。據(jù)了解,這種本地運(yùn)行的小型化AI模型,可以幫助用戶實現(xiàn)修圖、智能剪輯、撰寫文檔等功能,甚至根據(jù)用戶思維模式發(fā)現(xiàn)發(fā)任務(wù)并自主解決。


對此,聯(lián)想提出,除“公共大模型”外,人們還應(yīng)發(fā)展企業(yè)端的“企業(yè)級私域大模型”和用戶端的“個人大模型”,以解決“公共大模型”存在的數(shù)據(jù)安全和隱私泄露風(fēng)險、難以個性化定制、通用訓(xùn)練推理成本高等問題。其中,個人大模型對應(yīng)AI PC等邊緣AI產(chǎn)品,通過裁剪和量化等方式,刪減通用大模型中與個人使用無關(guān)的結(jié)構(gòu),實現(xiàn)把高性能的小模型融入終端設(shè)備,讓每個用戶擁有自己的個性化大模型。聯(lián)想CEO楊元慶表示,考慮到企業(yè)保護(hù)商業(yè)機(jī)密的需求,本地部署的未來企業(yè)級大模型將與公有云部署的公共大模型呈現(xiàn)混合部署的形態(tài)。



手機(jī)廠商向邊緣AI延伸的力度也很大。小米日前宣布獲得高通驍龍8 Gen 3首發(fā)權(quán),搭載驍龍8 Gen 3處理器的小米14將大幅提升在本地支持大模型的能力。同時,小米也將AI大模型植入澎湃系統(tǒng),支持AI妙畫、AI搜圖、AI寫真、AI擴(kuò)圖等功能,進(jìn)一步提升用戶的使用體驗。而在11月1日舉行的2023 vivo開發(fā)者大會上,vivo發(fā)布自研藍(lán)心大模型,包括十億、百億、千億三個參數(shù)量級共5款產(chǎn)品,全面覆蓋核心場景。而此前,華為、OPPO、榮耀等頭部手機(jī)廠商也都在積極布局大模型的開發(fā)。


手機(jī)、PC甚至汽車等終端設(shè)備之上越來越多地開始嵌入AI模型,已經(jīng)成為一個發(fā)展的大趨勢。群智咨詢預(yù)測,2024年伴隨著AI CPU 與Windows 12的發(fā)布,將成為AI PC規(guī)模性出貨的元年。而打造“輕量化”,適用于“端側(cè)”的AI模型也成為手機(jī)廠商當(dāng)前發(fā)展的重點(diǎn)。


加速AI模型商用落地


AI模型融入終端設(shè)備固然有利于改善用戶體驗,提振消費(fèi)電子市場,但是其對促進(jìn)AI模型的應(yīng)用落地意義可能更大。小米AI實現(xiàn)室大模型團(tuán)隊負(fù)責(zé)人欒劍介紹,之所以AI大模型能夠受到人們持續(xù)廣泛的關(guān)注,是因為它有效推動了人們在信息內(nèi)容上的大規(guī)模生產(chǎn)。而這又得益于人們通過大數(shù)據(jù)、大任務(wù)、大參數(shù)上對AI模型的訓(xùn)練。下一步如何實現(xiàn)大模型的輕量化,使AI模型也能在終端設(shè)備上有效運(yùn)行,將成為人們開發(fā)的重點(diǎn)。


實際上,生成式AI同智能終端結(jié)合,具備許多優(yōu)勢:一是個人信息無需上傳云端,可以降低隱私泄露和數(shù)據(jù)安全風(fēng)險;二是AI模型接入本地數(shù)據(jù)庫和個人信息,有望實現(xiàn)通用基礎(chǔ)AI大模型向個性化定制小模型轉(zhuǎn)變,提供更適合的用戶服務(wù);三是通過壓縮AI大模型和終端軟硬件適配,邊緣AI可能降低運(yùn)行成本、加快響應(yīng)速度和提高服務(wù)效率。



以往人們在使用AI設(shè)備時經(jīng)常會詬病其不夠智能——“我都使用快大半年了,可我每次用完關(guān)閉,再重新啟動,它就好像是一個新朋友,對于上次的互動完全沒有記憶?!边@其實正是云端大模型的一種通病。因為它不太可能為每一位用戶存儲大量信息。在云端存儲大量用戶信息,并且動態(tài)加載這些信息,在功能上是一個巨大挑戰(zhàn)。但是,把這項工作下放到端側(cè)就會變得相對簡單。


也就是說,生成式AI由云端延伸至邊緣側(cè),使AI技術(shù)與PC、手機(jī)等終端硬件設(shè)備緊密結(jié)合,將成為AI大模型應(yīng)用落地,商業(yè)化發(fā)展的大趨勢。它可以改善或者解決AI發(fā)展中面臨的個性化定制、安全和隱私風(fēng)險、算力成本高昂、性能表現(xiàn)不及預(yù)期、交互能力弱等阻礙,加速AI模型的商業(yè)化應(yīng)用進(jìn)程。


終端芯片:CPU+GPU+NPU集成化


AI大模型輕量化、本地化過程也離不開芯片技術(shù)的支撐。實際上,高通、英特爾、英偉達(dá)、AMD等近來都在紛紛加碼推出針對性的產(chǎn)品。驍龍X Elite作為高通首款推出的“驍龍X系列平臺”PC處理器,集成專用神經(jīng)處理單元(NPU),可支持百億參數(shù)級大型語言模型。驍龍8 Gen 3平臺將支持軟、Meta、OpenAI、百度等20種以上AI大模型使用。英特爾最新Meteor Lake處理器,首次在PC處理器中內(nèi)置NPU,并將NPU與處理器內(nèi)計算引擎的AI功能結(jié)合,提升PC運(yùn)行AI功能的能效。英偉達(dá)和AMD也計劃2025年推出Arm架構(gòu)的PC芯片,進(jìn)軍邊緣端AI。


高通技術(shù)公司高級副總裁兼計算與游戲業(yè)務(wù)總經(jīng)理Kedar Kondap強(qiáng)調(diào)大模型本地化的優(yōu)勢。“隨著時間推移,PC將會變得高度智能化,和用戶之間建立起情感紐帶,PC會主動理解用戶的想法,并在滿足需求的同時對用戶隱私提供足夠保護(hù)。而且PC將具有即時性,能夠立即回答用戶的問題,提供想要的答案。如果這些需求都要傳達(dá)到云端去解決,會增加很多復(fù)雜性,在類似用例中,終端側(cè)AI處理具備更多優(yōu)勢?!?/span>

而為了滿足大模型從云端向邊緣與終端延伸所需要的更大也更加復(fù)雜的AI算力,CPU+GPU+NPU的集成化將成為處理器未來發(fā)展的方向。這又使得Chiplet技術(shù)受到更高度重視。在談到這一趨勢時,中興微高速互聯(lián)總工程師吳楓表示,一方面,通過Die to Die互聯(lián)和Fabric互聯(lián)網(wǎng)絡(luò),能夠?qū)⒏嗨懔卧呙芏?、高效率、低功耗地連接在一起,從而實現(xiàn)超大規(guī)模計算。另一方面,通過將CPU、GPU、NPU高速連接在同一個系統(tǒng)中,實現(xiàn)芯片級異構(gòu),可以極大提高異構(gòu)核之間的傳輸速率,降低數(shù)據(jù)訪問功耗,提高數(shù)據(jù)的處理速度,降低存儲訪問功耗,滿足大模型的參數(shù)需求。


原粒半導(dǎo)體聯(lián)合創(chuàng)始人原鋼則強(qiáng)調(diào)了Chiplet如何滿足當(dāng)下算力需求的技術(shù)發(fā)展方向?!搬槍吘墏?cè)單任務(wù)的大模型場景,可以把模型切分到不同Chiplet進(jìn)行并行計算,通過在預(yù)訓(xùn)練模型的基礎(chǔ)上進(jìn)行額外訓(xùn)練,使其適應(yīng)特定任務(wù)。大模型的邊緣端微調(diào),可使用本地存儲的私有數(shù)據(jù),或者本地新采集的數(shù)據(jù)?!癝oC主控+AI Chiplet”組合可有效復(fù)用芯片主控,顯著降低成本,快速滿足各類規(guī)格需求。這將是未來該領(lǐng)域的重要發(fā)展方向?!?/span>