半導(dǎo)體產(chǎn)業(yè)冰火兩重天,AI芯片風(fēng)景獨好
關(guān)鍵詞: 半導(dǎo)體 智能設(shè)備 人工智能
隨著物聯(lián)網(wǎng)和下一代智能設(shè)備的普及,低功耗電子設(shè)備和芯片正在越來越多地進入千家萬戶,低功耗設(shè)計也在變得越來越重要。物聯(lián)網(wǎng)和智能設(shè)備一方面對于設(shè)備尺寸有限制,另一方面對于成本也有很高的需求,此外在一些使用場景中對于電池的更換和充電周期有需求(例如需要每個月或更長的電池更換周期),因此對于電池的容量有很高的限制,這要求芯片能使用低功耗設(shè)計。
另一方面,物聯(lián)網(wǎng)和智能設(shè)備正在越來越多地加入人工智能的特性。人工智能可以為物聯(lián)網(wǎng)和智能設(shè)備提供重要的新特性,例如語音類人工智能可以提供喚醒詞識別,語音指令識別等,而機器視覺類人工智能可以提供人臉檢測,事件檢測等等。如前所述,物聯(lián)網(wǎng)和智能設(shè)備對于低功耗有需求,因此人工智能特性的加入也需要是低功耗人工智能。
目前,人工智能芯片已經(jīng)在云端和智能設(shè)備終端普及,例如在云端以Nvidia和AMD為代表的GPU和以Intel/Habana為代表的人工智能加速芯片;而在終端智能設(shè)備則主要是在SoC上的人工智能加速IP,但是無論是GPU和SoC上的人工智能加速IP,都沒有考慮到低功耗的需求,因此在未來的物聯(lián)網(wǎng)和智能設(shè)備中的人工智能都需要有新的低功耗相關(guān)的設(shè)計。
AI芯片 “風(fēng)景這邊獨好”
AI企業(yè)特別是AI算法類企業(yè),在2022年面臨的最大質(zhì)疑就是巨額融資之后依然連續(xù)虧損,企業(yè)難以找到持續(xù)商業(yè)化變現(xiàn)手段,眾多人工智能企業(yè)因此也在資本市場上面臨市值縮水、撤回上市申請等問題。當(dāng)然,一些AI芯片企業(yè)也未能幸免。對于和英偉達等企業(yè)搶奪云端AI芯片市場的寒武紀(jì)來說,2022年也經(jīng)歷了股價的低迷。
但股價低迷的主要原因還是在于前期資本追捧過熱,隨著企業(yè)營收的增長以及市值的瘦身,股價也在逐漸向企業(yè)真實價值回歸。
比如,面對云端AI芯片由英偉達和英特爾主導(dǎo)的局面,國內(nèi)大部分AI芯片廠商都選擇了終端AI芯片,但寒武紀(jì)不僅選擇終端,更在云端芯片領(lǐng)域推出自己的產(chǎn)品,并取得相對可觀的營收增長。
上半年財報顯示,寒武紀(jì)的AI芯片、加速卡等產(chǎn)品已經(jīng)在阿里云等互聯(lián)網(wǎng)公司形成一定收入規(guī)模,實現(xiàn)商業(yè)客戶的批量出貨,上半年寒武紀(jì)實現(xiàn)營業(yè)收入1.7億元,同比增長24.60%。
人工智能整體市場已從2020年的疫情影響中恢復(fù),同時,隨著技術(shù)的成熟以及數(shù)智化轉(zhuǎn)型升級,內(nèi)在需求增加,中國人工智能核心產(chǎn)業(yè)市場規(guī)模將持續(xù)平穩(wěn)增長,預(yù)計2025年將達到約4000億元。
特別是AI芯片領(lǐng)域,報告指出,隨著大算力中心的增加以及終端應(yīng)用的逐步落地,中國AI芯片需求也持續(xù)上漲;2021年疫情緩解,市場回暖,更是產(chǎn)生較大增幅,預(yù)計AI芯片市場規(guī)模將于2025年達到1740億元。
傳感器計算:低功耗AI的重要技術(shù)路徑
在智能設(shè)備和物聯(lián)網(wǎng)應(yīng)用中的低功耗人工智能需要把功耗降到非常低,從而能實現(xiàn)實時在線(always-on)的人工智能服務(wù)。這里所謂的always-on,指的就是人工智能需要永遠(yuǎn)可用,而不需要用戶主動打開后才工作。這一方面需要相關(guān)的傳感器要一直打開從而實時檢測相關(guān)模態(tài)的信號,另一方面也需要人工智能能做到低功耗。
傳統(tǒng)設(shè)計中,傳感器的功能就是負(fù)責(zé)高性能信號采集,并且把采集到的信號傳輸?shù)教幚砥鳎⊿oC或者MCU)上去做進一步計算和處理,而傳感器本身并沒有計算能力。然而,傳統(tǒng)設(shè)計的假設(shè)是傳感器在打開時相關(guān)的處理器就要同時打開,而這并不能滿足always-on AI的需求,因為SoC和MCU如果一直在運行AI算法的話對于電池的消耗很大。另一方面,從實際角度來看,這類always-on人工智能應(yīng)用主要是希望人工智能一直運行從而一旦重要的相關(guān)事件發(fā)生時可以實時響應(yīng)(例如IMU檢測到用戶在開車則把智能設(shè)備的推送通知關(guān)掉等),但是事實上這類相關(guān)事件的發(fā)生頻率并不會很高,如果一直把SoC或者MCU的人工智能模塊打開,絕大多數(shù)時候AI模型的輸出都是“未檢測到事件”。
結(jié)合這兩點,運行在傳感器端的計算就在變得越來越得到重視。首先,在always-on的低功耗人工智能中,無論如何傳感器是需要一直打開的,因此如果傳感器能有人工智能計算能力,那么可以讓人工智能模型運行在傳感器端,而無需一直打開SoC或者MCU上面的人工智能模塊。另外,在傳感器端運行人工智能也可以避免傳感器和SoC/MCU之間一直傳輸數(shù)據(jù),從而進一步降低功耗。最后,在傳感器端的人工智能模塊可以做到為傳感器量身定制而無需考慮通用性,因此可以為最適合傳感器的人工智能算法做定制化優(yōu)化,從而實現(xiàn)非常高的能效比。
當(dāng)然,傳感器端的人工智能也有其自己的局限。一方面從性能和成本上來說,通常傳感器端的計算和存儲空間都較小,人工智能模塊無法做到支持大模型,因此模型的性能會比較有限。另一方面,如前所述傳感器端的人工智能也很難做到支持通用模型,而往往只會支持一些特定的算子和模型結(jié)構(gòu)。
綜上所述,傳感器端的人工智能可以做到低功耗,但是其模型性能也較為有限;但是另一方面低功耗人工智能場景中,真正需要處理的相關(guān)事件的發(fā)生頻率也并不高。結(jié)合這兩點,傳感器端人工智能最適合運行一些較為專用的小模型,用于過濾掉絕大多數(shù)的無關(guān)事件;而在傳感器端人工智能檢測到相關(guān)事件后,傳感器可以喚醒SoC或MCU上的人工智能進行下一步的確認(rèn),從而同時滿足低功耗和always-on的需求。
在圖像傳感器領(lǐng)域,Sony已經(jīng)推出了IMX500系列傳感器,其中把傳感器芯片和集成了人工智能計算能力的邏輯芯片做了堆疊,從而可以把像素信號傳輸給邏輯芯片上的人工智能計算引擎,從而傳感器的輸出可以是圖像,可以是人工智能模型的輸出,或者是兩者的結(jié)合。這樣一來,就可以讓傳感器運行在低功耗always-on狀態(tài),而僅僅當(dāng)其模型輸出符合某些特定條件(例如檢測到人臉)時才去喚醒MCU或者SoC做下一步動作。我們預(yù)計,Sony將會在接下來的傳感器芯片中進一步加強其人工智能能力,從而增強在這個領(lǐng)域的領(lǐng)先地位。
結(jié)語:
算力無疑是數(shù)字經(jīng)濟時代的新生產(chǎn)力。在行業(yè)需求日益迫切,市場環(huán)境愈發(fā)動蕩的當(dāng)下,還會涌現(xiàn)出更多優(yōu)秀的AI芯片創(chuàng)業(yè)公司,推動產(chǎn)業(yè)不斷發(fā)展。
