版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
證券研究報(bào)告
|
2023年12月22日計(jì)算機(jī)2023年12月暨2024年度策略:大模型能力日新月異,AI將重塑各行各業(yè)行業(yè)研究
·
深度報(bào)告投資評(píng)級(jí):超配(維持評(píng)級(jí))報(bào)告摘要
AI大模型迭代迅速。大模型在參數(shù)量、訓(xùn)練數(shù)據(jù)量以及訓(xùn)練輪數(shù)方面均有提升,新一代多模態(tài)大模型如GPT-4V和Gemini拓展了大語言模型的能力邊界,展示出多樣化任務(wù)的處理能力。隨著基座模型的發(fā)展進(jìn)入新階段,模型功能迭代和應(yīng)用生態(tài)構(gòu)建同步進(jìn)行,GPTs等Agent平臺(tái)初步嘗試全民定制個(gè)人AI應(yīng)用,加速了使大語言模型成為“操作系統(tǒng)”的迭代。
全球AI算力市場(chǎng)快速增長(zhǎng),國(guó)產(chǎn)AI算力芯片迎來歷史機(jī)遇期。模型參數(shù)量+訓(xùn)練數(shù)據(jù)量大幅提升,以及AI應(yīng)用有望進(jìn)入爆發(fā)式增長(zhǎng)階段,拉動(dòng)算力需求噴發(fā)。根據(jù)Gartner數(shù)據(jù),2022年全球AI芯片市場(chǎng)規(guī)模為442.2億美金,預(yù)計(jì)2027年達(dá)到1194億美金,對(duì)應(yīng)22-27年CAGR為22.0%,市場(chǎng)規(guī)??焖僭鲩L(zhǎng)。23年10月,美國(guó)收縮對(duì)華AI芯片出口,目前市場(chǎng)上主流AI芯片均在限制范圍之內(nèi),國(guó)產(chǎn)AI算力芯片順勢(shì)超5萬片,僅占整個(gè)市場(chǎng)10%左右份額,
空間廣闊。。根據(jù)IDC數(shù)據(jù),2023年上半年,中國(guó)本土AI芯片出貨
AI邊緣端有望率先落地,AI
PC和AI手機(jī)值得期待?;旌螦I架構(gòu)能夠在全球范圍帶來成本、能耗、性能、隱私、安全和個(gè)性化優(yōu)勢(shì),是最優(yōu)的解決方案;大模型小型化以及邊緣側(cè)AI算力芯片的發(fā)展,為混合AI方案的實(shí)現(xiàn)奠定了基礎(chǔ),AI
PC和AI手機(jī)將率先落地。
AI重塑各行業(yè)應(yīng)用,商業(yè)化落地已逐步兌現(xiàn)。自動(dòng)駕駛領(lǐng)域,以特斯拉FSD
V12為代表,端到端模型再次推動(dòng)奇點(diǎn)臨近。機(jī)器人領(lǐng)域,特斯拉和谷歌均已將大模型推向應(yīng)用,工業(yè)領(lǐng)域應(yīng)用加快。網(wǎng)絡(luò)安全領(lǐng)域,國(guó)內(nèi)外均將大模型引入安全運(yùn)維,改變傳統(tǒng)人工服務(wù)模式。金融領(lǐng)域,同花順大模型探索已久,正打造金融大模型—問財(cái)HithinkGPT。教育領(lǐng)域,Duolingo
Max備受好評(píng),佳發(fā)教育產(chǎn)品致力于將AI融入育人場(chǎng)景全過程、全要素場(chǎng)景。醫(yī)療領(lǐng)域,谷歌Med-PaLM
2成為行業(yè)標(biāo)桿,潤(rùn)達(dá)醫(yī)療與云等合作開展了積極探索。辦公領(lǐng)域,微軟多應(yīng)用實(shí)現(xiàn)Copilot落地,金山辦公WPS
AI已全線接入,定價(jià)模式可期。
投資建議:關(guān)注AI產(chǎn)業(yè)持續(xù)催化機(jī)會(huì),重點(diǎn)關(guān)注在AI各領(lǐng)域積極尋求突破的公司,維持“超配”評(píng)級(jí)。AI大模型日新月異背景下,對(duì)人類工作和生活的改變將逐步顯現(xiàn),我們?nèi)哉J(rèn)為以AI為核心尋找投資機(jī)會(huì)是市場(chǎng)主線。在大模型側(cè),重點(diǎn)關(guān)注科大訊飛,三六零;國(guó)產(chǎn)算力關(guān)注海光信息等;邊緣端重點(diǎn)關(guān)注AI
PC、AI
手機(jī)產(chǎn)業(yè)鏈;應(yīng)用端重點(diǎn)關(guān)注中科創(chuàng)達(dá)、寶信軟件、深信服、同花順、金山辦公等。
風(fēng)險(xiǎn)提示:宏觀經(jīng)濟(jì)下行風(fēng)險(xiǎn);行業(yè)競(jìng)爭(zhēng)加劇風(fēng)險(xiǎn);AI大模型和算力等產(chǎn)業(yè)發(fā)展不及預(yù)期;AI相關(guān)政策推進(jìn)不及預(yù)期。目錄AI大模型:多模態(tài)方向延伸,視頻模型迎來發(fā)展元年AI算力:國(guó)產(chǎn)算力迎歷史機(jī)遇期0102AI邊緣側(cè)布局正當(dāng)時(shí),
AI
PC和手機(jī)值得期待AI重塑應(yīng)用百態(tài),商業(yè)落地逐步兌現(xiàn)0304投資建議:看好AI產(chǎn)業(yè)持續(xù)催化,維持“超配”評(píng)級(jí)05AI大模型:人工智能發(fā)展的新一里程碑?
AI大模型為人工智能發(fā)展的新一里程碑。以1956年達(dá)萊茅斯會(huì)議為起點(diǎn),人工智能的發(fā)展歷史可以歸納為四個(gè)階段,隨著互聯(lián)網(wǎng)、云技術(shù)的興起,人工智能逐步從符號(hào)主義向聯(lián)結(jié)主義演進(jìn),整體呈現(xiàn)出波浪式前進(jìn)態(tài)勢(shì)。本輪人工智能由AI大模型推動(dòng),將迎來通用人工智能時(shí)代。????階段一(1956-1986年):基于推理邏輯和規(guī)則匹配技術(shù)的符號(hào)主義為主;階段二(1987-2010年):聯(lián)結(jié)主義復(fù)興、神經(jīng)網(wǎng)絡(luò)崛起以及深度學(xué)習(xí)算法突破;階段三(2011-2017年):聯(lián)結(jié)主義為主,人工智能迎來深度學(xué)習(xí)的爆發(fā)期;階段四(2018年-至今):大模型掀起第四次科技革命,迎來通用人工智能時(shí)代。AI大模型為人工智能發(fā)展的新一里程碑基于推理邏輯和規(guī)則匹配技術(shù)的符號(hào)主義為主聯(lián)結(jié)主義復(fù)興、神經(jīng)網(wǎng)絡(luò)崛起以及深度學(xué)習(xí)算法突破聯(lián)結(jié)主義為主,人工智能迎來深度學(xué)習(xí)的爆發(fā)期大模型掀起第四次科技革命,迎來通用人工智能時(shí)代1956年1987年2011年2018年
1956年:達(dá)萊茅斯學(xué)院會(huì)議,人工智能元年;
1987-1993年:人工智能第二次低谷期,專家系統(tǒng)進(jìn)入寒冬,神經(jīng)網(wǎng)絡(luò)技術(shù)重新獲得重視;1994-2010年:人工智能第三次浪潮,機(jī)器學(xué)習(xí)、自然語言處理、計(jì)算機(jī)視覺、推理及知識(shí)表示、強(qiáng)化學(xué)習(xí)等在這一時(shí)期出現(xiàn)了很多新的算法和應(yīng)用。
2011-2017年:人工智能第四次浪潮,也是人工智能深度學(xué)習(xí)的爆發(fā)期,隨著計(jì)算機(jī)技術(shù)的發(fā)展,人工智能技術(shù)得到了快速的普及和提升;深度學(xué)習(xí)領(lǐng)域:神經(jīng)網(wǎng)絡(luò)等技術(shù)的發(fā)展使得機(jī)器能夠從海量的數(shù)據(jù)中自動(dòng)提取特征和規(guī)律,并進(jìn)行智能決策和推理;
2018年-至今:人工智能第五次浪潮,以人工智能大模型的提出和ChatGPT技術(shù)的突破為標(biāo)志;大模型技術(shù):具備了更高的水平的自然語言處理和生成能力,能夠從大量的數(shù)據(jù)中提取知識(shí),并將其應(yīng)用于各種實(shí)際場(chǎng)所,為通用人工智能技術(shù)帶來希望和路徑;
1956-1974年:人工智能第一次浪潮,嘗試將人類思維方式和語言能力轉(zhuǎn)化為計(jì)算機(jī)程序,提出很多理論和方法;1974-1980年:人工智能第一次低谷期,投入下降;1980-1986年:人工智能第二次浪潮,專家系統(tǒng)發(fā)展迎來高潮,利用專家知識(shí)提高AI系統(tǒng)的準(zhǔn)確性和效率。
深度學(xué)習(xí)算法突破:2006年杰弗里·辛頓提出深度學(xué)習(xí)概念,開啟了深度學(xué)習(xí)的熱潮。AI領(lǐng)域拓展:自然語言處理、圖像識(shí)別、語音識(shí)別、自動(dòng)駕駛等;資料:田杰華,易歡歡著-《通用人工智能》-中譯出版社(2023)-P65、國(guó)信證券經(jīng)濟(jì)研究所整理AI大模型:發(fā)展趨勢(shì)-參數(shù)量、數(shù)據(jù)量、訓(xùn)練輪數(shù)提升?
AI大模型能力的提升主要有三條路徑:模型參數(shù)量的提升、訓(xùn)練數(shù)據(jù)量的提升以及訓(xùn)練輪數(shù)的提升。?
模型參數(shù)量的提升:以O(shè)penAI的GPT模型為例,第一代GPT模型GPT-1的參數(shù)量?jī)H有1.17億,GPT-2參數(shù)量提升至15億,GPT-3參數(shù)量進(jìn)一步提升至1750億,GPT-4的參數(shù)量應(yīng)該達(dá)到萬億級(jí)別;模型代際之間參數(shù)量呈現(xiàn)指數(shù)級(jí)增長(zhǎng),大模型能力亦隨模型參數(shù)量的增長(zhǎng)而大幅提升;?
訓(xùn)練數(shù)據(jù)量的提升:1)語言模態(tài)訓(xùn)練數(shù)據(jù)量提升;2)多模態(tài)訓(xùn)練數(shù)據(jù)的加入:例如圖片、視頻等也作為訓(xùn)練數(shù)據(jù),訓(xùn)練數(shù)據(jù)集大小大幅提升;?
訓(xùn)練輪數(shù)的提升:1)新模型:通過多輪訓(xùn)練,模型能力得到提升,但過多的訓(xùn)練亦會(huì)導(dǎo)致模型過擬合;2)已有模型:定期訓(xùn)練(每周、每月),對(duì)模型的能力和數(shù)據(jù)的時(shí)效性進(jìn)行提升和更新。模型能力提升的路徑18-23年,模型參數(shù)量持續(xù)增長(zhǎng)增大模型方法優(yōu)勢(shì)劣勢(shì)難度高可行性高(1)模型結(jié)構(gòu)需要基于先驗(yàn)設(shè)計(jì);增加模型參數(shù)
增加模型根本方法
(2)結(jié)構(gòu)與參數(shù)需要復(fù)雜設(shè)計(jì)過程;(3)參數(shù)提升、工程訓(xùn)練難度隨之提升;(1)增加數(shù)據(jù)是昂貴的行為;(2)數(shù)據(jù)增加訓(xùn)練數(shù)據(jù)能與模型解耦中低中低無法保證多樣性和均一性;增加訓(xùn)練輪數(shù)
充分利用模型容量過多訓(xùn)練導(dǎo)致模型過擬合;資料:智源研究院、國(guó)信證券經(jīng)濟(jì)研究所整理資料:中國(guó)人工智能協(xié)會(huì)、國(guó)信證券經(jīng)濟(jì)研究所整理AI大模型:多模態(tài)是大模型的未來?
多模態(tài)模型是指將不同類型的數(shù)據(jù)(例如圖像、文字、視頻、語音等)結(jié)合起來進(jìn)行分析處理的模型。其通過不同數(shù)據(jù)類型的相互關(guān)聯(lián)和結(jié)合,可以大幅提高模型的準(zhǔn)確性和魯棒性,應(yīng)用場(chǎng)景進(jìn)一步拓展。其次,多模態(tài)更接近人類學(xué)習(xí)的模式,在物理世界中,人類認(rèn)知一個(gè)事物并不是通過單一模態(tài),例如認(rèn)知一只寵物,可以從視覺(寵物形貌)、聽覺(寵物叫聲)、嗅覺(寵物體味)、觸覺(寵物毛發(fā)、寵物體溫等)等多模態(tài)全面立體認(rèn)知,是未來人工智能的發(fā)展方向。?
多模態(tài)大模型分類:?jiǎn)嗡Y(jié)構(gòu)和雙塔結(jié)構(gòu)。1)單塔結(jié)構(gòu):只利用一個(gè)深度神經(jīng)網(wǎng)絡(luò)來完成圖像和文本之間的交互融合,本質(zhì)上屬于信息前融合方案;2)雙塔結(jié)構(gòu):利用不同的神經(jīng)網(wǎng)絡(luò)來完成不同模態(tài)的信息抽取,然后僅在最后一層做信息交互和融合,屬于信息后融合方案,具有模型獨(dú)立性強(qiáng),訓(xùn)練效率高等優(yōu)勢(shì)。?
頭部廠商發(fā)力多模態(tài)大模型,看好多模態(tài)多模型未來。2023年下半年,多模態(tài)大模型發(fā)布頻率加快,OpenAI率先發(fā)布GPT-4V,隨后12月份谷歌發(fā)布原生多模態(tài)大模型Gemini,多模態(tài)大模型已經(jīng)成為各大模型頭部廠商發(fā)力的重點(diǎn)。多模態(tài)大模型雙塔結(jié)構(gòu)AI大模型逐步從單模態(tài)向多模態(tài)發(fā)展資料:、國(guó)信證券經(jīng)濟(jì)研究所整理資料:畢馬威、國(guó)信證券經(jīng)濟(jì)研究所整理AI大模型:商業(yè)化落地加速,市場(chǎng)規(guī)??焖僭鲩L(zhǎng)?
大模型商業(yè)化落地加速,市場(chǎng)規(guī)??焖僭鲩L(zhǎng)。目前,大模型落地模型主要可分為三種,即大模型、大模型+算力、大模型+應(yīng)用,其中大模型指企業(yè)用戶可以直接買斷大模型產(chǎn)品,也可以租用大模型(例如中軟國(guó)際的模型工廠);大模型+算力指廠商將模型與算力進(jìn)行組合銷售;大模型+應(yīng)用指廠商向企業(yè)用戶銷售融入了大模型能力的上層應(yīng)用,要求用戶支付軟件授權(quán)費(fèi)等。短期大模型+算力為主流的收費(fèi)模式,后隨著模型應(yīng)用、生態(tài)的進(jìn)一步完善,大模型+應(yīng)用模式占比有望逐步提升。?
全球市場(chǎng):根據(jù)鈦媒體國(guó)際智庫(kù)數(shù)據(jù),2022年全球大模型市場(chǎng)規(guī)模108億美金,預(yù)計(jì)2028年達(dá)到1095億美金,對(duì)應(yīng)22-28年CAGR為47%,全球大模型市場(chǎng)規(guī)??焖僭鲩L(zhǎng)。?
中國(guó)市場(chǎng):根據(jù)鈦媒體國(guó)際智庫(kù)數(shù)據(jù),2022年中國(guó)大模型市場(chǎng)規(guī)模70億人民幣,預(yù)計(jì)2028年達(dá)到1179億人民幣,對(duì)應(yīng)22-28年CAGR為60%,中國(guó)大模型市場(chǎng)規(guī)??焖僭鲩L(zhǎng),且快速全球市場(chǎng)。全球大模型市場(chǎng)規(guī)??焖僭鲩L(zhǎng)中國(guó)大模型市場(chǎng)規(guī)模快速增長(zhǎng)全球大模型市場(chǎng)規(guī)模(億美元)中國(guó)大模型市場(chǎng)規(guī)模(億人民幣)12001000800600400200010951400120010008006004002000117988788062456636628031821021614710858702537152020202120222023E2024E2025E2026E2027E2028E2020202120222023E2024E2025E2026E2027E2028E資料:鈦媒體國(guó)際智庫(kù)、國(guó)信證券經(jīng)濟(jì)研究所整理資料:鈦媒體國(guó)際智庫(kù)、國(guó)信證券經(jīng)濟(jì)研究所整理GPT-4V:大語言模型邊界拓展
GPT4V拓展了語言模型的邊界,可處理多樣化任務(wù)。OpenAI的GPT-4V模型代表了語言模型的一個(gè)重要擴(kuò)展,它不僅融合了傳統(tǒng)的文本處理能力,還加入了圖像輸入的處理功能,進(jìn)而提供了更豐富的交互界面和新功能。這一進(jìn)步使得GPT-4V能夠處理更多樣化的任務(wù),增強(qiáng)了用戶體驗(yàn)。圖3:GPT-4V可以識(shí)別圖片并處理
GPT-4V的技術(shù)基礎(chǔ)仍然是GPT-4,保持了相同的訓(xùn)練過程,使用了大量互聯(lián)網(wǎng)上的文本和圖像數(shù)據(jù),并結(jié)合了人類反饋強(qiáng)化學(xué)習(xí)(RLHF)來優(yōu)化其輸出。
在安全性方面,OpenAI為GPT-4V實(shí)施了嚴(yán)格的評(píng)估和緩解措施,包括專家紅隊(duì)測(cè)試和高拒絕回答率的安全限制,以防止敏感內(nèi)容的生成。GPT-4V的OCR功能也得到了改進(jìn),以更準(zhǔn)確地從像素中讀取文本。
GPT-4V在處理多模態(tài)攻擊和科學(xué)文獻(xiàn)時(shí)仍存在挑戰(zhàn),特別是在醫(yī)療領(lǐng)域,不建議接受模型提供的任何醫(yī)療建議,因?yàn)樗赡軙?huì)產(chǎn)生幻覺,部分原因是OCR的不準(zhǔn)確性??偟膩碚f,GPT-4V在擴(kuò)展AI的應(yīng)用范圍和提高用戶體驗(yàn)方面邁出了重要一步,但在安全性和準(zhǔn)確性方面仍需不斷改進(jìn)。資料:OpenAI,國(guó)信經(jīng)濟(jì)研究所整理Gemini:定義下一代AI的能力邊界??與傳統(tǒng)多模態(tài)模型相比,Gemini從一開始就被設(shè)計(jì)為原生多模態(tài),更加直觀和有效地整合不同類型的信息。過去,創(chuàng)建多模態(tài)模型的常規(guī)方法是訓(xùn)練不同模態(tài)的獨(dú)立組件,然后將它們組合在一起,以模擬部分功能。這些模型在執(zhí)行某些任務(wù)(例如描述圖像)時(shí)表現(xiàn)良好,但在處理更概念化和復(fù)雜的推理時(shí)則常常遇到困難。?
Gemini從設(shè)計(jì)之初便作為一個(gè)原生多模態(tài)模型,對(duì)不同模態(tài)進(jìn)行預(yù)訓(xùn)練。隨后,我們通過額外的多模態(tài)數(shù)據(jù)進(jìn)行微調(diào),以進(jìn)一步提高其有效性。這使Gemini能夠從根本上無縫理解和推理各種輸入,其能力在幾乎每個(gè)領(lǐng)域都達(dá)到了最先進(jìn)水平。如:1)復(fù)雜推理能力Gemini架構(gòu)與過去的多模態(tài)模型不同Gemini
1.0具備的復(fù)雜多模態(tài)推理能力,可以幫助理解復(fù)雜的書面和視覺信息。這使其在從大量數(shù)據(jù)中發(fā)掘難以辨認(rèn)的知識(shí)方面具有獨(dú)特技能。其從數(shù)十萬份文檔中提取洞見的驚人能力,通過閱讀、過濾和理解信息,將有助于在科學(xué)、金融等眾多領(lǐng)域?qū)崿F(xiàn)數(shù)字速度的新突破。2)理解文本、圖像、音頻等更多內(nèi)容Gemini
1.0經(jīng)過訓(xùn)練,能同時(shí)識(shí)別和理解文本、圖像、音頻等內(nèi)容,因此它更能理解微妙的信息,并能回答涉及復(fù)雜主題的問題。這使其在解釋數(shù)學(xué)和物理等復(fù)雜科目的推理方面表現(xiàn)尤為出色。3)高級(jí)編碼能力Gemini
1.0能夠理解、解釋和生成Python、Java、C++和Go等世界上最流行的編程語言中的高質(zhì)量代碼。它在多語言處理和復(fù)雜信息推理方面的能力,使其成為世界領(lǐng)先的基礎(chǔ)編碼模型之一。資料:OpenAI、國(guó)信證券經(jīng)濟(jì)研究所整理Gemini:谷歌迄今能力最強(qiáng)的大模型?谷歌近期推出強(qiáng)大的通用模型“Gemini”,該模型在許多測(cè)試中表現(xiàn)優(yōu)越。Gemini
1.0是由谷歌DeepMind開發(fā)的一款突破性的多模態(tài)AI模型,能夠高效理解和處理文本、圖像、音頻等多種類型的數(shù)據(jù)。Gemini系列模型表現(xiàn)優(yōu)秀??針對(duì)不同的需求和應(yīng)用場(chǎng)景,Gemini模型推出三個(gè)規(guī)模:1)Gemini
Ultra:作為該系列最大型且功能最強(qiáng)大的模型,專為處理高度復(fù)雜的任務(wù)而設(shè)計(jì);2)Gemini
Pro:最佳的多功能模型,適用于廣泛的任務(wù),能夠?qū)崿F(xiàn)高效的規(guī)?;瘧?yīng)用;3)Gemini
Nano:作為該系
列
最高效的模型,專為移動(dòng)設(shè)備上的任務(wù)而設(shè)計(jì),體現(xiàn)了極致的便攜性和應(yīng)用靈活性。?Gemini系列模型在各種任務(wù)表現(xiàn)
優(yōu)
秀
,
超越了現(xiàn)有標(biāo)準(zhǔn)。特別是Gemini
Ultra,在32項(xiàng)廣泛應(yīng)用于大型語言模型(LLM)研究與開發(fā)的學(xué)術(shù)基準(zhǔn)測(cè)試中,其性能在30項(xiàng)測(cè)試上超越了當(dāng)前的最高水平。在MMLU(大規(guī)模多任務(wù)語言理解)測(cè)試中,Gemini
Ultra以90.0%的得分首次超越了人類專家。MMLU測(cè)試涵蓋了57個(gè)科目,如數(shù)學(xué)、物理、歷史、法律、醫(yī)學(xué)和倫理學(xué),旨在測(cè)試模型的世界知識(shí)和問題解決能力。Gemini
Ultra在新的MMMMU(多模態(tài)多任務(wù)理解)基準(zhǔn)測(cè)試中也取得了59.4%的最高成績(jī),該測(cè)試包含跨不同領(lǐng)域的多模態(tài)任務(wù),要求模型進(jìn)行深思熟慮的推理。在圖像基準(zhǔn)測(cè)試中,Gemini
Ultra同樣表現(xiàn)出色,超越了先前的最高水平,且無需依賴光學(xué)字符識(shí)別(OCR)系統(tǒng)從圖像中提取文本進(jìn)行進(jìn)一步處理。這些基準(zhǔn)測(cè)試突顯了Gemini的本地多模態(tài)能力,并預(yù)示了其更復(fù)雜的推理能力的初步跡象。資料:谷歌官網(wǎng)、國(guó)信證券經(jīng)濟(jì)研究所整理多模態(tài)模型架構(gòu)發(fā)生變化?
多模態(tài)模型架構(gòu)發(fā)生變化。過去的模型多用Cross-attention,對(duì)于多模態(tài)任務(wù),將圖像與語言分別結(jié)合,實(shí)現(xiàn)圖文信息的相互嵌入與問答。未來模型可采用的架構(gòu)方式多樣:如Merge-attention可將多個(gè)輸入模態(tài)調(diào)整為同一的特征表示,多個(gè)模態(tài)的特征在自注意力之前被合并,共同進(jìn)入Transformer;Tangled-transformer可使用使用三組
Transformer
模塊同時(shí)處理動(dòng)作、圖形對(duì)象和語言特征,通過特定的三角連接關(guān)系,注入其他模態(tài)的
Transformer
網(wǎng)絡(luò),以不同模態(tài)的信息融合。多模態(tài)模型架構(gòu)發(fā)生變化資料:reseachgate,國(guó)信證券經(jīng)濟(jì)研究所整理AIAgent:使大語言模型成為“操作系統(tǒng)”?大語言模型的能力迭代催化了AI
Agent。基座模型的發(fā)展正進(jìn)入一個(gè)新階段,其能力提升將由之前的快速增長(zhǎng)轉(zhuǎn)變?yōu)楦訚u進(jìn)式的發(fā)展。在這一階段,基座模型廠商的重點(diǎn)將從模型的功能迭代轉(zhuǎn)移到應(yīng)用生態(tài)構(gòu)建上,這表明了對(duì)更廣泛應(yīng)用和服務(wù)生態(tài)的重視和投入。?
AI
Agent使基座大模型成為模型的操作系統(tǒng)。人工智能代理(AI
Agent)是一種能夠感知環(huán)境、做出決策并執(zhí)行動(dòng)作的智能實(shí)體。通過賦予大型語言模型(LLM)代理能力,AI
Agent能夠自主地理解、規(guī)劃并執(zhí)行復(fù)雜任務(wù),實(shí)質(zhì)上成為一個(gè)控制LLM解決問題的系統(tǒng)。這不僅改變了傳統(tǒng)的人機(jī)交互方式,而且是拓展大模型應(yīng)用潛力的關(guān)鍵進(jìn)化方向。隨著基座模型提供更先進(jìn)的開發(fā)工具和開源社區(qū)的持續(xù)創(chuàng)新,AIAgents預(yù)計(jì)將成為未來大模型應(yīng)用的關(guān)鍵競(jìng)爭(zhēng)領(lǐng)域。基座模型功能持續(xù)迭代,催化應(yīng)用生態(tài)構(gòu)建AI
Agent使基座模型成為模型的操作系統(tǒng)資料:OpenAI、國(guó)信證券經(jīng)濟(jì)研究所整理資料:OpenAI官網(wǎng)、國(guó)信證券經(jīng)濟(jì)研究所整理GPTs:OpenAI“Agent化”的嘗試?OpenAI于近期推出GPTs,開啟了AI應(yīng)用的新時(shí)代。2023年11月6日,OpenAI
在舊金山成功舉辦了首屆全球開發(fā)者大會(huì)“OpenAIDevDay”。在本次發(fā)布會(huì)上,OpenAI
推出了GPTs和Assistants
API。GPTs作為“零代碼”AI代理方案,以及Assistants
API作為企業(yè)和開發(fā)者的定制化工具,都強(qiáng)調(diào)為用戶提供根據(jù)個(gè)人需求和偏好定制的體驗(yàn)。這兩種服務(wù)允許用戶通過指定指令和功能要求來個(gè)性化定制AIAgent的行為和能力。這是OpenAI“Agent化”的初步嘗試,開啟了AI應(yīng)用的新時(shí)代。?GPTs的前身為插件商店,旨在構(gòu)建openAI自己的AI生態(tài)。OpenAI
曾在早期嘗試過插件系統(tǒng),這是GPTs的初步嘗試。2023年5月,OpenAI開放了插件系統(tǒng),首批就上線了學(xué)習(xí)、翻譯、財(cái)務(wù)數(shù)據(jù)分析等領(lǐng)域的幾十個(gè)應(yīng)用,試圖構(gòu)建GPT的生態(tài)。盡管插件的數(shù)目不斷增長(zhǎng),但是插件商店的影響力遠(yuǎn)不及預(yù)期,因此OpenAI重新梳理了應(yīng)用商店的體系,做出新的嘗試。不過一些較為復(fù)雜的插件產(chǎn)品,比如Zapier(用于日程管理等),未來仍可能是應(yīng)用商店里的重要應(yīng)用。OpenAI發(fā)布者大會(huì)推出GPTs/GPTstoreOpenAI的插件商店P(guān)luginstore模型功能改進(jìn)新推出GPT-4性能改進(jìn)Turbo模型其他開發(fā)者支持發(fā)布GPT
Assistant
API發(fā)布GPTs\GPTs
storeOpenAI2023
DevDay針對(duì)開發(fā)者的改進(jìn)提供侵權(quán)保護(hù)、雙倍提高每分鐘token限制等其他開發(fā)者支持ChatGPT改進(jìn)資料:OpenAI、國(guó)信證券經(jīng)濟(jì)研究所整理資料:OpenAI官網(wǎng)、國(guó)信證券經(jīng)濟(jì)研究所整理Agent
落地:AutoGPT、AutoGen百花齊放?AutoGPT為代表的單Agent框架進(jìn)行了早期探索和實(shí)驗(yàn)。23年3月ChatGPT開放API后,AutoGPT、BabyAGI等項(xiàng)目利用OpenAI
API、向量數(shù)據(jù)庫(kù)以及學(xué)術(shù)屆ReAct、Reflexion等思想構(gòu)建Autonomous
Agent,其思想是讓LLM像人一樣有記憶、會(huì)使用工具、會(huì)規(guī)劃和反思,自己提示自己,以此完成用戶最初的指令。由此軟件生產(chǎn)成本大幅降低,Agent可以作為一款符合用戶需求的軟件乃至操縱硬件更好滿足人類需求。?AutoGen為代表的多Agent協(xié)作框架進(jìn)一步打開Agent想象空間。23年4月Stanford
AI小鎮(zhèn)展示了多個(gè)Agent協(xié)作能展現(xiàn)出一定的社交行為,人們開始探索多Agent分工協(xié)作能否帶來1+1>2的效果,例如MetaGPT模仿軟件公司分工直接產(chǎn)出可執(zhí)行的軟件。微軟開源的AutoGen將多Agent協(xié)作固化為框架,例如助手Agent負(fù)責(zé)寫代碼,用戶代理Agent負(fù)責(zé)將用戶輸入闡明成需求并執(zhí)行代碼,共同完成用戶最初的意圖Agent原理:利用記憶和工具,完成規(guī)劃、執(zhí)行和反思AutoGen設(shè)計(jì)多Agent協(xié)作以完成用戶需求資料:Microsoft、國(guó)信證券經(jīng)濟(jì)研究所整理資料:BabyAGI、國(guó)信證券經(jīng)濟(jì)研究所整理目錄AI大模型:多模態(tài)方向延伸,視頻模型迎來發(fā)展元年AI算力:國(guó)產(chǎn)算力迎歷史機(jī)遇期0102AI邊緣側(cè)布局正當(dāng)時(shí),
AI
PC和手機(jī)值得期待AI重塑應(yīng)用百態(tài),商業(yè)落地逐步兌現(xiàn)0304投資建議:看好AI產(chǎn)業(yè)持續(xù)催化,維持“超配”評(píng)級(jí)05大模型引發(fā)算力浪潮:訓(xùn)練數(shù)據(jù)量+參數(shù)量大幅提升,模型能力發(fā)生“涌現(xiàn)”?訓(xùn)練數(shù)據(jù)量+參數(shù)量大幅提升,模型能力發(fā)生“涌現(xiàn)”。根據(jù)2022年谷歌、斯坦福大學(xué)和Deepmind聯(lián)合發(fā)表的《Emergent
Abilitiesof
LargeLanguage
Models》,很多新能力在中小模型上線性放大都得不到線性的增長(zhǎng),模型規(guī)模必須呈指數(shù)級(jí)增長(zhǎng)并超過某個(gè)臨界點(diǎn),新技能才會(huì)突飛猛進(jìn)。?參數(shù)量+訓(xùn)練數(shù)據(jù)量,雙輪拉動(dòng)算力需求增長(zhǎng)。模型的參數(shù)量和數(shù)據(jù)量在一定程度下是正相關(guān)的,因?yàn)椋篴)在小規(guī)模數(shù)據(jù)上訓(xùn)練模型時(shí),若模型參數(shù)量過大,可能出現(xiàn)過擬合情況;b)在大規(guī)模數(shù)據(jù)上訓(xùn)練模型時(shí),若不增加模型參數(shù)量,可能造成新的知識(shí)無法存放的情況。更大的參數(shù)量和訓(xùn)練數(shù)據(jù)量,對(duì)應(yīng)更大的算力消耗,雙輪驅(qū)動(dòng)算力需求增長(zhǎng)。訓(xùn)練數(shù)據(jù)大幅提升后,模型能力“涌現(xiàn)”模型參數(shù)大幅提升后,模型能力“涌現(xiàn)”資料
:JasonWei等著-《EmergentAbilitiesofLargeLanguageModels》-TransactionsonMachineLearningResearch(2022)-P4、國(guó)信證券經(jīng)濟(jì)研究所整理資料
:JasonWei等著-《EmergentAbilitiesofLargeLanguageModels》-TransactionsonMachineLearningResearch(2022)-P27、國(guó)信證券經(jīng)濟(jì)研究所整理大模型引發(fā)算力浪潮:大模型訓(xùn)練+推理拉動(dòng)算力需求快速增長(zhǎng)?大模型訓(xùn)練+推理拉動(dòng)算力需求快速增長(zhǎng)。?模型迭代和數(shù)量增長(zhǎng)拉動(dòng)AI算力需求增長(zhǎng):從單個(gè)模型來看,模型能力持續(xù)提升依賴于更大的訓(xùn)練數(shù)據(jù)量和模型參數(shù)量,對(duì)應(yīng)更高的算力需求;從模型的數(shù)量來看,模型種類多樣化(文生圖、文生視頻)和各廠商自主模型的研發(fā),均推動(dòng)算力需求的增長(zhǎng)。?未來AI應(yīng)用爆發(fā),推理側(cè)算力需求快速增長(zhǎng):各廠商基于AI大模型開發(fā)各類AI應(yīng)用,隨著AI應(yīng)用用戶數(shù)量爆發(fā),對(duì)應(yīng)推理側(cè)算力需求快速增長(zhǎng)。?智能算力需求快速增長(zhǎng):從全球來看,根據(jù)中國(guó)信通院發(fā)布的《中國(guó)算力發(fā)展指數(shù)白皮書(2022年)》和《中國(guó)算力發(fā)展指數(shù)白皮書(2023年)》數(shù)據(jù),22年全球智能算力約451EFlops(基于FP32計(jì)算),預(yù)計(jì)2030年全球智能算力規(guī)模將達(dá)到52.5ZFlops,全球智能算力快速增長(zhǎng);從國(guó)內(nèi)來看,根據(jù)IDC和浪潮信息發(fā)布的《2023-2024國(guó)人工智能計(jì)算力發(fā)展評(píng)估報(bào)告》,22年中國(guó)智能算力規(guī)模為259.9EFlops(基于FP16計(jì)算),預(yù)計(jì)27年達(dá)到1117.4EFlops,對(duì)應(yīng)22-27年CAGR為33.9%。全球智能算力快速增長(zhǎng)中國(guó)智能算力快速增長(zhǎng)智能算力(基于FP16計(jì)算,EFLOPS)智能算力(基于FP32計(jì)算,ZFLOPS)1200100080060040020001117.4605040302010052.50812.5616.6497.12024414.32023259.92022155.22021750.230.452021202220302020202520262027資料究所整理:《中國(guó)算力發(fā)展指數(shù)白皮書(2022年&2023年,中國(guó)信通院)》
、國(guó)信證券經(jīng)濟(jì)研資料
:《2023-2024國(guó)人工智能計(jì)算力發(fā)展評(píng)估報(bào)告(IDC&浪潮信息)》
、國(guó)信證券經(jīng)濟(jì)研究所整理大模型引發(fā)算力浪潮:國(guó)內(nèi)千億級(jí)別AI芯片市場(chǎng),市場(chǎng)規(guī)模持續(xù)增長(zhǎng)?全球AI芯片市場(chǎng):受益于AI大模型的訓(xùn)練和推理帶來的智能算力需求的增長(zhǎng),全球AI芯片市場(chǎng)規(guī)模持續(xù)增長(zhǎng),根據(jù)Gartner數(shù)據(jù),2022年全球AI芯片市場(chǎng)規(guī)模為442.2億美金(約3095億人民幣,按美元兌人民幣匯率7.0來計(jì)),預(yù)計(jì)2027年達(dá)到1194億美金,對(duì)應(yīng)22-27年CAGR為22.0%。?國(guó)內(nèi)AI芯片市場(chǎng):國(guó)內(nèi)互聯(lián)網(wǎng)頭部公司及部分AI創(chuàng)業(yè)公司訓(xùn)練國(guó)產(chǎn)AI大模型,同時(shí)基于中國(guó)高人口基數(shù),推理側(cè)算力需求強(qiáng)勁,拉動(dòng)中國(guó)AI芯片市場(chǎng)持續(xù)增長(zhǎng)。根據(jù)頭豹產(chǎn)業(yè)研究院數(shù)據(jù),2022年中國(guó)AI芯片市場(chǎng)954億人民幣,預(yù)計(jì)2025年達(dá)到1979億人民幣,對(duì)應(yīng)22-25年CAGR為27.5%。22年全球AI芯片市場(chǎng)442.2億美金22年中國(guó)AI芯片市場(chǎng)954億人民幣全球AI芯片市場(chǎng)規(guī)模(億美元)中國(guó)AI芯片市場(chǎng)規(guī)模(億人民幣)14001200100080060040020002500200015001000500119419791581671.48534.451186954919442.2202202023E2024E2027E202120222023E2024E2025E資料:Gartner、國(guó)信證券經(jīng)濟(jì)研究所整理資料:頭豹產(chǎn)業(yè)研究院、國(guó)信證券經(jīng)濟(jì)研究所整理國(guó)產(chǎn)算力迎歷史機(jī)遇期:美國(guó)禁令,推動(dòng)AI芯片國(guó)產(chǎn)化進(jìn)程?海外巨頭壟斷國(guó)產(chǎn)AI芯片市場(chǎng)。根據(jù)IDC數(shù)據(jù),2023年上半年,中國(guó)本土AI芯片出貨超5萬片,占整個(gè)市場(chǎng)10%左右份額,海外巨頭(主要是英偉達(dá))仍占據(jù)中國(guó)AI芯片市場(chǎng)主要市場(chǎng)份額。?美國(guó)禁令限制英偉達(dá)主流AI芯片對(duì)華出口,國(guó)產(chǎn)AI芯片迎來歷史機(jī)遇期。本次法案新增兩個(gè)政策(3A090a和3A090b),以TPP(計(jì)算公式:TPP=算力*位數(shù))和PD(計(jì)算公式:PD=TPP/die
size)作為判定指標(biāo),滿足任一政策,該芯片都將禁止對(duì)華出口,經(jīng)測(cè)算,目前市場(chǎng)上主流AI芯片(A100、H100、A800、H800、L40S)均在限制范圍之內(nèi),國(guó)產(chǎn)AI芯片迎來歷史機(jī)遇期。AI芯片空間廣闊美國(guó)禁令政策一:3A090a(美國(guó)禁令)1、TPP>48002、TPP>1600,且PD超過5.92政策二:3A090b(美國(guó)禁令)1、2400≤TPP<4800,且1.6≤PD<5.922、1600≤TPP,且3.2≤PD<5.9210%進(jìn)口AI芯片出貨國(guó)產(chǎn)AI芯片出貨TF32算力TF16算力(TFLOPS)不滿足出口要求TPPdie
size(mm2)PD(TFLOPS)A100A800H100H800L40S1563124,9924,9928268268148146096.046.0490%1563127561,5131,51336224,19224,1925,85629.7229.729.62756183資料:IDC、國(guó)信證券經(jīng)濟(jì)研究所整理資料所整理:
BIU(美國(guó)商務(wù)部工業(yè)和安全局)、英偉達(dá)、TechPowerUp
、國(guó)信證券經(jīng)濟(jì)研究英偉達(dá):全球AI算力芯片龍頭,性能+生態(tài)打造核心壁壘?
性能:全球領(lǐng)先。英偉達(dá)于20年5月發(fā)布新一代“Ampere”架構(gòu)GPU——A100,采用7nm工藝,包含超過540億個(gè)晶體管,配備了專用的硬件單元,包括通用算數(shù)核“CUDA核”和可以更快進(jìn)行矩陣運(yùn)算的第3代張量核,性能和能效大幅提升。英偉達(dá)22年3月發(fā)布新一代“Hopper”架構(gòu)GPU——H100,采用4nm工藝,算力達(dá)到1,979TFLOPS(FP16),配合80GB顯存、3.35TB/s顯存帶寬,借助NvLink交換機(jī)系統(tǒng),最多可連接256個(gè)H100
GPU來完成訓(xùn)練,產(chǎn)品性能全球領(lǐng)先。?
生態(tài):CUDA打造核心壁壘。CUDA是英偉達(dá)2006年11月推出的,用于發(fā)揮英偉達(dá)GPU通用計(jì)算能力的編程環(huán)境,支持CUDA
C和OpenCL等語言,計(jì)算效率高,??杉铀偈畮妆兜綆资?;同時(shí)CUDA深度優(yōu)化多種深度學(xué)習(xí)基本運(yùn)算指令,例如PyTorch、TensorFlow等主流的深度學(xué)習(xí)框架均提供了基于CUDA的GPU運(yùn)算支持,并提供了更高層、更抽象的調(diào)用方式,方便用戶編程;CUDA經(jīng)過十七年的發(fā)展,成為英偉達(dá)GPU最核心的護(hù)城河。英偉達(dá)產(chǎn)品路線圖:種類豐富,性能強(qiáng)大英偉達(dá)CUDA生態(tài)成為最核心的護(hù)城河資料:SemiAnalysis、國(guó)信證券經(jīng)濟(jì)研究所整理資料:英偉達(dá)官網(wǎng)、國(guó)信證券經(jīng)濟(jì)研究所整理AMD:芯片硬件指標(biāo)領(lǐng)先,開源縮小生態(tài)差距?
AMD發(fā)布Instinct
MI300X,硬件指標(biāo)全球領(lǐng)先。23年12月7日,AMD在其“Advancing
AI”大會(huì)上發(fā)布新一代AI算力芯片——MI300X,芯片采用CDNA
3架構(gòu),包含1530億個(gè)晶體管,配備192GB
HBM3和5.3TB/s的顯存帶寬,產(chǎn)品硬件指標(biāo)全球領(lǐng)先。?
通過開源手段,快速縮小生態(tài)差距。AMD自研生態(tài)——ROCm,定義為開放式軟件平臺(tái),全面支持TensorFlow和PyTorch等主要機(jī)器學(xué)習(xí)框架,以幫助用戶加速人工智能工作負(fù)載;AMD
與人工智能開放社區(qū)廣泛合作,允許開發(fā)人員根據(jù)自己的需要自由定制和定制他們的GPU軟件,同時(shí)與其他開發(fā)人員社區(qū)合作,以促進(jìn)和擴(kuò)展機(jī)器和深度學(xué)習(xí)功能和優(yōu)化,以開源的方式,快速縮小與CUDA生態(tài)間的差距。AMD發(fā)布MI300X芯片通過開源手段,快速縮小與英偉達(dá)的生態(tài)差距資料:AMD官網(wǎng)、國(guó)信證券經(jīng)濟(jì)研究所整理資料:AMD官網(wǎng),國(guó)信證券經(jīng)濟(jì)研究所整理海思:國(guó)產(chǎn)AI算力領(lǐng)導(dǎo)者,全棧AI軟硬件平臺(tái)能力?
獨(dú)創(chuàng)達(dá)芬奇架構(gòu),國(guó)產(chǎn)AI算力領(lǐng)導(dǎo)者。海思昇騰針對(duì)深度神經(jīng)網(wǎng)絡(luò)運(yùn)算特征,以高性能3D
Cube矩陣計(jì)算單元為基礎(chǔ),自研達(dá)芬奇架構(gòu),實(shí)現(xiàn)算力和能效比的大幅提升;同時(shí),處理器內(nèi)部還支持多維計(jì)算模式(如標(biāo)量、矢量和張量等),打破了傳統(tǒng)AI
Asic芯片的局限,增加了計(jì)算的靈活性。海思于2019年發(fā)布昇騰910
AI訓(xùn)練芯片,主要面向云端訓(xùn)練,算力達(dá)到256TFLOPS(FP16),單芯片計(jì)算密度國(guó)內(nèi)領(lǐng)先,為國(guó)產(chǎn)AI算力的領(lǐng)導(dǎo)者。?
全棧AI軟硬件平臺(tái)能力,合作伙伴眾多。海思昇騰軟硬件全棧包括Atlas系列硬件、異構(gòu)計(jì)算架構(gòu)、AI框架、應(yīng)用使能、行業(yè)應(yīng)用,擁有從底層硬件到頂層應(yīng)用使能的人工智能全棧能力。昇騰合作伙伴包括整機(jī)硬件伙伴、IHV硬件伙伴、應(yīng)用軟件伙伴、一體機(jī)解決方案伙伴、生態(tài)運(yùn)營(yíng)伙伴,合作伙伴數(shù)量眾多,軟硬件生態(tài)快速發(fā)展,打造核心競(jìng)爭(zhēng)力。昇騰獨(dú)創(chuàng)達(dá)芬奇架構(gòu)昇騰全棧AI軟硬件平臺(tái)資料:海思發(fā)布會(huì)、國(guó)信證券經(jīng)濟(jì)研究所整理資料:海思官網(wǎng),國(guó)信證券經(jīng)濟(jì)研究所整理海光信息:生態(tài)+性價(jià)比優(yōu)勢(shì),產(chǎn)品快速迭代?
生態(tài)優(yōu)勢(shì):兼容CUDA。海光DCU產(chǎn)品為GPGPU架構(gòu),可以全面兼容ROCm
GPU生態(tài),由于ROCm和CUDA在生態(tài)、編程環(huán)境等方面具備高度的相似性,CUDA用戶可以以較低的成本快速遷移到ROCm平臺(tái),因此,公司DCU產(chǎn)品能夠較好地適配國(guó)際主流商業(yè)計(jì)算軟件和AI軟件,軟硬件生態(tài)豐富,可廣泛應(yīng)用于AI、大數(shù)據(jù)等計(jì)算密集類應(yīng)用,生態(tài)優(yōu)勢(shì)明顯。?
性價(jià)比優(yōu)勢(shì):公司深算一號(hào)于2021年上半年開始小規(guī)模批量生產(chǎn),我們選取同時(shí)期(或相近時(shí)期)海外巨頭AI芯片產(chǎn)品作為對(duì)比(此處選取英偉達(dá)A100和AMD
MI100作為對(duì)照組),英偉達(dá)A100性能指標(biāo)領(lǐng)先,在核心數(shù)量、顯存容量、顯存位寬、顯存帶寬等參數(shù)均領(lǐng)先于同時(shí)期競(jìng)品,公司深算一號(hào)產(chǎn)品在制程、內(nèi)核頻率、顯存容量、顯存位寬、顯存帶寬等指標(biāo)基本追平AMD
MI100產(chǎn)品,而公司產(chǎn)品平均售價(jià)僅1.93萬人民幣/顆,大幅低于AMD
MI100售價(jià),公司DCU產(chǎn)品具有性價(jià)比優(yōu)勢(shì)。?
產(chǎn)品快速迭代:公司18年開始發(fā)力AI算力芯片,深算一號(hào)21年成功量產(chǎn),深算二號(hào)23年實(shí)現(xiàn)商業(yè)化,預(yù)計(jì)24年發(fā)布深算三號(hào)產(chǎn)品,產(chǎn)品快速迭代。海光信息軟硬一體化生態(tài),兼容CUDA產(chǎn)品具有性價(jià)比優(yōu)勢(shì)人工智能應(yīng)用國(guó)內(nèi)典型異構(gòu)應(yīng)用主流學(xué)習(xí)框架其他應(yīng)用…單價(jià)(萬人民幣)框架及應(yīng)用庫(kù)函數(shù)65432105數(shù)學(xué)庫(kù)(hipBLAS,hipRand,hipFFT…)MIOpenEigenRCCLhipsparseOpenMPI3.2編譯器驅(qū)動(dòng)與工具硬件LLVM編譯器OpenCLHIP異構(gòu)編程接口1.93驅(qū)動(dòng)程序/vBios/APIRunTime調(diào)試工具海光x86中央處理器海光深度計(jì)算處理器AMDMI300英偉達(dá)A100海光深算一號(hào)資料:海光信息官網(wǎng)、國(guó)信證券經(jīng)濟(jì)研究所整理資料
:《海光信息——發(fā)行人及保薦機(jī)構(gòu)關(guān)于第二輪審核問詢函的回復(fù)》,國(guó)信證券經(jīng)濟(jì)研究所整理(注:該價(jià)格為22年市場(chǎng)價(jià),23年英偉達(dá)和AMD產(chǎn)品價(jià)格有大幅提升)寒武紀(jì):云、邊、終端三位協(xié)同,產(chǎn)品矩陣豐富?
云、邊、終端三位協(xié)同——硬件層面:寒武紀(jì)致力于全算力布局,開發(fā)邊緣側(cè)、云端推理、云端訓(xùn)練、車載領(lǐng)域AI算力芯片,芯片算力覆蓋范圍廣,廣泛應(yīng)用于服務(wù)器廠商和產(chǎn)業(yè)公司,面向互聯(lián)網(wǎng)、金融、交通、能源、電力和制造等領(lǐng)域的復(fù)雜AI應(yīng)用場(chǎng)景提供AI算力支持,推動(dòng)AI賦能產(chǎn)業(yè)升級(jí)。?
云、邊、終端三位協(xié)同——軟件層面:寒武紀(jì)針對(duì)云、邊、端的智能處理器產(chǎn)品打造基礎(chǔ)軟件平臺(tái),采用云邊端一體、訓(xùn)推一體架構(gòu),可同時(shí)支持寒武紀(jì)云、邊、端的全系列產(chǎn)品;同時(shí),寒武紀(jì)終端IP、邊緣端芯片、云端芯片共享同樣的軟件接口和完備生態(tài),可以方便地進(jìn)行智能應(yīng)用的開發(fā),遷移和調(diào)優(yōu)。云、邊、終端三位協(xié)同,產(chǎn)品矩陣豐富資料:《寒武紀(jì)——2022年度社會(huì)責(zé)任報(bào)告》,國(guó)信證券經(jīng)濟(jì)研究所整理目錄AI大模型:多模態(tài)方向延伸,視頻模型迎來發(fā)展元年AI算力:國(guó)產(chǎn)算力迎歷史機(jī)遇期0102AI邊緣側(cè)布局正當(dāng)時(shí),
AI
PC和手機(jī)值得期待AI重塑應(yīng)用百態(tài),商業(yè)落地逐步兌現(xiàn)0304投資建議:看好AI產(chǎn)業(yè)持續(xù)催化,維持“超配”評(píng)級(jí)05邊緣側(cè)布局正當(dāng)時(shí):基于成本、時(shí)延、隱私的考量?節(jié)約成本是端側(cè)AI主要推動(dòng)因素。隨著生成式AI模型使用量和復(fù)雜度的不斷增長(zhǎng),推理成本持續(xù)提升,將部分推理從云端遷移到邊緣終端,可以減輕云基礎(chǔ)設(shè)施的壓力并減少開支,進(jìn)而支持OEM廠商、獨(dú)立軟件開發(fā)商(ISV)和應(yīng)用開發(fā)者更經(jīng)濟(jì)實(shí)惠地探索和開發(fā)應(yīng)用。?生成式AIquery成本是傳統(tǒng)搜索方法的十倍。根據(jù)高通披露數(shù)據(jù),生成式AI搜索(query)成本是傳統(tǒng)搜索方法的10倍,目前每天有超過100億次的搜索查詢產(chǎn)生,即便基于大語言模型的搜索僅占其中一小部分,每年的增量成本也將達(dá)到數(shù)十億美金,節(jié)約成本是必然趨勢(shì)。?云端向邊緣終端遷移,可大幅降低推理成本。隨著生成式AI推理需求快速增長(zhǎng),數(shù)據(jù)中心基礎(chǔ)設(shè)施成本(硬件、場(chǎng)地、能耗、運(yùn)營(yíng)、額外帶寬和網(wǎng)絡(luò)傳輸?shù)龋⒊掷m(xù)提升,云端推理的性價(jià)比將下降;將部分任務(wù)從云端遷移到邊緣終端,可減輕云基礎(chǔ)設(shè)施的壓力并減少開支。??時(shí)延與安全:不同應(yīng)用對(duì)時(shí)延和帶寬要求不同,部分應(yīng)用場(chǎng)景必須走端側(cè)路線。盡管5G移動(dòng)通信的URLLC可以達(dá)到低延遲(1ms)傳輸,但是對(duì)于自動(dòng)駕駛汽車、無人機(jī)導(dǎo)航、機(jī)器人技術(shù)等應(yīng)用,僅依賴云端遠(yuǎn)程數(shù)據(jù)傳輸?shù)臅r(shí)延和安全風(fēng)險(xiǎn)較高,特別是在自動(dòng)駕駛場(chǎng)景,其必須走端側(cè)路線,進(jìn)而盡可能提高安全性和可靠性,減少?zèng)Q策失誤風(fēng)險(xiǎn)。隱私:查詢和個(gè)人信息完全保留在終端上,有助于保護(hù)用戶隱私。對(duì)于企業(yè)和個(gè)人工作場(chǎng)所等場(chǎng)景中使用的生成式AI,端側(cè)AI可以將查詢和個(gè)人信息完全保留在終端上,不向云端暴露保密信息,進(jìn)而保護(hù)用戶隱私。目前,終端側(cè)的安全能力已經(jīng)非常強(qiáng)大,且將不斷演生成式AIquery成本是傳統(tǒng)搜索方法的十倍不同應(yīng)用對(duì)時(shí)延和帶寬要求不同1210810x641x20傳統(tǒng)搜索方法(基準(zhǔn)
1x)生成式AI搜索(query)成本資料:高通、國(guó)信證券經(jīng)濟(jì)研究所整理資料
:張臣雄著-《AI芯片:前沿技術(shù)與創(chuàng)新發(fā)展》-人民郵電出版社(2021年)-P42、國(guó)信證券經(jīng)濟(jì)研究所整理邊緣側(cè)布局正當(dāng)時(shí):端側(cè)已可以支持多樣化的AI模型??利用大規(guī)模終端側(cè)AI處理支撐生成式AI有著廣闊前景。根據(jù)高通披露數(shù)據(jù),目前初步具備AI功能的手機(jī)(例如蘋果M2芯片)、PC和其他品類的便攜式終端數(shù)量已經(jīng)達(dá)數(shù)十億臺(tái),且未來終端設(shè)備的AI性能和設(shè)備數(shù)量會(huì)快速增長(zhǎng),進(jìn)而支撐起大規(guī)模邊緣生成式AI計(jì)算的需求。端側(cè)已可以支持多樣化的AI模型。1)AI模型在變?。焊鰽I模型廠商為了降低推理側(cè)成本,通過蒸餾等方式降低模型參數(shù)量,進(jìn)而降低端側(cè)AI處理的算力要求;2)端側(cè)AI處理能力持續(xù)提升:目前10億+參數(shù)的模型已經(jīng)可以在終端設(shè)備上運(yùn)行(例如Stable
Diffusion等參數(shù)超過10億的模型已經(jīng)能夠在手機(jī)上運(yùn)行,且性能和精確度可以達(dá)到與云端處理類似的水平),近期高通有望發(fā)布支持100億模型運(yùn)行的邊緣側(cè)芯片,在0-100億模型參數(shù)區(qū)間了,可以實(shí)現(xiàn)文字生成圖像、對(duì)話和NLP、組合優(yōu)化、圖像理解、視頻理解、協(xié)作機(jī)器人等模型應(yīng)用。數(shù)量可觀的生成式AI模型可以從云端分流到終端上運(yùn)行資料:高通、國(guó)信證券經(jīng)濟(jì)研究所整理邊緣側(cè)布局正當(dāng)時(shí):混合AI是最優(yōu)解決方案?混合AI是最優(yōu)的解決方案。混合AI指終端和云端協(xié)同工作,在適當(dāng)?shù)膱?chǎng)景和時(shí)間下分配AI計(jì)算的工作負(fù)載,以提供更好的體驗(yàn),并高效利用資源。在部分場(chǎng)景中,混合AI的計(jì)算將以終端為中心,在必要時(shí)向云端分流;同時(shí),在以云為中心的場(chǎng)景下,終端(根據(jù)自身能力)將在可能的情況下從云端分擔(dān)一些AI工作負(fù)載?;旌螦I架構(gòu)能夠在全球范圍帶來成本、能耗、性能、隱私、安全和個(gè)性化優(yōu)勢(shì),主要包括三類:以終端為中心的混合AI、基于終端感知的混合AI、終端與云端協(xié)同處理的混合AI。?以終端為中心的混合AI:終端將充當(dāng)錨點(diǎn),云端僅用于分流終端無法充分執(zhí)行的任務(wù);終端通過運(yùn)行不太復(fù)雜的推理完成大部分處理工作,未來隨著終端側(cè)AI處理能力的提升,其可以分流更多的云端負(fù)載。?基于終端感知的混合AI:在邊緣側(cè)運(yùn)行的模型將充當(dāng)云端大模型(類似大腦)的傳感器輸入端(類似眼睛和耳朵),例如在終端部署Whisper模型可將用戶的語音輸入轉(zhuǎn)化成文字,之后再將其作為請(qǐng)求提升發(fā)送到云端;在更先進(jìn)的版本中,其可以借助終端側(cè)學(xué)習(xí)用戶數(shù)據(jù),進(jìn)而創(chuàng)建用戶畫像,與編排器程序協(xié)作,基于更多場(chǎng)景提供更完善的提示。?終端與云端協(xié)同處理的混合AI:即終端和云端的AI計(jì)算協(xié)同工作來處理AI負(fù)載,例如生成大語言模型的多個(gè)token(以4個(gè)舉例),僅需在終端連續(xù)運(yùn)行4次近似模型(閹割后模型,僅為目標(biāo)模型的1/10),然后將生成的4個(gè)token傳輸?shù)皆贫?,云端高效運(yùn)行4次目標(biāo)模型來檢驗(yàn)其準(zhǔn)確度,且僅需要讀取一次完整的模型參數(shù),節(jié)省了能耗。以終端為中心的混合AI基于終端感知的混合AI終端與云端協(xié)同處理的混合AI資料:高通、國(guó)信證券經(jīng)濟(jì)研究所整理資料:高通、國(guó)信證券經(jīng)濟(jì)研究所整理資料:高通、國(guó)信證券經(jīng)濟(jì)研究所整理AIPIN:設(shè)備作為模型入口,云端做大模型推理?設(shè)備作為模型入口,云端做大模型推理。用戶通過語音、手勢(shì)等方式對(duì)設(shè)備輸入命令,設(shè)備通過語音識(shí)別ASR等方式將其轉(zhuǎn)化為指令文本,指令文本上傳到云端AI大模型(例如GPT-4)做推理,將推理得到的結(jié)果通過設(shè)備反饋給用戶(例如提問、查詢等),或直接調(diào)用設(shè)備應(yīng)用或更改設(shè)備設(shè)置(例如播放音樂、提高音量等)。AIPin作為模型入口,云端做大模型推理資料:頭豹產(chǎn)業(yè)研究院、Humane、國(guó)信證券經(jīng)濟(jì)研究所整理AIPIN:以輕便、低功耗為主?
AI
Pin硬件:以輕便、低功耗為主。AI
Pin硬件主要包括電池倉(cāng)、廣角攝像頭、投影、信任燈、揚(yáng)聲器、觸控板、SoC芯片、麥克風(fēng)等,硬件選擇以輕便、低功耗為主,打造AI大模型入口。AIPin硬件:以輕便、低功耗為主電池倉(cāng)(重量?jī)H20.5g)廣角攝像頭(13MP,120°
FOV)投影(分辨率720p,20-40cm操作距離)信任燈(關(guān)注客戶隱私)麥克風(fēng)揚(yáng)聲器(AAC)觸控板(單指/雙指操作)SoC(2.1Ghz,4GBRAM)資料:Humane、國(guó)信證券經(jīng)濟(jì)研究所整理AIPIN:功能豐富,語音通話、修飾文稿、處理電子郵件等?????語音通話:同運(yùn)營(yíng)商T-Mobile合作,可直接通過語音撥打電話號(hào)碼/聯(lián)系人,進(jìn)而進(jìn)行語音通話;識(shí)別物體:利用多模態(tài)大模型能力,可以識(shí)別食物、書本等物體,提供營(yíng)養(yǎng)成分(食物)、價(jià)格(書本)等信息;處理電子郵件&修飾文稿:可通過產(chǎn)品生成回復(fù)內(nèi)容,且可以通過語音控制修訂回復(fù)內(nèi)容,并回復(fù)郵件;實(shí)時(shí)翻譯:兩用戶面對(duì)面對(duì)話,可將雙方不同語言進(jìn)行實(shí)時(shí)翻譯并輸出,提升交流效率;推薦音樂和餐廳:產(chǎn)品實(shí)時(shí)聯(lián)網(wǎng),可以根據(jù)個(gè)人喜好,為用戶推薦音樂和餐廳。AIPin功能——語音通話、修飾文稿、處理電子郵件、實(shí)時(shí)翻譯、識(shí)別物體、推薦餐廳和音樂語音通話識(shí)別物體修飾文稿推薦音樂和餐廳處理電子郵件實(shí)時(shí)翻譯資料:Humane、國(guó)信證券經(jīng)濟(jì)研究所整理AIPC:PC與大模型天然匹配?多模態(tài)自然語言交互:大模型逐步從單一模態(tài)向多模態(tài)方向發(fā)展,模型能力更加強(qiáng)大,應(yīng)用愈加豐富;而多模態(tài)的交互需要多種模態(tài)輸入,PC具備文字輸入、語音輸入、身體語言、觸控、鍵鼠等多種輸入方式,滿足多模態(tài)交互的需求。?模型壓縮后仍具備通用場(chǎng)景服務(wù)能力:PC作為通用生產(chǎn)力平臺(tái),具有非常廣泛的應(yīng)用場(chǎng)景(工作、學(xué)習(xí)、娛樂等),且配備專業(yè)工具的支持(例如圖像處理軟件、視頻編輯工具等);AI大模型通過蒸餾、壓縮等方式處理后,可以顯著減少模型的尺寸和復(fù)雜度,同時(shí)保留其核心能力,進(jìn)而賦能PC各應(yīng)用場(chǎng)景,提升用戶使用體驗(yàn)和工作效率。??強(qiáng)AI算力推理需求:即使壓縮后的大模型降低了算力需求,但仍需要強(qiáng)大的本地算力支撐;在消費(fèi)級(jí)市場(chǎng),PC代表著個(gè)人計(jì)算平臺(tái)的先進(jìn)水平,同時(shí)結(jié)合CPU+NPU+GPU異構(gòu)算力的系統(tǒng)運(yùn)用,為PC提供了強(qiáng)大的并行計(jì)算能力,可以支撐邊緣側(cè)AI大模型的推理?;趥€(gè)人數(shù)據(jù)和隱私的微調(diào)及個(gè)性化服務(wù):云端公共大模型無法滿足用戶千人千面的需求,個(gè)人大模型可通過用戶自身數(shù)據(jù)和需求進(jìn)行微調(diào),獲得相對(duì)個(gè)性化的服務(wù);PC具備大容量的本地安全存儲(chǔ)支持用戶數(shù)據(jù)的存儲(chǔ),進(jìn)而完成對(duì)個(gè)人大模型的微調(diào)。PC與大模型天然匹配資料:IDC、國(guó)信證券經(jīng)濟(jì)研究所整理AIPC:包含AI模型及硬件設(shè)備的混合體?
AI
PC是一個(gè)包含AI模型及硬件設(shè)備的混合體。AI
PC的核心特征包括自然語言交互的個(gè)人智能體、內(nèi)嵌個(gè)人大模型、標(biāo)配本地混合AI算力、開放的AI應(yīng)用生態(tài)、設(shè)備級(jí)個(gè)人數(shù)據(jù)&隱私安全保護(hù)。?從硬件維度來看:1)交互入口:AI
PC作為第一交互入口,用戶可通過AI
PC的輸入、輸出設(shè)備實(shí)現(xiàn)交互;2)AI算力支撐:終端異構(gòu)混合(CPU+NPU+GPU)算力實(shí)現(xiàn)更快速、更高效的AI模型推理,
目前芯片提供商集成了NPU計(jì)算單元的CPU陸續(xù)推向市場(chǎng),與終端廠商協(xié)作研發(fā),共同推廣。?從軟件維度來看:1)個(gè)人大模型:本地部署大模型和個(gè)性化本地知識(shí)庫(kù)共同組成,在AI
PC執(zhí)行任務(wù)時(shí),知識(shí)庫(kù)能通過對(duì)向量數(shù)據(jù)庫(kù)的檢索,來匹配并強(qiáng)化用戶的提示詞,進(jìn)而幫助模型更好地理解用戶意圖。2)開放的AI應(yīng)用生態(tài):由AI原生應(yīng)用、AI賦能應(yīng)用和公共大模型組成,作為AI
PC能力的延伸和補(bǔ)充,幫助用戶應(yīng)對(duì)相對(duì)復(fù)雜的任務(wù)。AIPC核心特征個(gè)人智能體提升AIPC的自主性與易用性資料:IDC、國(guó)信證券經(jīng)濟(jì)研究所整理資料:IDC、國(guó)信證券經(jīng)濟(jì)研究所整理AIPC:帶來個(gè)性化、及時(shí)、安全可信的用戶體驗(yàn)????通用場(chǎng)景下個(gè)性化服務(wù):AI
PC針對(duì)工作、學(xué)習(xí)、生活等場(chǎng)景,提供個(gè)性化的創(chuàng)作服務(wù)、秘書服務(wù)和設(shè)備管家服務(wù),提升工作效率以及學(xué)習(xí)、娛樂體驗(yàn)。及時(shí)、可靠的服務(wù)響應(yīng):云端公共大模型存在響應(yīng)慢等實(shí)際體驗(yàn)問題,而AI
PC以本地推理為主,有效縮減響應(yīng)時(shí)間,在離線狀態(tài)下仍具備可操作性。更低的大模型使用成本:用戶購(gòu)買AI
PC后,可享受全生命周期的本地免費(fèi)推理服務(wù),疊加有限的云端訂閱,可以在不降低用戶體驗(yàn)的前提下,顯著降低用戶使用AI大模型服務(wù)的成本??尚?、安全的個(gè)人數(shù)據(jù)和隱私保障:隱私數(shù)據(jù)在本地進(jìn)行推理,可以有效避免敏感信息因上傳遠(yuǎn)程服務(wù)器處理而帶來的泄露等問題,AIPC有專門用于存儲(chǔ)用戶特定類型文件與數(shù)據(jù)的安全空間,確保個(gè)人、企業(yè)用戶的數(shù)據(jù)安全和隱私保障。通用場(chǎng)景下個(gè)性化服務(wù)資料:IDC、國(guó)信證券經(jīng)濟(jì)研究所整理AIPC:價(jià)格親民,支撐滲透率提升邏輯?
AI
PC價(jià)格親民,滲透率有望快速提升。根據(jù)IDC預(yù)測(cè)數(shù)據(jù),消費(fèi)市場(chǎng)、中小企業(yè)市場(chǎng)、大型企業(yè)市場(chǎng)AI
PC價(jià)格相對(duì)于傳統(tǒng)PC提升幅度較小,同時(shí)AI
PC將給用戶帶來豐富的用戶體驗(yàn),AI
PC滲透率有望快速提升。?消費(fèi)市場(chǎng)AIPC價(jià)格:根據(jù)IDC預(yù)測(cè)數(shù)據(jù),AI筆記本電腦平均價(jià)格在5500-6500元之間,AI臺(tái)式電腦平均價(jià)格在4000元左右,預(yù)計(jì)24年后AI
PC價(jià)格穩(wěn)步上漲;??中小企業(yè)市場(chǎng)AIPC價(jià)格:根據(jù)IDC預(yù)測(cè)數(shù)據(jù),AI筆記本電腦平均價(jià)格在5000-6000元之間,AI臺(tái)式電腦平均價(jià)格在3500元左右,價(jià)格穩(wěn)中有漲;大型企業(yè)市場(chǎng)AIPC價(jià)格:根據(jù)IDC預(yù)測(cè)數(shù)據(jù),AI筆記本電腦平均價(jià)格在5500-6000元之間,AI臺(tái)式電腦平均價(jià)格在4000元左右,價(jià)格穩(wěn)中有漲。中國(guó)市場(chǎng)主流臺(tái)式機(jī)價(jià)格趨勢(shì)消費(fèi)市場(chǎng):AIPC價(jià)格預(yù)測(cè)中小企業(yè)市場(chǎng):AIPC價(jià)格預(yù)測(cè)大型企業(yè)市場(chǎng):AIPC價(jià)格預(yù)測(cè)36大中城市日用工業(yè)消費(fèi)品平均價(jià)格:電腦(主流品牌臺(tái)式機(jī),單位:元)43004250420041504100405040003950390038502018/1/1
2019/3/1
2020/5/1
2021/7/1
2022/9/1資料:Wind、國(guó)信證券經(jīng)濟(jì)研究所整理資料:IDC、國(guó)信證券經(jīng)濟(jì)研究所整理資料:IDC、國(guó)信證券經(jīng)濟(jì)研究所整理資料:IDC、國(guó)信證券經(jīng)濟(jì)研究所整理AIPC:迎來AI
PC元年,市場(chǎng)規(guī)模快速增長(zhǎng)?
PC新機(jī)中AI
PC占比持續(xù)提升,迎來AI
PC元年。隨著應(yīng)用場(chǎng)景的持續(xù)拓展,AI
PC在中國(guó)PC市場(chǎng)新機(jī)出貨量中占比快速提升,根據(jù)IDC預(yù)測(cè)數(shù)據(jù),2023年AI
PC在PC新機(jī)出貨量中占比為8.1%,預(yù)計(jì)24年將大幅提升至54.7%,迎來AI
PC元年。?隨著滲透率提升,AI
PC市場(chǎng)規(guī)??焖僭鲩L(zhǎng)。根據(jù)IDC預(yù)測(cè)數(shù)據(jù),2023年AI筆記本+臺(tái)式電腦在消費(fèi)市場(chǎng)、中小企業(yè)市場(chǎng)、大型企業(yè)市場(chǎng)合計(jì)銷售額分別為141、32、2.3億元,預(yù)計(jì)27年將分別提升至1312、547、449億元人民幣,AI
PC市場(chǎng)規(guī)??焖僭鲩L(zhǎng)。PC新機(jī)中AIPC出貨量占比持續(xù)提升,迎來AIPC元年AI
PC市場(chǎng)規(guī)??焖僭鲩L(zhǎng)消費(fèi)市場(chǎng)AI
PC銷售額(億)
中小企業(yè)市場(chǎng)AI
PC銷售額(億)
大型企業(yè)市場(chǎng)AI
PC銷售額(億)25002000150010005004495471312020232027資料:IDC、國(guó)信證券經(jīng)濟(jì)研究所整理資料:IDC、國(guó)信證券經(jīng)濟(jì)研究所整理AI手機(jī):硬件側(cè)-AI手機(jī)芯片發(fā)布節(jié)奏提速,高算力支撐更大模型?
AI手機(jī)芯片發(fā)布節(jié)奏提速,高算力支撐更大模型推理。AI大模型部署在手機(jī)終端運(yùn)行,利用手機(jī)自身算力進(jìn)行AI大模型的推理,手機(jī)算力的大小決定了其能承載AI模型的大?。唤?,谷歌、高通、聯(lián)發(fā)科等頭部廠商先后發(fā)布專用AI手機(jī)芯片,為手機(jī)終端提供了強(qiáng)大的算力支持,進(jìn)而可以搭載更大參數(shù)量的AI模型,帶來更豐富的應(yīng)用功能和更好的用戶體驗(yàn)。???Google
Tensor
G3(23年10月):芯片采用9核心架構(gòu)(1個(gè)Cortex-X3超大核+4個(gè)Cortex-A715大核+4個(gè)Cortex-A510小核),該架構(gòu)使TensorG3在處理多任務(wù)和復(fù)雜計(jì)算時(shí)更為高效;目前,谷歌手機(jī)Pixel8和Pixel
8Pro已經(jīng)搭載該芯片,其支撐運(yùn)行機(jī)器學(xué)習(xí)模型的數(shù)量是Pixel6(即使用第一代Tensor芯片)的2倍。高通驍龍8Gen3(23年10月):芯片采用“1+5+2”架構(gòu)(1個(gè)Cortex-X4+5個(gè)Cortex-A720+2個(gè)Cortex-A520),NPU升級(jí)為Hexagon,AI算力高達(dá)73
TOPS,是高通首個(gè)專為生成式AI而打造的移動(dòng)平臺(tái),已支持運(yùn)行超100億參數(shù)大模型。目前,小米14、小米14
pro、iQOO12、
iQOO12Pro等機(jī)型已經(jīng)搭載該芯片。天璣9300(23年11月):芯片采用“4+4”架構(gòu)(4個(gè)Cortex-X4+4個(gè)Cortex-A720
),集成第七代APU790
AI處理器,全鏈路對(duì)生成式AI進(jìn)行優(yōu)化,整數(shù)、浮點(diǎn)運(yùn)算性能都提升了2倍,同Vivo深度合作,已經(jīng)實(shí)現(xiàn)70億參數(shù)大模型端側(cè)落地。目前,Vivo
X100、Vivo
X100
Pro等機(jī)型已經(jīng)搭載該芯片。GoogleTensorGen3高通驍龍8Gen3天璣9300資料:谷歌、國(guó)信證券經(jīng)濟(jì)研究所整理資料:高通、國(guó)信證券經(jīng)濟(jì)研究所整理資料:聯(lián)發(fā)科、國(guó)信證券經(jīng)濟(jì)研究所整理AI手機(jī):模型側(cè)-蒸餾、剪枝等壓縮技術(shù)支持,多款手機(jī)專用AI大模型發(fā)布?蒸餾、剪枝等模型壓縮技術(shù)支持,AI大模型進(jìn)邊側(cè)成為可能??紤]到邊側(cè)設(shè)備算力、功耗等問題,大規(guī)模參數(shù)的AI模型無法直接部署在手機(jī)等端側(cè)設(shè)備運(yùn)行,蒸餾、剪枝等模型壓縮技術(shù)支持,可以在保留模型大部分能力的同時(shí),大幅降低模型參數(shù)量,AI大模型邊側(cè)部署成為可能。?多款手機(jī)專用AI大模型發(fā)布,邊側(cè)AI大模型進(jìn)入加速期。1)谷歌:23年5月,谷歌發(fā)布PaLM
2大模型,其中,最輕量級(jí)的Gecko模型可以直接在各種智能手機(jī)設(shè)備上本地化運(yùn)行,每秒可以處理約20個(gè)token,基本滿足移動(dòng)設(shè)備用戶的需要;23年12月,谷歌發(fā)布Gemini新一代AI大模型,其中Gemini
Nano為端側(cè)大模型,參數(shù)量有18億和32.5億兩個(gè)版本,可直接在手機(jī)上部署。2)手機(jī)廠商:小米自研MiLM-1.3B/6B大模型,小米14已接入自研大模型,可以實(shí)現(xiàn)撰寫文字、AI擴(kuò)圖等功能;Vivo自研“藍(lán)心”AI大模型,其中10億、70億版本是面向端側(cè)定制,可以實(shí)現(xiàn)文本總結(jié)、文本創(chuàng)作等功能,目前Vivo
X100已接入大模型。模型蒸餾谷歌PaLM
2最小版本可直接在手機(jī)側(cè)運(yùn)行Loss(2)(3)(2)教師模型學(xué)生模型(1)數(shù)據(jù)生成器(1):數(shù)據(jù)生成器生成大量遷移數(shù)據(jù),分別送入教師模型和學(xué)生模型;(2):將教師模型的輸出作為真實(shí)值,衡量學(xué)生模型的輸出與它之間的損失;(3):通過梯度下降等方法更新學(xué)生模型的權(quán)重,使學(xué)生模型的輸出與教師模型的輸出更加接近,從而達(dá)到小模型擬合大模型的效果。資料
:談繼勇著-《深度學(xué)習(xí)500問——AI工程師面試寶典》-電子工業(yè)出版社(2021年)-P557
、國(guó)信證券經(jīng)濟(jì)研究所整理資料:谷歌、國(guó)信證券經(jīng)濟(jì)研究所整理目錄AI大模型:多模態(tài)方向延伸,視頻模型迎來發(fā)展元年AI算力:國(guó)產(chǎn)算力迎歷史機(jī)遇期0102AI邊緣側(cè)布局正當(dāng)時(shí),
AI
PC和手機(jī)值得期待AI重塑應(yīng)用百態(tài),商業(yè)落地逐步兌現(xiàn)0304投資建議:看好AI產(chǎn)業(yè)持續(xù)催化,維持“超配”評(píng)級(jí)05AI+自動(dòng)駕駛:短期看感知側(cè)大模型化?
感知側(cè)過去主要應(yīng)用經(jīng)典的CNN(ResNet/Yolo)進(jìn)行白名單識(shí)別,如今BEV+Transformer成為主流,且模型參數(shù)量不斷提升并走向無監(jiān)督。?Tesla
21
AI
Day展示BEV+Transformer,將Transformer模型用到了自動(dòng)駕駛領(lǐng)域,利用強(qiáng)大的Transformer模型統(tǒng)一處理傳感器數(shù)據(jù)為鳥瞰圖(Birds’Eyes
View)的時(shí)空信息,而非CNN的僅空間信息,且CLIP為代表的模型能推理訓(xùn)練集中沒有的標(biāo)簽,為后續(xù)統(tǒng)一的端到端模型打下基礎(chǔ)。?Tesla
22
AI
Day展示了Occupancy
Network(占用網(wǎng)絡(luò)),將2D圖像轉(zhuǎn)3D空間并預(yù)測(cè)空間中每個(gè)點(diǎn)被占用的概率,無監(jiān)督不再需要事先的白名單。自動(dòng)駕駛流程:感知、決策、控制CNN學(xué)習(xí)如何將圖像劃分到已知的標(biāo)簽類,沒見過則束手無策訓(xùn)練的標(biāo)簽中不含有“貓”的話則無法識(shí)別,會(huì)撞上去感知層:五官
決策層:大腦易控制層:四肢
資料:Think
Autonomous、國(guó)信證券經(jīng)濟(jì)研究所整理資料:Think
Autonomous、國(guó)信證券經(jīng)濟(jì)研究所整理占用網(wǎng)絡(luò)預(yù)測(cè)空間中每個(gè)點(diǎn)的“占用”,因此即使沒見過也能識(shí)別占用網(wǎng)絡(luò)18年便提出,實(shí)現(xiàn)并不難,難在高質(zhì)量數(shù)據(jù)覆蓋邊角情況資料:Tesla、國(guó)信證券經(jīng)濟(jì)研究所整理資料:GitHub、國(guó)信證券經(jīng)濟(jì)研究所整理AI+自動(dòng)駕駛:長(zhǎng)期從模塊化走向端到端?過去自動(dòng)駕駛?cè)缤瑐鹘y(tǒng)車企模塊化造車,多個(gè)不同模塊覆蓋不同功能共同協(xié)作,且需要大量手寫規(guī)則。?Tesla
FSD
v12之前用類似MoE的架構(gòu),幾個(gè)稍小的神經(jīng)網(wǎng)絡(luò)共同協(xié)作,如Occupancy
Network預(yù)測(cè)空間占用,HydraNet識(shí)別車道線等,再由決策網(wǎng)絡(luò)給出潛在路徑并打分選取最高分的路徑執(zhí)行。?
Tesla
FSDv12采用端到端的模式,一個(gè)大型神經(jīng)網(wǎng)絡(luò)直接接受視覺輸入并輸出執(zhí)行動(dòng)作。?模型變大背后是海量高質(zhì)量數(shù)據(jù)集,讓模型不至于過擬合的同時(shí)獲得涌現(xiàn)能力。端到端模型2016年便出現(xiàn)了,但受限于數(shù)據(jù)僅僅是一個(gè)玩具模型。FSDv12看上去代碼數(shù)量從原來包含手寫規(guī)則的30
多萬行縮減到了搭建神經(jīng)網(wǎng)絡(luò)的2000
行,實(shí)際上背后是數(shù)百萬輛Tesla汽車采集數(shù)年Corner
case得到的數(shù)據(jù)集經(jīng)由充分訓(xùn)練得到的參數(shù)量未知的大模型。?模型變大背后也需要大量的訓(xùn)練算力支撐不斷迭代。Tesla根據(jù)自身工作負(fù)載設(shè)計(jì)了ASIC集群Dojo,和Nvidia集群一起完成FSD的訓(xùn)練。FSDv12之前的模塊化架構(gòu)FSDv12用一個(gè)神經(jīng)網(wǎng)絡(luò)完成多個(gè)流程目前Tesla全球第二多的A100和第四多H100資料:Tesla、國(guó)信證券經(jīng)濟(jì)研究所整理資料:eet-China、國(guó)信證券經(jīng)濟(jì)研究所整理資料:StateofAI、國(guó)信證券經(jīng)濟(jì)研究所整理AI+自動(dòng)駕駛:低成本化趨勢(shì)持續(xù)?低部署成本:激光?
2Q23
Tesla電話會(huì)稱與OEM洽談FSD授權(quán)。歷史上看Tesla也不在意(創(chuàng)新和規(guī)模效應(yīng)帶來的)成本優(yōu)勢(shì)之外的護(hù)城河,例如開放超充網(wǎng)絡(luò)給第三方。如若FSD開放授權(quán),不需要激光
的FSD對(duì)其他車企由于成本優(yōu)勢(shì)更具吸引力。等成本仍是產(chǎn)業(yè)趨勢(shì),例如搭載3顆激光、高精度地圖等的成本較高,Tesla因而采用了純視覺、無圖的技術(shù)路徑。?短期通過激光+多模態(tài)信息融合可以快速?gòu)浹a(bǔ)視覺模型的不足,但長(zhǎng)期降低的阿維塔11定價(jià)達(dá)40萬。?低推理成本:新能源車上的AI芯片需要做到低能耗、低延遲同時(shí)有一定的算力,Tesla因而從Nvidia
GPU切換至自研NPU。主流廠商解綁高精地圖以降低成本
純視覺方案更具成本優(yōu)勢(shì)
Tesla自研NPU以滿足FSD需求時(shí)間廠商措施完全去高精地圖自動(dòng)駕駛解決方案DeepRoute-Driver
3.0特斯拉Model
Y設(shè)備價(jià)格小鵬G612個(gè)5個(gè)3月22日
元戎啟行3月30日
小鵬汽車4月2日
大疆車載4月11日
毫末智行4月12日
智己汽車4月16日芯片CPUCPU頻率NPU數(shù)量NPU頻率單NPU算力SoC總算力內(nèi)存FSD112
A722.2GHz2FSD220
ARMv82.35
GHz32.2GHz40.55
TOPs121.65
TOPsGDDR614000
MT/s16GB224
GB/s三星
5nm推出不依賴高精地圖的XNGP
預(yù)計(jì)在24年實(shí)現(xiàn),超聲波100元內(nèi)00不依賴高精地圖全場(chǎng)景下的輔助駕駛?cè)乱淮悄荞{駛解決方案,不依賴高精地圖、1500-2000元2GHz不依賴激光、僅有攝像頭的純視覺方案毫米波激光36.86
TOPs73.7
TOPsLPDDR44266
MT/s8GB發(fā)布其重感知輕地圖的城市NOA方案,搭載在長(zhǎng)城旗下魏牌摩卡以及藍(lán)山上城市NOA領(lǐng)航輔助以及替代高精地圖的數(shù)據(jù)驅(qū)動(dòng)道路環(huán)境感知模型,已開啟公測(cè)6000-7000元2個(gè)0內(nèi)存速率內(nèi)存容量?jī)?nèi)存帶寬制程發(fā)布HUAWEI
ADS2.0
問界M5智駕版將成為首,攝像頭200元內(nèi)12個(gè)約3萬8個(gè)約1萬個(gè)搭載的車型,預(yù)計(jì)年底推廣到45城年底計(jì)劃向全國(guó)一百個(gè)城市推送城市NOA功能,68.3
GB/s三星
14nm總成本4月18日
理想汽車
其NOA架構(gòu)同樣不依賴高精地圖,僅需導(dǎo)航地圖即可實(shí)現(xiàn)城市OA功能資料:36Kr、國(guó)信證券經(jīng)濟(jì)研究所整理資料:汽車之家、國(guó)信證券經(jīng)濟(jì)研究所整理資料:SemiAnalysis、國(guó)信證券經(jīng)濟(jì)研究所整理AI+自動(dòng)駕駛:大模型提升合成數(shù)據(jù)與自動(dòng)標(biāo)注效率?
合成數(shù)據(jù)做真實(shí)數(shù)據(jù)的“杠桿”,彌補(bǔ)真實(shí)數(shù)據(jù)“數(shù)量不足”,補(bǔ)充Corner
case。?
利用大模型(World
model)合成數(shù)據(jù)能兼顧隱私保護(hù)與數(shù)據(jù)的可用性、高效生成在真實(shí)場(chǎng)景中很難獲取的Corner
Case、緩解數(shù)據(jù)不足時(shí)過擬合的問題,加速模型落地。?
利用大模型對(duì)數(shù)據(jù)自動(dòng)標(biāo)注,從而實(shí)現(xiàn)FSD快速迭代、快速解決corner
cases的效果。?
早期Tesla在2D圖像上手動(dòng)標(biāo)注,如今采用4D自動(dòng)標(biāo)注,即用大模型重構(gòu)出3D空間和時(shí)序信息,再重建出道路和車輛等標(biāo)簽信息。用法如Tesla
派了一龐大的車隊(duì),采集了1萬+惡劣天氣場(chǎng)景的視頻片段,然后在一周內(nèi)就自動(dòng)標(biāo)注完了,然后送到網(wǎng)絡(luò)里面去訓(xùn)練。UniSim等大模型可以高效合成數(shù)據(jù),加速模型落地自動(dòng)標(biāo)注系統(tǒng)幫助FSD快速迭代,形成數(shù)據(jù)閉環(huán)資料:eet-China、國(guó)信證券經(jīng)濟(jì)研究所整理資料:九章智駕、國(guó)信證券經(jīng)濟(jì)研究所整理AI+自動(dòng)駕駛:激光+大模型的無圖方案?硬件層面,自研了傳感器(特別是激光)和SoC芯片。??激光激光通過向四周散射激光,基于反饋判斷周邊是否存在障礙并生成點(diǎn)云圖。好處是抗干擾能力強(qiáng)、獲得精確的景深數(shù)據(jù),但壞處是成本較高數(shù)量減少。早期合作推出的極狐阿爾法S
HI版和阿維塔11配備了三顆激光,最終定價(jià)都觸及了40萬元的高位。后期問界M5、M7以及智界S7只采用一顆自研的激光以降低成本。?軟件層面,AI模型對(duì)標(biāo)Te
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 【初中生物】真菌-2024-2025學(xué)年七年級(jí)生物上冊(cè)同步教學(xué)課件(人教版2024)
- 【初中生物】微生物的分布-2024-2025學(xué)年七年級(jí)生物上冊(cè)同步備課課件(人教版2024)
- 2024就智能工廠建設(shè)與運(yùn)營(yíng)的合資合同
- 2024年度清雪業(yè)務(wù)承包合同
- 2024年度特許經(jīng)營(yíng)與加盟合同
- 2024建設(shè)工程的項(xiàng)目合作協(xié)議合同范本
- 2024個(gè)人小額貸款合同
- 2024股份合伙人合同范本
- 2024年工程設(shè)計(jì)合作伙伴協(xié)議
- 2024年度原材料采購(gòu)擔(dān)保合同
- 工業(yè)自動(dòng)化系統(tǒng)集成項(xiàng)目驗(yàn)收方案
- 新教科版科學(xué)六年級(jí)上冊(cè)全冊(cè)實(shí)驗(yàn)匯總 (超全)
- 王洪圖黃帝內(nèi)經(jīng)80課時(shí)講稿
- 攤鋪機(jī)司機(jī)班組級(jí)安全教育試卷
- 重癥肌無力指南
- 限制被執(zhí)行人駕駛令申請(qǐng)書
- 項(xiàng)目主要施工管理人員情況
- 個(gè)人借條電子版模板
- 關(guān)于學(xué)習(xí)“國(guó)語普通話”發(fā)聲亮劍【三篇】
- 玻璃廠應(yīng)急預(yù)案
- 嬰幼兒游戲照料(嬰幼兒回應(yīng)性照護(hù)課件)
評(píng)論
0/150
提交評(píng)論