電子行業(yè)分析_第1頁
電子行業(yè)分析_第2頁
電子行業(yè)分析_第3頁
電子行業(yè)分析_第4頁
電子行業(yè)分析_第5頁
已閱讀5頁,還剩38頁未讀 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡介

電子行業(yè)分析一、需求測算:ChatGPT開啟AI奇點(diǎn),AI服務(wù)器需求大幅提升(一)GPT大模型和應(yīng)用迭代速度加快,日新月異百花齊放ChatGPT是美國OpenAI公司于2022年11月30日發(fā)布的基于GPT-3.5大模型的聊天機(jī)器人程序,采用自然語言技術(shù),能完成撰寫郵件、代碼、翻譯等任務(wù),開啟“AI的iPhone時(shí)刻”。2023年1月末,ChatGPT的月活用戶突破1億,成為史上增長最快的消費(fèi)者應(yīng)用。2月7日,谷歌發(fā)布對話型AI系統(tǒng)Bard迎戰(zhàn)ChatGPT。2月8日,微軟將ChatGPT接入Bing搜索。3月15日,OpenAI發(fā)布了GPT-4,支持多模態(tài)輸入。3月16日,微軟發(fā)布了植入GPT-4技術(shù)的Copilot,AI助力Office軟件生產(chǎn)力大提升。3月16日,百度發(fā)布了大模型文心一言,并啟動內(nèi)測。3月20日,阿里達(dá)摩院上線“文本生成視頻大模型”,目前僅支持英文輸入。2023年3月24日,OpenAI發(fā)布ChatGPTPlugin,支持第三方插件接入,并同時(shí)開源知識庫檢索插件源代碼,“AI的AppStore時(shí)刻”到來。3月27日,百度推出“文心千帆”大模型平臺,面向客戶提供企業(yè)級大語言模型服務(wù)。3月28日,騰訊AILab發(fā)布自研3D游戲場景自動生成解決方案,使用AIGC技術(shù)。AI模型的訓(xùn)練和推理:(1)訓(xùn)練是指,通過對海量數(shù)據(jù)的學(xué)習(xí),神經(jīng)網(wǎng)絡(luò)找到海量數(shù)據(jù)集中的給定的輸入與結(jié)果之間的關(guān)系(搭建模型),并最終確定決定該關(guān)系的變量中所有參數(shù)的權(quán)重(Weights)和偏差(Bias)。(2)推理是指,通過使用訓(xùn)練后的模型,把神經(jīng)網(wǎng)絡(luò)在訓(xùn)練中學(xué)習(xí)到的能力(搭建的模型)應(yīng)用到之后工作中去,例如圖片識別、數(shù)據(jù)分析等??偨Y(jié)來看,生成一個(gè)大模型即為訓(xùn)練的過程,而將搭建好的模型于實(shí)際應(yīng)用中使用,則為推理過程。在AIGC大模型的訓(xùn)練和推理過程中,需要大量的高性能計(jì)算(HPC)算力支持。(二)模型訓(xùn)練&推理算力需求測算(1)AI大模型在訓(xùn)練階段算力需求測算。我們以參考NVIDIA發(fā)表的文章《EfficientLarge-ScaleLanguageModelTrainingonGPUClustersUsingMegatron-LM》中對不同參數(shù)GPT模型算力需求的計(jì)算方法及NVIDIAA100在模型訓(xùn)練過程的參數(shù),對以GPT-3.5175B為代表的大模型的訓(xùn)練算力需求進(jìn)行測算,測算主要基于以下關(guān)鍵假設(shè):①考慮到大模型訓(xùn)練的時(shí)間要求,假設(shè)模型單次訓(xùn)練時(shí)間為30天,即每年可進(jìn)行約12次訓(xùn)練;②訓(xùn)練階段每個(gè)A100吞吐效率為48%。此外,我們假設(shè)每臺AI服務(wù)器均配有8張A100。由此測算,單個(gè)GPT-3.5175B參數(shù)量AI大模型訓(xùn)練而新增的NVIDIAA100需求空間為1080個(gè),新增的AI服務(wù)器需求為135臺??紤]到各大互聯(lián)網(wǎng)巨頭正在/計(jì)劃訓(xùn)練的模型參數(shù)量仍在持續(xù)增加,未來模型訓(xùn)練參數(shù)量可能達(dá)到萬億級別;同時(shí)越來越多的互聯(lián)網(wǎng)公司加入大模型訓(xùn)練的陣營;我們基于以下關(guān)鍵假設(shè),對用于大模型訓(xùn)練的NVIDIAA100、AI服務(wù)器的需求做關(guān)于模型參數(shù)、模型訓(xùn)練個(gè)數(shù)的敏感型分析。①假設(shè)模型單次訓(xùn)練時(shí)間為30天;②假設(shè)訓(xùn)練階段每個(gè)A100吞吐效率為48~52%。(2)AI大模型在推理階段算力需求測算。ChatGPT活躍用戶數(shù)量迅速增加、BING搜索引擎開始接入ChatGPT、百度發(fā)布文心一言并啟動內(nèi)測,以GPT為代表的大語言AI模型在文字推理/生成領(lǐng)域的應(yīng)用加速落地;此外,基于GPT的midjourney展現(xiàn)出較強(qiáng)的圖片創(chuàng)作能力,Adobe也發(fā)布了可生成圖片、視頻、聲音等內(nèi)容的模型Firefly,AI模型在多媒體領(lǐng)域的推理/生成應(yīng)用也在快速發(fā)展??紤]到AI模型在文字生成領(lǐng)域應(yīng)用落地進(jìn)展較快,我們對這一部分推理算力需求進(jìn)行測算,基于以下關(guān)鍵假設(shè):①參考谷歌月均搜索次數(shù),假設(shè)一個(gè)谷歌級應(yīng)用每日的搜索次數(shù)為30億次;并假設(shè)30億次問答在每日24小時(shí)中均勻分布;②假設(shè)單次問答總字?jǐn)?shù)為1850字。由此測算,單個(gè)應(yīng)用GPT-3.5175B模型的谷歌級文字推理應(yīng)用新增的NVIDIAA100需求空間為72萬個(gè),新增的AI服務(wù)器需求為9萬臺。(三)算力需求推動AI服務(wù)器增長,OMD廠商及相關(guān)硬件步入黃金時(shí)代AIGC大幅提升HPC算力需求,推動AI服務(wù)器增長。AIGC大模型的訓(xùn)練和推理需要大量的高性能計(jì)算(HPC)算力支持,對AI服務(wù)器需求提升。據(jù)Trendforce數(shù)據(jù),預(yù)估2022年搭載GPGPU的AI服務(wù)器年出貨量占整體服務(wù)器比重近1%,即約14萬臺。預(yù)計(jì)2023年出貨量年成長可達(dá)8%,2022~2026年CAGR達(dá)10.8%。根據(jù)上文對訓(xùn)練&推理算力需求測算,并以TrendForce數(shù)據(jù)預(yù)估2022年搭載GPGPU的AI服務(wù)器出貨量14萬臺為基數(shù),測算訓(xùn)練側(cè)與推理側(cè)AI服務(wù)器需求對服務(wù)器出貨量的拉動。100個(gè)175B訓(xùn)練模型對AI服務(wù)器出貨量的拉動為9.6%,10個(gè)使用GPT-3.5175B模型的谷歌級推理應(yīng)用對全球AI服務(wù)器出貨量的拉動為643%。ODM廠商重要性日益提升。伴隨著AI硬件市場迅速成長,相關(guān)服務(wù)器ODM廠商重要性日益凸顯。英偉達(dá)于2017年啟動全球頂尖ODM伙伴合作計(jì)劃,與包括鴻海(富士康)在內(nèi)的中國臺灣服務(wù)器設(shè)計(jì)生產(chǎn)大廠成為合作伙伴,加速應(yīng)用于AI的各種需求。通過HGX合作伙伴計(jì)劃,英偉達(dá)將提供所有ODM廠商早期使用HGX參考架構(gòu)、GPU運(yùn)算技術(shù)以及設(shè)計(jì)準(zhǔn)則等資源。利用HGX作為此領(lǐng)域的切入點(diǎn),ODM伙伴廠商能與英偉達(dá)合作加快設(shè)計(jì),并針對超大規(guī)模數(shù)據(jù)中心推出各種類型的認(rèn)證GPU加速系統(tǒng)。英偉達(dá)工程師將通過此計(jì)劃與ODM廠商密切合作,協(xié)助縮短從設(shè)計(jì)到產(chǎn)品部署上市的進(jìn)程。ODM廠商受益于AI服務(wù)器量價(jià)齊升,成長空間廣闊。依據(jù)上文所述,在ChatGPT等新興AI產(chǎn)品對算力、帶寬、GPU、高容量儲存、先進(jìn)散熱與節(jié)能需求激增的背景下,云計(jì)算基礎(chǔ)設(shè)施作為算力AI服務(wù)資源,其重要性日益突顯。在出貨量將迎來顯著提升。而AI服務(wù)器內(nèi)部除了2顆CPU外,一般還要配備4/8顆GPGPU以及一系列的相關(guān)配套芯片,AI訓(xùn)練服務(wù)器因?yàn)槠鋵λ懔π枨蟾?,單機(jī)價(jià)格較普通服務(wù)器將有較大的提升,通用服務(wù)器價(jià)格一般為幾千美金/臺,而主流AI服務(wù)器價(jià)格多在10-15萬美金/臺。AI服務(wù)器與通用服務(wù)器不同,除了2顆CPU外,一般還要配備4/8顆GPGPU。。根據(jù)counterpoint的數(shù)據(jù),2022年全球服務(wù)器市場的收入同比增長17%,達(dá)1117億美元。從市場份額的角度來看,2022年ODM的增長速度比2021年的整體市場高3個(gè)百分點(diǎn),其中工業(yè)富聯(lián)(Foxconn)在ODM廠商中占比最高,占比超過13%,表明轉(zhuǎn)向ODMDirect作為大規(guī)模數(shù)據(jù)中心部署硬件選擇這一趨勢越發(fā)明顯。隨“算力革命”的加速爆發(fā),在算力需求增長的背景下,作為占比最高的ODM企業(yè),工業(yè)富聯(lián)將依托在云服務(wù)器、高性能服務(wù)器、AI服務(wù)器、邊緣服務(wù)器及云儲存設(shè)備等領(lǐng)域的技術(shù)和產(chǎn)品積累,以及所擁有的全球頂尖客戶群和海量生產(chǎn)數(shù)據(jù),深化在算力市場的布局,有望獲取更多的AI服務(wù)器需求,加速實(shí)現(xiàn)價(jià)值釋放。2017年,英偉達(dá)與微軟和鴻佰科技(富士康旗下公司)共同發(fā)布第一代HGX-1系統(tǒng),搭載八顆TeslaP100GPU以實(shí)現(xiàn)高效AI計(jì)算功能。在此之后,公司隨英偉達(dá)GPU產(chǎn)品升級,持續(xù)對HGX系統(tǒng)升級,陸續(xù)推出HGX3/HGX4系列產(chǎn)品,其中HGX4運(yùn)算能力達(dá)到HGX1的32倍,可支持高效的平行運(yùn)算能力,助力行業(yè)迎接AI帶來的時(shí)代改變。AI服務(wù)器較內(nèi)部構(gòu)造更為復(fù)雜,AI服務(wù)器內(nèi)部產(chǎn)品市場空間廣闊。以英偉達(dá)DGXA100為例,其內(nèi)部包含了8顆A100GPU、2個(gè)64核AMDRomeCPU、2TBRAM、30TBGen4NVMESSD、6個(gè)NVIDIANVSwitch以及10個(gè)NVIDIAConnext-7200Gb/s網(wǎng)卡。除ODM廠商受益于服務(wù)器AI升級,成長空間廣闊外,AI服務(wù)器內(nèi)部的算力芯片(GPU等)、連接產(chǎn)品(光模塊、PCIeretimer、PCB等)、存儲芯片(DRAM、NAND、HBM等)市場規(guī)模都有望迎來顯著提升。后文中我們將分別對服務(wù)器中算、連、存三塊核心產(chǎn)品進(jìn)行分析,并對下游應(yīng)用領(lǐng)域前景進(jìn)行展望。二、算力芯片:AI服務(wù)器硬件成本的主要構(gòu)成,海內(nèi)外大廠積極布局(一)算力芯片是處理訓(xùn)練與推理的核心算力芯片是AI服務(wù)器中處理訓(xùn)練與推理的核心。在模型訓(xùn)練和推理的過程中需要大量的計(jì)算,其本質(zhì)是在網(wǎng)絡(luò)互聯(lián)層中將大矩陣輸入數(shù)據(jù)和權(quán)重相乘,因此主要的計(jì)算方式為矩陣計(jì)算。在矩陣計(jì)算中,每個(gè)計(jì)算都是獨(dú)立于其他計(jì)算的,因此可以通過并行計(jì)算的方法來對計(jì)算過程進(jìn)行加速。由于算力芯片相比于CPU擁有更多獨(dú)立核心,因此深度學(xué)習(xí)和神經(jīng)網(wǎng)絡(luò)模型在算力芯片的加持下,采用高度并行的方式進(jìn)行計(jì)算,可更高效地完成計(jì)算任務(wù)。從技術(shù)架構(gòu)來看,算力芯片主要分為GPU、FPGA、ASIC三大類。其中,GPU是較為成熟的通用型人工智能芯片,而FPGA和ASIC則是針對人工智能需求特征的半定制和全定制芯片。英偉達(dá)引領(lǐng)行業(yè)技術(shù)升級。NVIDIA是GPU的龍頭企業(yè),針對高性能計(jì)算,英偉達(dá)從2016年開始,陸續(xù)推出了Pascal、Volta、Turing、Ampere、Hopper五個(gè)平臺架構(gòu)。其GPGPU去掉或減弱了GPU的圖形顯示部分能力,將其余部分全部投入與圖形處理無關(guān)的通用計(jì)算。隨著架構(gòu)持續(xù)迭代升級,其算力芯片產(chǎn)品在支持的數(shù)據(jù)類型、計(jì)算能力以及互聯(lián)帶寬等核心參數(shù)均有顯著提升,對AIGC的發(fā)展起到了關(guān)鍵的推動作用。英偉達(dá)于2020年和2022年相繼推出針對AI、數(shù)據(jù)分析和HPC應(yīng)用場景的兩款產(chǎn)品:A100和H100。與A100相比,H100的綜合技術(shù)創(chuàng)新可以將大型語言模型的速度提高30倍,從而提供業(yè)界領(lǐng)先的對話式AI功能。具體到性能參數(shù),同為SXM外形規(guī)格的H100/A100,半精度浮點(diǎn)算力(FP16tensorcore)分別為989.4/312TFLOPS,互連帶寬分別為900/600GB/s。2023年GTC大會上,英偉達(dá)針對ChatGPT等大型語言模型的大規(guī)模部署,推出了H100NVL,其配備雙GPUNVLink,將兩張擁有94GBHBM3顯存的PCIeH100GPU拼接在一起,可處理擁有1750億參數(shù)的GPT-3大模型。與適用于GPT-3的HGXA100相比,一臺搭載四對H100和雙NVLINK的標(biāo)準(zhǔn)服務(wù)器速度能快10倍,可以將大語言模型的處理成本降低一個(gè)數(shù)量級。(二)如何理解并測算GPU算力以英偉達(dá)A100TensorCoreGPGPU為例,其架構(gòu)中包括以下單元:每個(gè)GPU有7個(gè)GPC,每個(gè)GPC有7個(gè)或8個(gè)TPC,每個(gè)TPC有2個(gè)SM,每個(gè)GPC最多16個(gè)SM,總共108個(gè)SM。由多個(gè)小核心組成的SM是運(yùn)算和調(diào)度的基本單元,是GPU中處理運(yùn)算功能的核心。其中,每個(gè)SM有64個(gè)FP32CUDA核,64個(gè)INT32CUDA核,32個(gè)FP64CUDA核,以及4個(gè)第三代TensorCore。由于TensorCore因?yàn)閷W⒂诰仃囘\(yùn)算,其矩陣運(yùn)算能力顯著強(qiáng)于CudaCore,可以加速處于深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)訓(xùn)練和推理速度,在維持超低精度損失的同時(shí)大幅加速推理吞吐效率,因此在模型訓(xùn)練與推理的過程中,TensorCore將是主要的計(jì)算內(nèi)核。而在基于GA100的A100TensorCoreGPU中包括以下單元:每個(gè)GPU有7個(gè)GPC,每個(gè)GPC有7個(gè)或8個(gè)TPC,每個(gè)TPC有2個(gè)SM,每個(gè)GPC最多16個(gè)SM,總共108個(gè)SM。由多個(gè)小核心組成的SM(StreamingMultiprocessor)是運(yùn)算和調(diào)度的基本單元。每個(gè)SM有64個(gè)FP32CUDA核,64個(gè)INT32CUDA核,32個(gè)FP64CUDA核,以及4個(gè)第三代TensorCore,是GPU中處理運(yùn)算功能的核心。CUDACore與TensorCore功能不同。CUDA是英偉達(dá)推出的統(tǒng)一計(jì)算架構(gòu),幾乎每款英偉達(dá)的GPU都有CUDACore,而TensorCore最早出現(xiàn)于于英偉達(dá)2017年發(fā)布的Volta架構(gòu)中,是專為執(zhí)行張量或矩陣運(yùn)算而設(shè)計(jì)的專用執(zhí)行單元。依據(jù)上文所述,矩陣運(yùn)算是神經(jīng)網(wǎng)絡(luò)訓(xùn)練和推理的核心,本質(zhì)是在網(wǎng)絡(luò)互聯(lián)層中將大矩陣輸入數(shù)據(jù)和權(quán)重相乘,而TensorCore因?yàn)閷W⒂诰仃囘\(yùn)算,其矩陣運(yùn)算能力顯著強(qiáng)于CudaCore,可以加速處于深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)訓(xùn)練和推理速度,在維持超低精度損失的同時(shí)大幅加速推理吞吐效率,因此在模型訓(xùn)練與推理的過程中,TensorCore將是主要的計(jì)算內(nèi)核。GPU峰值算力的測算公式為:峰值計(jì)算能力=GPUCore的運(yùn)行頻率*GPUSM數(shù)量*單個(gè)SM對應(yīng)的特定數(shù)據(jù)類型的指令吞吐量*2根據(jù)峰值算力測算公式,A100/H100的峰值計(jì)算能力如下:(1)TensorCore加速后的FP16峰值算力:A100FP16(TensorCore加速)峰值算力=311,869GFLOPS≈312TFLOPSH100FP16(TensorCore加速)峰值算力:=989,429GFLOPS≈989.4TFLOPS(2)CudaCore下的FP32峰值算力:A100FP32(CudaCore)峰值算力=19,491GFLOPS≈19.5TFLOPSH100FP32(CudaCore)峰值算力=66,908GFLOPS≈66.9TFLOPS峰值算力的變量主要集中在特定數(shù)據(jù)類型的指令吞吐量上。在上文以英偉達(dá)A100、H100白皮書中給到的參數(shù)對峰值算力進(jìn)行計(jì)算后,并與英偉達(dá)A100/H100GPU的白皮書中披露的峰值算力進(jìn)行對比,可以發(fā)現(xiàn),該公式計(jì)算的結(jié)果與英偉達(dá)官方披露的性能參數(shù)一致。由此可見,GPU峰值算力與主頻和硬件配置數(shù)量等參數(shù)相關(guān)。算力需求拉動GPGPU市場規(guī)模增長。根據(jù)我們第一章的測算:在訓(xùn)練側(cè),訓(xùn)練一個(gè)GPT-3.5175B模型的NVIDIAA100需求為1080個(gè);訓(xùn)練一個(gè)萬億參數(shù)量AI大模型對A100的需求為8521個(gè)。在推理側(cè),一個(gè)谷歌級應(yīng)用使用GPT-3.5175B進(jìn)行推理,對NVIDIAA100需求為72萬個(gè);一個(gè)谷歌級應(yīng)用使用萬億參數(shù)大模型進(jìn)行推理,對NVIDIAA100需求為378萬個(gè)。NVIDIA作為GPGPU的龍頭企業(yè),其數(shù)據(jù)中心業(yè)務(wù)的收入可以有效反映云計(jì)算和人工智能領(lǐng)域?qū)哂杏?xùn)練或推理功能的GPU卡的需求。2022年NVIDIA數(shù)據(jù)中心業(yè)務(wù)收入達(dá)150.10億美元,同比增長41.50%。我們認(rèn)為,在AIGC需求持續(xù)提升的背景下,以GPGPU為首的算力芯片市場規(guī)模將得到顯著擴(kuò)容。三、連接產(chǎn)品:AI服務(wù)器中應(yīng)用廣泛,ChatGPT催化迎來量價(jià)齊升(一)光芯片/光模塊:DGX服務(wù)器集群架構(gòu)催生大量需求光模塊/光芯片是服務(wù)器集群網(wǎng)絡(luò)的核心部件。為實(shí)現(xiàn)AI大模型訓(xùn)練、科學(xué)計(jì)算等高算力需求工作,需要使用數(shù)百甚至上千個(gè)GPU組成的計(jì)算單元作為算力基礎(chǔ)評估、優(yōu)化模型的配置和參數(shù)。為了使這樣一個(gè)龐大的計(jì)算單元能夠有效發(fā)揮其效率,需要使用低延遲、高帶寬的網(wǎng)絡(luò)聯(lián)接各個(gè)服務(wù)器節(jié)點(diǎn),以滿足服務(wù)器/GPU間計(jì)算、讀取存儲數(shù)據(jù)的互聯(lián)通信需求,同時(shí)對整個(gè)集群系統(tǒng)進(jìn)行管理。服務(wù)器集群的網(wǎng)絡(luò)系統(tǒng)包含服務(wù)器、網(wǎng)卡、交換機(jī)、線纜(包含光模塊)等主要硬件。就網(wǎng)絡(luò)構(gòu)成來看,網(wǎng)卡搭載于服務(wù)器內(nèi)部,網(wǎng)卡直接與CPU相連或通過PCIeSwitch與GPU相連;一層交換機(jī)通過服務(wù)器機(jī)身的端口與服務(wù)器內(nèi)的網(wǎng)卡相連;線纜用于實(shí)現(xiàn)服務(wù)器-交換機(jī)、交換機(jī)-交換機(jī)間的連接,如果信息傳輸以光信號的形式實(shí)現(xiàn),線纜兩端均需要搭載光模塊。參考從DGX-1到DGXH100的服務(wù)器迭代歷程,服務(wù)器搭載網(wǎng)卡數(shù)量、單端口支持最高帶寬均呈現(xiàn)出逐代次增加趨勢;相應(yīng)對支持更高傳輸速率的交換機(jī)、更高傳輸速率的線纜/光模塊帶來了增量需求。在DGXA100和DGXH100網(wǎng)絡(luò)集群中主要使用InfiniBand和以太網(wǎng)兩類網(wǎng)絡(luò)。根據(jù)服務(wù)器工作過程網(wǎng)絡(luò)的功能,可以分為計(jì)算網(wǎng)絡(luò)、存儲網(wǎng)絡(luò)、In-Band管理網(wǎng)絡(luò)、Outof-Band管理網(wǎng)絡(luò)四類。其中計(jì)算和存儲使用IB網(wǎng)絡(luò),In-Band管理和Out-of-Band管理使用以太網(wǎng)。DGXA100服務(wù)器集群中單顆A100對應(yīng)約7顆200G光模塊需求。在140臺DGXA100組成的DGXA100SuperPOD集群中,考慮計(jì)算網(wǎng)絡(luò)和存儲網(wǎng)絡(luò)需求,共有約4000根IB網(wǎng)絡(luò)線纜,對應(yīng)約8000個(gè)端口;在全光互聯(lián)方案中,平均每顆A100對應(yīng)約7個(gè)200G光模塊需求,其中計(jì)算、存儲網(wǎng)絡(luò)分別對應(yīng)6.0、1.2個(gè)200G光模塊需求,合計(jì)對應(yīng)約28個(gè)50G光芯片(收發(fā)芯片)需求。DGXH100服務(wù)器集群中單顆H100對應(yīng)約1.5顆800G光模塊+2顆400G光模塊需求。在128臺DGXH100組成的DGXH100SuperPOD集群中,考慮計(jì)算網(wǎng)絡(luò)和存儲網(wǎng)絡(luò)需求,平均每顆H100對應(yīng)約1.5個(gè)800G光模塊+2個(gè)400G光模塊需求,約20個(gè)100G光芯片(收發(fā)芯片)需求。(二)高速接口芯片:高速接口芯片在服務(wù)器應(yīng)用廣泛NVLink:實(shí)現(xiàn)GPU間高速直聯(lián)。NVLink是一種GPU之間的直接互聯(lián),可擴(kuò)展服務(wù)器內(nèi)的多GPU輸入/輸出。2016年,第一代NVLink搭載基于Pascal架構(gòu)的NvidiaGP100GPU發(fā)布,其傳輸速率可達(dá)160GB/s;目前NVLink已迭代至第四代,第四代NVIDIANVLink總帶寬為900GB/s,是PCIe5.0帶寬的7倍。一代NVLink共有4個(gè)鏈路,單鏈路傳輸速率40GB/s;第二代、第三代、第四代NVLink分別有6、12、18個(gè)鏈路,單鏈路傳輸速率均為50GB/s。NVLink不僅可實(shí)現(xiàn)NVIDIAGPU間互聯(lián),也可以實(shí)現(xiàn)GPU與CPU之間的互聯(lián)(CPU需要支持NVLink協(xié)議,如IBMPOWER9)。第一至第三代NVLink傳輸信號為NRZ調(diào)制的電信號,第四代NVLink傳輸信號為PAM4調(diào)制電信號;在信號傳輸過程,由NVLink控制器+PHY構(gòu)成的組合實(shí)現(xiàn)信號的收發(fā)控制,其中NVLink控制器按照功能又可分為三層:PL、DL、TL。NVSwitch:實(shí)現(xiàn)服務(wù)器內(nèi)更高帶寬、更低延遲、更多GPU間通信。NVIDIA在2018GTC大會發(fā)布了首款節(jié)點(diǎn)交換架構(gòu)——第一代NVSwitch,其上有18個(gè)NVLink端口,在單服務(wù)器節(jié)點(diǎn)內(nèi)通過12個(gè)NVSwitch可以實(shí)現(xiàn)16個(gè)V100以NVLink能夠達(dá)到的最高速度進(jìn)行多對多GPU通信;基于NVLink+NVSwitch實(shí)現(xiàn)服務(wù)器節(jié)點(diǎn)內(nèi)16顆V100互聯(lián)的一臺DGX-2與兩臺通過IB互聯(lián)的DGX-1(每臺內(nèi)有8個(gè)V100)相比,前者AI運(yùn)算速度是后者的兩倍以上。目前NVSwitch已經(jīng)迭代到第三代,單芯片上共有64個(gè)第四代NVLink端口,支持GPU間900GB/s的通信速度,這些通過NVLinkSwitch互聯(lián)的GPU可用作單個(gè)高性能加速器,擁有高達(dá)15petaFLOPS的深度學(xué)習(xí)計(jì)算性能。CPU-DRAM間內(nèi)存接口芯片。內(nèi)存接口芯片是服務(wù)器內(nèi)存模組的核心邏輯器件,以提升內(nèi)存數(shù)據(jù)訪問的速度穩(wěn)定性,滿足服務(wù)器CPU對內(nèi)存模組日益增長的高性能及大容量需求。目前行業(yè)正從DDR4升級至DDR5。據(jù)JEDEC定義,DDR5時(shí)代,RCD和DB需支撐的傳輸速率從3200MT/s提升至DDR5第一子代的4800MT/s,且子代還在繼續(xù)升級中。此外,DDR5世代還需配置1顆SPD、1顆PMIC和2顆TS等配套芯片,行業(yè)迎來量價(jià)齊升。瀾起科技是目前全球唯二可提供DDR5全套芯片的龍頭廠商(其中,SPD與聚辰股份合作提供)。CPU-GPU互聯(lián)芯片。人工智能、云計(jì)算、大數(shù)據(jù)的快速發(fā)展推動服務(wù)器對數(shù)據(jù)傳輸?shù)乃俣仍絹碓礁?,PCIe協(xié)議傳輸速率也快速提升,但主板物理尺寸延展空間有限,信號損耗問題愈發(fā)嚴(yán)重,整個(gè)鏈路插損從PCIe3.0的22dB增長到了PCIe5.0標(biāo)準(zhǔn)下的36dB。PCIeRetimer芯片相較于更換更低損耗的PCB板和Redriver芯片等方案,信號恢復(fù)能力最強(qiáng),性價(jià)比最高,從而漸成為主流方案。當(dāng)前,PCIeRetimer芯片已較多應(yīng)用于AI服務(wù)器、SSD擴(kuò)展卡、Riser卡等典型應(yīng)用場景。根據(jù)AsteraLabs的方案,一臺8卡GPU的AI服務(wù)器需要8顆PCIe4.0Retimer芯片,本輪AIGC趨勢可明顯拉動PCIeRetimer的需求。通用服務(wù)器方面,據(jù)AsteraLabs應(yīng)用方案來看,Retimer芯片可用在NVMeSSD,NIC,Riser卡等多達(dá)8個(gè)應(yīng)用場景使用,單服務(wù)器用量不等。但隨著PCIe5.0的滲透提升,通用服務(wù)器的主板上可有在距離CPU較遠(yuǎn)的Endpoint間使用PCIeRetimer。我們按照單通用服務(wù)器約裝配1-2顆PCIeRetimer芯片。價(jià)格方面,參考TI和AsteraLabs價(jià)格,PCIe4.0Retimer芯片約24美元,PCIe5.0Retimer芯片平均價(jià)格約48.5美元,并預(yù)計(jì)后續(xù)價(jià)格年降。我們測算出PCIeRetimer芯片市場規(guī)模到2026年有望增長至7.27億美元。(三)PCB:AI服務(wù)器需求風(fēng)起,PCB升級浪潮已至AI服務(wù)器高算力需求爆發(fā),推動PCB單機(jī)價(jià)值量提升。PCB起中繼傳輸?shù)淖饔?,是電子元器件的支撐體,服務(wù)器PCB板上通常集成CPU、內(nèi)存、硬盤、電源、網(wǎng)卡等硬件,AI服務(wù)器在以上硬件上有不同程度的增加或升級,同時(shí)AI服務(wù)器增配4至8顆GPGPU形成GPU模組,帶來PCB板單機(jī)價(jià)值量提升。AI服務(wù)器PCB板價(jià)值量提升主要來自三方面:(1)PCB板面積增加。AI服務(wù)器中除了搭載CPU的主板外,每顆GPU需要分別封裝在GPU模塊板,并集成到一塊主板上,相比傳統(tǒng)服務(wù)器僅使用一塊主板,PCB面積大幅增加。(2)PCB板層數(shù)增加。AI服務(wù)器相對于傳統(tǒng)服務(wù)器具有高傳輸速率、高內(nèi)存帶寬、硬件架構(gòu)復(fù)雜等特征,需要更復(fù)雜的走線,因而需要增加PCB層數(shù)以加強(qiáng)阻抗控制等性能。(3)PCB用CCL材料標(biāo)準(zhǔn)更高。AI服務(wù)器用PCB需要更高的傳輸速率、更高散熱需求、更低損耗等特性,CCL需要具備高速高頻低損耗等特質(zhì),因此CCL材料等級需要提升,材料的配方以及制作工藝復(fù)雜度攀升。服務(wù)器用PCB市場規(guī)模高速增長。作為承載服務(wù)器內(nèi)各種走線的關(guān)鍵基材,隨著服務(wù)器性能和算力升級,服務(wù)器對PCB板的性能和層數(shù)也提出了更高的要求,高層數(shù)PCB板的市場份額將繼續(xù)迅速提升。AI服務(wù)器加速普及,預(yù)計(jì)隨著AI服務(wù)器出貨量以及在服務(wù)器中占比中不斷提升,且AI服務(wù)器中PCB板面積、層數(shù)、材料提升促進(jìn)價(jià)值量增長,驅(qū)動服務(wù)器用PCB量價(jià)齊升,市場持續(xù)高速增長。根據(jù)滬電股份2021年年報(bào)數(shù)據(jù),服務(wù)器與數(shù)據(jù)存儲領(lǐng)域PCB市場規(guī)模預(yù)計(jì)在2026年達(dá)到126億美元,2020年到2026年CAGR為13.5%,高于同期PCB市場整體增速7.7%。四、存儲芯片:HBM成高端GPU標(biāo)配,充分受益于AI服務(wù)器需求增長(一)AI服務(wù)器需要高帶寬支持?jǐn)?shù)據(jù)處理量和傳輸速率大幅提升是AI服務(wù)器需要高帶寬的主要原因。AI服務(wù)器需要在短時(shí)間內(nèi)處理大量數(shù)據(jù),包括模型訓(xùn)練數(shù)據(jù)、模型參數(shù)、模型輸出等。近年來,人工智能訓(xùn)練能力增長迅速,各種高性能應(yīng)用不斷涌現(xiàn)。根據(jù)OpenAI數(shù)據(jù),2012-2019年,人工智能訓(xùn)練能力增長30萬倍。如ChatGPT基于的GPT3.5大模型的參數(shù)量是135B,龐大的數(shù)據(jù)量需要在高速通道中傳輸。據(jù)美光全球顯存業(yè)務(wù)主管BillRandolph表示,隨著數(shù)據(jù)密集型工作負(fù)載和應(yīng)用程序的增長,以及不斷演變的應(yīng)用場景和新興業(yè)務(wù)機(jī)會的出現(xiàn),“很難想象將一個(gè)擁有超過13億個(gè)參數(shù)的AI模型放入單個(gè)GPU(即使32GB內(nèi)存)中進(jìn)行處理?!盇I服務(wù)器需要高帶寬的連接和數(shù)據(jù)處理包括以下幾個(gè)方面:(1)GPU之間的通信:在大多數(shù)深度學(xué)習(xí)訓(xùn)練中,使用多個(gè)GPU并行計(jì)算模型。這需要在GPU之間傳輸數(shù)據(jù),以協(xié)同工作并加速訓(xùn)練過程。由于GPU計(jì)算速度非???,且數(shù)據(jù)量極大,因此需要更高效率傳輸和存儲數(shù)據(jù)。(2)CPU和GPU之間通信:在一些機(jī)器學(xué)習(xí)任務(wù)中,CPU負(fù)責(zé)數(shù)據(jù)預(yù)處理等任務(wù),而GPU負(fù)責(zé)計(jì)算。CPU和GPU之間需要高速的通信連接來傳輸數(shù)據(jù)。(3)存儲和內(nèi)存之間通信:在深度學(xué)習(xí)訓(xùn)練中,需要在存儲器和內(nèi)存之間傳輸大量數(shù)據(jù),以及在內(nèi)存之間傳輸模型參數(shù)和中間結(jié)果。這需要高速的連接來保證數(shù)據(jù)的及時(shí)傳輸和處理。(4)網(wǎng)絡(luò)通信:AI服務(wù)器還需要處理大量的網(wǎng)絡(luò)通信,例如從客戶端傳輸訓(xùn)練數(shù)據(jù)或從云端獲取模型更新。這些數(shù)據(jù)也需要通過高速網(wǎng)絡(luò)連接傳輸,以確保及時(shí)完成任務(wù)。GPU主流存儲方案目前主要分兩種:(1)GDDR方案:該方案在SoC周圍有大量外設(shè)。該方案主要通過從GDDR5升級為GDDR6提高帶寬,但GDDR如果要增加1GB的帶寬將會帶來更多的功耗,因此不利于系統(tǒng)性能提升。(2)HBM方案:HBM(全稱“3DHighBandwidthMemory”),是一種非常緊湊的內(nèi)存技術(shù),由多個(gè)芯片垂直堆疊而成,每個(gè)芯片上都有多個(gè)內(nèi)存通道。HBM可以在很小的物理空間內(nèi)實(shí)現(xiàn)高容量和高帶寬的內(nèi)存,有更多的帶寬和更少的物理接口,而物理接口越少,功耗越低。同時(shí)還具有低延遲的特點(diǎn),但相對而言,成本更高。HBM方案目前已演進(jìn)為較為主流的高性能計(jì)算領(lǐng)域擴(kuò)展高帶寬的方案。(二)HBM技術(shù)持續(xù)演進(jìn),已成為高端GPU標(biāo)配HBM技術(shù)向提高存儲容量和帶寬演進(jìn),同時(shí)減小功耗和封裝尺寸。HBM是目前高端GPU解決高帶寬主流方案,AIGC熱潮拉動HBM需求增加。AI服務(wù)器需要在短時(shí)間內(nèi)處理大量數(shù)據(jù),包括模型訓(xùn)練數(shù)據(jù)、模型參數(shù)、模型輸出等。這些數(shù)據(jù)量通常都非常大,對高帶寬需求大幅提升。GPU主流存儲方案目前主要分GDDR和HBM兩種方案。與GDDR方案相比,HBM方案由多個(gè)芯片垂直堆疊而成,每個(gè)芯片上都有多個(gè)內(nèi)存通道,可以在很小的物理空間內(nèi)實(shí)現(xiàn)高容量和高帶寬的內(nèi)存,有更多的帶寬和更少的物理接口,而物理接口越少,功耗越低。同時(shí)還具有低延遲的特點(diǎn),但相對而言,成本更高。HBM升級朝著不斷提高存儲容量、帶寬,減小功耗和封裝尺寸方向升級,目前已升級到HBM3。HBM方案最初由英偉達(dá)和AMD等半導(dǎo)體公司定義和推動,從最初的1GB存儲容量和128GB/s帶寬的HBM1發(fā)展到目前的24GB存儲容量和819GB/s帶寬。高速、高帶寬的HBM堆棧沒有以外部互連線的方式與計(jì)算芯片連接,而是通過中間介質(zhì)層緊湊連接。以HBM2方案為例,相對于GDDR5,HBM2節(jié)省了94%的芯片面積。從帶寬角度看,一個(gè)HBM2堆棧封裝的帶寬為307Gbyte/s,遠(yuǎn)高于GDDR5的帶寬。HBM的特性相比DDR更適合用于AI領(lǐng)域。HBM能夠很好滿足針對AI領(lǐng)域內(nèi)存高帶寬、大容量、低功耗的需求,主要體現(xiàn)在:第一,HBM通過TSV和微凸塊技術(shù)將3D垂直堆疊的DRAM芯片相互連接,突破了現(xiàn)有的性能限制,大大提高了存儲容量。第二,HBM具有可擴(kuò)展更大容量的特性。HBM的單層DRAM芯片容量可擴(kuò)展;HBM通過4層、8層以至12層堆疊的DRAM芯片,可實(shí)現(xiàn)更大的存儲容量;HBM可以通過SiP集成多個(gè)HBM疊層DRAM芯片,從而實(shí)現(xiàn)更大的內(nèi)存容量。第三,由于采用了TSV和微凸塊技術(shù),DRAM裸片與處理器間實(shí)現(xiàn)了較短的信號傳輸路徑以及較低的單引腳I/O速度和I/O電壓,使HBM具備更好的內(nèi)存功耗能效特性。第四,在系統(tǒng)集成方面,HBM將原本在PCB板上的DDR內(nèi)存顆粒和CPU芯片一起全部集成到SiP里,因此HBM在節(jié)省產(chǎn)品空間方面也更具優(yōu)勢。在云端高性能服務(wù)器領(lǐng)域,HBM已經(jīng)成為了高端GPU的標(biāo)配。英偉達(dá)從2017年發(fā)布的V100起,一直配置最新的HBM技術(shù),如A100使用了HBM2E,H100使用了SK海力士的HBM3。AIGC時(shí)代推動HBM需求顯著增加。HBM的需求增加不僅體現(xiàn)在單顆GPU需要配置的HBM的Die層數(shù)增加,Stack個(gè)數(shù)增加。也體現(xiàn)在ChatGPT帶動的AIGC熱潮下,大模型訓(xùn)練需求提升拉動對AI服務(wù)器和AI芯片的需求,HBM在2023年來需求明顯增加,價(jià)格也隨之提升。據(jù)Omdia在2021年的數(shù)據(jù),預(yù)計(jì)到2025年HBM市場規(guī)模將達(dá)到約25億美元。我們認(rèn)為,隨著AIGC產(chǎn)業(yè)鏈在2023年發(fā)展持續(xù)超預(yù)期,拉動對AI服務(wù)器需求增加,HBM的市場規(guī)模增長或超該預(yù)測。(三)產(chǎn)業(yè)鏈上下游大力推進(jìn)HBM海力士、三星美光等廠商緊跟HBM趨勢,已發(fā)布多款產(chǎn)品。(1)SK海力士:在HBM領(lǐng)域研發(fā)走在了業(yè)界前列。2014年SK海力士與AMD聯(lián)合開發(fā)了全球首款硅穿孔HBM產(chǎn)品,其帶寬高于GDDR5產(chǎn)品。2022年6月實(shí)現(xiàn)HBM3的量產(chǎn),并向英偉達(dá)大量供貨,配置在英偉達(dá)高性能GPUH100之中。(2)三星:在HBM領(lǐng)域發(fā)展較為順利。于2016年首次量產(chǎn)HBM2產(chǎn)品,同時(shí)發(fā)布了4GB和8GB的HBM2DRAM。2024年公司預(yù)計(jì)實(shí)現(xiàn)接口速度高達(dá)7.2Gbps的HBM3P,預(yù)計(jì)2025年在新一代面向AI的GPU中見到HBM3P的應(yīng)用。(3)美光科技:美光科技于2020年7月宣布大規(guī)模量產(chǎn)HBM2E,HBM3也仍作為其產(chǎn)品線在持續(xù)研發(fā)之中。英偉達(dá)歷代主流訓(xùn)練芯片基本都配置HBM。其2016年發(fā)布的首個(gè)采用帕斯卡架構(gòu)的顯卡TeslaP100已搭載了HBM2,隨后TeslaV100也采用了HBM2;2017年初,英偉達(dá)發(fā)布的Quadro系列專業(yè)卡中的旗艦GP100也采用了HBM2;2021年推出的TeslaA100計(jì)算卡也搭載了HBM2E,2022年推出了面向大陸地區(qū)的A800,同樣也配置HBM2E;2022年推出了市面上最強(qiáng)的面向AI服務(wù)器的GPU卡H100,采用的HBM3。五、其他產(chǎn)品:AI服務(wù)器需求提升,多相電源供電方案增量顯著多相電源產(chǎn)品在AI服務(wù)器中單機(jī)價(jià)值增量顯著,GPU升級推動量價(jià)齊升。AI服務(wù)器與通用服務(wù)器主要區(qū)別在于AI服務(wù)器配備4/8顆GPGPU,以滿足高性能計(jì)算需求。多相控制器+DrMOS組成的多相電源解決方案是GPU的主流供電形式。我們對8卡AI服務(wù)器的多相電源解決方案產(chǎn)品新增需求進(jìn)行測算,參考NVIDIAV100的多相電源配置,A100至少需要16相電源解決方案(1顆多相控制器+16顆大電流DrMOS的配置),則該AI服務(wù)器相較于普通服務(wù)器增加了8顆多相控制器、96顆大電流DrMOS需求,參考TI官網(wǎng)產(chǎn)品價(jià)格,兩種產(chǎn)品價(jià)格分別約為7.7美元、2.0美元,則AI服務(wù)器單機(jī)新增多相電源產(chǎn)品價(jià)值量約為254美元;根據(jù)MPS數(shù)據(jù),單臺普通服務(wù)器CPU主板電源解決方案(包含多相控制器+DrMOS+POL+EFuse等產(chǎn)品)合計(jì)價(jià)值量約80美元;因此AI服務(wù)器單機(jī)多相電源產(chǎn)品價(jià)值量相較于普通服務(wù)器有數(shù)倍提升。英偉達(dá)在2023年3月21日的GTC大會發(fā)布了應(yīng)用于大型語言模型部署的H100NVL新產(chǎn)品,具備更高算力的H100GPU為更大規(guī)模的AI模型訓(xùn)練提供更強(qiáng)大的算力支持,同時(shí)產(chǎn)品升級也伴隨功率等級提升,H100SXM產(chǎn)品最大熱設(shè)計(jì)功率(TDP)高達(dá)700W,遠(yuǎn)高于前代次產(chǎn)品A100的300W~400W。高算力GPU產(chǎn)品功率的提升對DrMOS的數(shù)量、性能帶來了更高需求,服務(wù)器領(lǐng)域多相電源產(chǎn)品市場空間也將充分受益于服務(wù)器GPU的產(chǎn)品迭代和性能升級。六、下游應(yīng)用:AIGC賦能千百行業(yè),智能應(yīng)用蓄勢待發(fā)(一)內(nèi)容生產(chǎn)進(jìn)入AIGC時(shí)代,跨模態(tài)成為增長點(diǎn)內(nèi)容生產(chǎn)已經(jīng)從專業(yè)化的PGC到用戶生產(chǎn)的UGC,現(xiàn)在已經(jīng)進(jìn)入AIGC時(shí)代。AIGC技術(shù)賦能千行百業(yè),涌現(xiàn)了寫作助手、AI繪畫、對話機(jī)器人、數(shù)字人等爆款級應(yīng)用,支撐著傳媒、電商、娛樂、影視等領(lǐng)域的內(nèi)容需求。AIGC不僅意味著AI的角色開始從觀察、預(yù)測拓展為生成、決策,也意味著AIGC作為一種賦能技術(shù),借助其大模型的跨模態(tài)綜合能力和內(nèi)容生產(chǎn)力,將廣泛服務(wù)于各類終端行業(yè)。AIGC尚處于萌芽階段,有望成為未來關(guān)鍵技術(shù)推動力。AIGC從其數(shù)據(jù)中學(xué)習(xí)內(nèi)容或?qū)ο?,并運(yùn)用數(shù)據(jù)生成全新、完全原創(chuàng)的實(shí)際工件,可用于多種活動,如創(chuàng)建軟件代碼、促進(jìn)藥物研發(fā)和有針對性的營銷等。根據(jù)Gartner發(fā)布的《2022年新興技術(shù)成熟度》報(bào)告顯示,生成式AI仍處于技術(shù)萌芽期階段,離技術(shù)成熟還需要花費(fèi)五到十年時(shí)間。在這一階段,生成式AI具有較大的發(fā)展?jié)摿Γ型蔀槲磥黻P(guān)鍵技術(shù)推動力。Gartner認(rèn)為生成式人工智能為2022年重要戰(zhàn)略趨勢,是最引人注目和最強(qiáng)大的人工智能技術(shù)之一,到2025年,生成式人工智能將占所有生成數(shù)據(jù)的10%。技術(shù)場景細(xì)分多樣化,技術(shù)原理突破推動規(guī)模化應(yīng)用。AIGC應(yīng)用技術(shù)場景細(xì)分領(lǐng)域眾多,按照模態(tài)區(qū)分,可以分為音頻生成、文本生成、圖像生成、視頻生成及圖像、視頻、文本間的跨模態(tài)生成,多點(diǎn)開花。目前已經(jīng)有較為明確應(yīng)用的有結(jié)構(gòu)化文本寫作、輔助性文本寫作、作曲及編曲、圖像編輯、視頻屬性編輯等,非結(jié)構(gòu)化文本寫作、創(chuàng)意圖像及視頻生成、文本到圖像和視頻的跨模態(tài)生成預(yù)計(jì)會在未來1-2年內(nèi)實(shí)現(xiàn)規(guī)模化應(yīng)用。伴隨著有關(guān)底層技術(shù)原理的不斷突破和細(xì)化,AIGC將迎來快速發(fā)展和廣泛應(yīng)用。使用AIGC不僅可以實(shí)現(xiàn)降本增效,更能激發(fā)創(chuàng)意,提升內(nèi)容多樣性,降低制作成本。AIGC賦能千行百業(yè),未來需求樂觀可期。AIGC作為一種賦能型技術(shù),能在很多行業(yè)內(nèi)找到應(yīng)用場景的結(jié)合點(diǎn)。這臺“21世紀(jì)的珍妮紡紗機(jī)”基于其強(qiáng)大的內(nèi)容生產(chǎn)能力,將重塑幾乎所有行業(yè),帶領(lǐng)行業(yè)進(jìn)入新時(shí)代。目前在繪畫、視頻制作、音樂、寫作、編程等眾多內(nèi)容生產(chǎn)行業(yè)中都有顯著的業(yè)務(wù)需求,在游戲、傳媒、電商、娛樂、教育、金融、醫(yī)療、藥研、工業(yè)等多個(gè)行業(yè)中都有望塑造更多應(yīng)用場景。(二)安防:AIGC有望與安防緊密結(jié)合,驅(qū)動泛安防產(chǎn)業(yè)智能化升級大語言模型朝著多模態(tài)方向發(fā)展,多應(yīng)用場景均開始布局。GPT4.0轉(zhuǎn)向多模態(tài),新增了圖像輸入,能同時(shí)進(jìn)行文本和視覺處理的多模態(tài)大模型已是技術(shù)變革方向。與此同時(shí),當(dāng)前海內(nèi)外大廠紛紛在更多文字生成、社交娛樂、音視頻、辦公等領(lǐng)域布局或引入大語言模型的發(fā)展,并朝著多模態(tài)方向發(fā)展。AIGC驅(qū)動安防智能化升級,市場潛力逐漸顯現(xiàn)。AIGC作為新型的內(nèi)容生產(chǎn)基礎(chǔ)設(shè)施對既有的內(nèi)容生成模式可產(chǎn)生革命式影響,一方面其已在辦公、影視、繪畫等內(nèi)容需求豐富的行業(yè)取得顯著發(fā)展,另一方面原本已和AI結(jié)合的安防、制造等行業(yè)也正在AIGC大潮下朝著更加智能化的方向發(fā)展,市場潛力逐漸顯現(xiàn)。AIGC有望與安防緊密結(jié)合,驅(qū)動泛安防產(chǎn)業(yè)智能化升級。ChatGPT和AIGC技術(shù)的應(yīng)用,可以幫助安防產(chǎn)品實(shí)現(xiàn)更高效的數(shù)據(jù)處理和管理,大幅提升安防系統(tǒng)的反應(yīng)速度和處理能力,實(shí)現(xiàn)一定程度降本增效,推動智慧安防乃至智能物聯(lián)網(wǎng)行業(yè)發(fā)展。近幾年,傳統(tǒng)安防已通過物聯(lián)網(wǎng)、云計(jì)算、AI等技術(shù)升級為智慧安防。據(jù)IDC數(shù)據(jù),視頻監(jiān)控、人臉識別、智能攝像頭等泛安防是中國近年來已部署和計(jì)劃部署的重點(diǎn)AI領(lǐng)域,也是AI最先商業(yè)化的領(lǐng)域之一。隨著AIGC時(shí)代的來臨,智慧安防可進(jìn)一步升級。具體而言,ChatGPT可以通過分析和處理大量語音、文本和圖像數(shù)據(jù),幫助識別并分類人、車輛、動物等不同對象,幫助安全系統(tǒng)快速識別異常事件,以及實(shí)現(xiàn)更精細(xì)化的數(shù)據(jù)分析和挖掘,進(jìn)一步提升預(yù)測準(zhǔn)確率等。同時(shí),ChatGPT的應(yīng)用還將促進(jìn)安防與其他相關(guān)領(lǐng)域合作,以谷歌和微軟等廠商致力于利用神經(jīng)網(wǎng)絡(luò)進(jìn)行機(jī)器人控制為例,將視覺數(shù)據(jù)以及大型語言模型結(jié)合起來,也可推動安防機(jī)器人的發(fā)展。ChatGPT和AIGC技術(shù)的應(yīng)用,可以幫助安防產(chǎn)品實(shí)現(xiàn)更高效的數(shù)據(jù)處理和管理,從而大幅提升安防系統(tǒng)的反應(yīng)速度和處理能力,有望實(shí)現(xiàn)一定程度降本增效,大力推動智慧安防乃至智能物聯(lián)網(wǎng)行業(yè)發(fā)展。??低暫痛笕A股份是智能物聯(lián)龍頭,泛安防產(chǎn)品的AI產(chǎn)業(yè)化進(jìn)展迅速。海康威視近年來積累在CV、AI等底層技術(shù)進(jìn)行泛安防軟硬件產(chǎn)品布局,并提供AI開發(fā)平臺服務(wù)。截至2021年年底,??档腁I開發(fā)平臺服務(wù)企業(yè)用戶超過8000家,生成模型5000個(gè),積累落地項(xiàng)目4000個(gè)。此外,繼螢石分拆后,子公司??禉C(jī)器人也申報(bào)上市,公司與AI緊密相關(guān)的創(chuàng)新智能物聯(lián)業(yè)務(wù)進(jìn)展迅速。大華股份的AI能力的落地一方面體現(xiàn)在端、邊、云產(chǎn)品的產(chǎn)業(yè)化之中,將AI與公司產(chǎn)品強(qiáng)融合,另一方面體現(xiàn)在將AI與公司產(chǎn)品強(qiáng)融合通過ICC和云睿兩大平臺,融合數(shù)字化生態(tài),推進(jìn)產(chǎn)業(yè)AI化。為完成公司AI基礎(chǔ)能力與企業(yè)業(yè)務(wù)的彼此互補(bǔ),大華也打造了一款低成本、快迭代、低門檻、全協(xié)同的一站式人工智能開發(fā)平臺――DahuaJinn大華巨靈平臺,實(shí)現(xiàn)組裝式算法開發(fā)模式,推動感知智能、數(shù)據(jù)智能、業(yè)務(wù)智能閉環(huán)產(chǎn)業(yè)化落地。(三)視覺:AIGC作為生產(chǎn)力工具賦能元宇宙,推動XR設(shè)備發(fā)展VR(VirtualReality,虛擬現(xiàn)實(shí))是指利用VR設(shè)備模擬產(chǎn)生一個(gè)三維的虛擬空間,提供視覺、聽覺、觸覺等感官的模擬,讓使用者如同身臨其境。簡而言之,就是不依賴于使用者自身所處的環(huán)境,完全“無中生有”。AR(AugmentedReality,增強(qiáng)現(xiàn)實(shí))是VR技術(shù)的延伸,能夠把計(jì)算機(jī)生成的虛擬信息(物體、圖片、視頻、聲音、系統(tǒng)提示信息等)疊加到使用者所在的真實(shí)場景中,并與人實(shí)現(xiàn)互動,但使用者能區(qū)分兩者區(qū)別。MR(MixedReality,混合現(xiàn)實(shí))是VR向AR技術(shù)過渡的產(chǎn)物,將虛擬世界和真實(shí)世界合成一個(gè)無縫銜接的虛實(shí)融合世界,其中的物理實(shí)體和數(shù)字對象滿足真實(shí)的三維投影關(guān)系?;旌犀F(xiàn)實(shí)技術(shù)通過在現(xiàn)實(shí)環(huán)境中引入虛擬場景信息,在現(xiàn)實(shí)世界、虛擬世界和用戶之間搭起一個(gè)交互反饋的信息回路,以增強(qiáng)用戶體驗(yàn)的真實(shí)感,具有真實(shí)性、實(shí)時(shí)互動性以及構(gòu)想性等特點(diǎn)。我們認(rèn)為MR為元宇宙技術(shù)升級必經(jīng)路線,有望成為各科技巨頭積極布局的下一代技術(shù)。AIGC逐漸實(shí)現(xiàn)元宇宙的可擴(kuò)展性潛力,低成本、高效率地滿足VR/AR用戶海量內(nèi)容需求。以AR/VR作為入口,元宇宙極大擴(kuò)展了人類在虛擬世界的生存空間。但元宇宙中需要大量3D場景構(gòu)建,高保真3D模型單靠人工設(shè)計(jì)開發(fā)效率低、成本高。AIGC有望成為新的元宇宙內(nèi)容生成解決方案,利用AI方式生成3D場景將成為未來元宇宙滿足海量用戶不同需求的解決之道。具體而言,AIGC技術(shù)通過提供元宇宙環(huán)境生成的基礎(chǔ)設(shè)施、提供個(gè)性化內(nèi)容體驗(yàn)和交互方式等,更好地滿足用戶需求。AIGC釋放開發(fā)人員生產(chǎn)力,為構(gòu)建沉浸式元宇宙空間環(huán)境提供核心基礎(chǔ)設(shè)施技術(shù)。元宇宙可以應(yīng)用在工作、會議、游戲以及生活社交等活動,因此需要在元宇宙空間中創(chuàng)建豐富的活動對象、建筑和活動環(huán)境。但是,在過去,為了構(gòu)建這些數(shù)字環(huán)境,需要開發(fā)團(tuán)隊(duì)半手工地創(chuàng)建每一個(gè)部分,用鼠標(biāo)拖動來放置。而現(xiàn)在AlGC通過實(shí)現(xiàn)創(chuàng)建逼真的3D虛擬空間環(huán)境、虛擬人物,并且效率和成本可以滿足大規(guī)模的元宇宙空間環(huán)境創(chuàng)建。例如在游戲場景中,未來游戲的劇情、角色、頭像、動作等數(shù)字原生基本元素都可以用AIGC進(jìn)行生成,游戲世界地圖也能通過AIGC進(jìn)一步延展,極大程度釋放開發(fā)人員生產(chǎn)力,用更少的時(shí)間編寫代碼,提升元宇宙建成速度。AIGC為元宇宙用戶提供個(gè)性化內(nèi)容體驗(yàn),吸引更多用戶進(jìn)駐元宇宙。AIGC作為生產(chǎn)力工具,可以滿足和填充內(nèi)容匱乏的虛擬世界,同時(shí)賦予用戶更多的創(chuàng)作自由。例如,AIGC可以幫助用戶將手機(jī)拍攝的一系列照片生成可以使用的3D渲染圖,幫助用戶通過語音文字輸入來創(chuàng)建可修改的3D環(huán)境。采用這種創(chuàng)造內(nèi)容的方式,AIGC技術(shù)極大地提高元宇宙環(huán)境的創(chuàng)作自由,提升個(gè)性化體驗(yàn),未來的元宇宙體驗(yàn)將不再完全由開發(fā)人員構(gòu)建,而是利用AIGC響應(yīng)用戶的輸入按需生成。AlGC在元宇宙用戶交互界面發(fā)揮作用。元宇宙中存在很多類似NPC的智能體為用戶提供交互服務(wù),這些智能體可以由AlGC生成并驅(qū)動。當(dāng)用戶借助VR/AR設(shè)備進(jìn)入虛擬空間時(shí),ChatGPT可以作為語言模型集成到各種智能體中,充當(dāng)元宇宙中的虛擬助手或伙伴,執(zhí)行“智能”動作和更為復(fù)雜的任務(wù)。2022年5月,Meta宣布“CAIRaoke計(jì)劃”,“CAIRaok計(jì)劃”所開發(fā)的模型,將允許用戶隨意地與購買的AI會話助手溝通,用戶可以向助手發(fā)出簡單的語音指令繼而創(chuàng)建所需的虛擬現(xiàn)實(shí)設(shè)置類型。XR市場規(guī)模年均復(fù)合增速為32.8%,AIGC應(yīng)用推動硬件端出貨量持續(xù)增長。根據(jù)IDC數(shù)據(jù),全球VR/AR市場規(guī)模將從2021年43.43億美元增長至2025年的361.12億美元,CAGR為69.8%。根據(jù)Omdia數(shù)據(jù),2023年近眼顯示面板出貨量有望達(dá)到2406萬臺,同比增長67.3%。隨著索尼PSVR2、蘋果MR、MetaQuest3、HTC新產(chǎn)品等主要產(chǎn)品的推出,以及AIGC未來在內(nèi)容端的持續(xù)賦能,XR產(chǎn)業(yè)有望迎來新一輪增長。1.蘋果MR頭顯發(fā)布在即,產(chǎn)業(yè)鏈迎來成長機(jī)遇蘋果公司全方位應(yīng)用AI技術(shù),并購增強(qiáng)技術(shù)能力。蘋果公司在手機(jī)、家居、AR等多個(gè)板塊均應(yīng)用人工智能技術(shù)提供智能化用戶體驗(yàn)。包括手機(jī)端上AI語音助手Siri幫助用戶完成語音控制、信息查詢和智能推薦等任務(wù)、智能家居產(chǎn)品HomeKit應(yīng)用了人工智能技術(shù)實(shí)現(xiàn)了家庭設(shè)備的互聯(lián)互通和智能控制、AR方面增強(qiáng)現(xiàn)實(shí)技術(shù)平臺ARKit,通過機(jī)器學(xué)習(xí)和計(jì)算機(jī)視覺技術(shù)實(shí)現(xiàn)了高質(zhì)量的增強(qiáng)現(xiàn)實(shí)體驗(yàn)等。蘋果通過收購初創(chuàng)企業(yè)持續(xù)擴(kuò)張AI技術(shù)能力,特別在面部識別、表情分析、動作捕捉處理、圖像視覺等涉及AI+MR應(yīng)用領(lǐng)域方面,利用并購持續(xù)增強(qiáng)技術(shù)能力。2010年,蘋果收購瑞典面部識別技術(shù)公司PolarRose,布局面部識別相關(guān)技術(shù)。2013年,蘋果收購PrimeSense公司,從布局實(shí)時(shí)3D運(yùn)動捕捉相關(guān)技術(shù)。2015年,蘋果收購專門從事面部動畫和動作捕捉的Faceshift。2016年,蘋果收購研發(fā)面部表情分析工具的Emotient,該公司通過人工智能及機(jī)器學(xué)習(xí)技術(shù)來分析人類表情;2017年,蘋果收購從事面部識別技術(shù)的網(wǎng)絡(luò)安全和機(jī)器學(xué)習(xí)公司RealFace,該技術(shù)有可能用于未來的增強(qiáng)現(xiàn)實(shí)功能。2018年,蘋果收購瑞士公司Flashwell,從事AI圖像視覺研發(fā)。蘋果自2015年以來,已收購多家初創(chuàng)企業(yè),持續(xù)在AI領(lǐng)域擴(kuò)張,不斷汲取優(yōu)秀的技術(shù)人才。AIGC技術(shù)疊加Siri語音助手,有望助力蘋果在頭顯中實(shí)現(xiàn)虛擬世界的ChatGPT。2022年蘋果首次展示了GAUDIAI用于沉浸式3D場景生成的神經(jīng)網(wǎng)絡(luò)AI系統(tǒng),可以根據(jù)文本提示創(chuàng)建3D場景,實(shí)現(xiàn)3D場景的AIGC。GAUDI模型通過三個(gè)專門的解碼器實(shí)現(xiàn)3D場景的AIGC:相機(jī)姿態(tài)解碼器對相機(jī)可能位置進(jìn)行預(yù)測,并確保3D場景輸出的位置有效架構(gòu)的有效位置;場景解碼器負(fù)責(zé)形成3D的畫布來展示物體;輻射場解碼器負(fù)責(zé)渲染繪制后續(xù)圖像。憑借GAUDIAI系統(tǒng),蘋果正在為渲染3D對象和場景的生成式人工智能系統(tǒng)奠定基礎(chǔ),這一系統(tǒng)可能應(yīng)用于蘋果的XR頭顯中,實(shí)現(xiàn)3D內(nèi)容生成。進(jìn)一步地,GAUDI模型有望與Siri結(jié)合實(shí)現(xiàn)低門檻的3D場景生成功能,據(jù)TheInformation報(bào)道,蘋果MR頭顯對話式系統(tǒng)與MetaBuilderBot類似,幫助用戶利用Siri語音助手,通過與Siri語音交互對虛擬動物設(shè)計(jì)、場景移動方式等描述以實(shí)現(xiàn)三維場景創(chuàng)建,此外系統(tǒng)還可以計(jì)算出物理空間中的障礙物,并為虛擬動物附加自然的物理交互。GAUDI與Siri的結(jié)合,有望幫助蘋果頭顯中實(shí)現(xiàn)虛擬世界的ChatGPT。蘋果MR頭顯產(chǎn)品發(fā)布在即,具備四大核心亮點(diǎn)。預(yù)計(jì)蘋果公司首次推出的MR設(shè)備將以專業(yè)人士和開發(fā)者為主要用戶,服務(wù)于高端市場。根據(jù)Metaverse元宇宙,蘋果MR頭顯具備四大亮點(diǎn),包括一鍵切換VR/AR模式,可以使產(chǎn)品更好地與現(xiàn)實(shí)世界直接結(jié)合,為MR內(nèi)容交互提供更多的空間;眼動追蹤及手部追蹤功能,能夠更好地提升用戶體驗(yàn),突破交互方式;視頻會議功能,能在虛擬世界中逼真地渲染用戶的面部和全身,增強(qiáng)體驗(yàn)感;外接生產(chǎn)力工具方面,蘋果MR頭顯能夠作為連接Mac的外部顯示器,并且用戶還能在戴上頭顯之后,使用觸控板或者鼠標(biāo)、物理按鍵控制設(shè)備。根據(jù)蘋果官網(wǎng),年度全球開發(fā)者大會(WWDC)定檔于北京時(shí)間2023年6月6日至10日,旨在展示iOS、iPadOS、macOS、watchOS和tvOS的前沿創(chuàng)新。主攻教育、健康、游戲、視聽四大應(yīng)用場景,AppleTV+團(tuán)隊(duì)或成內(nèi)容研發(fā)主力。蘋果圍繞健康、教育、游戲、視聽四大場景對其MR內(nèi)容有所布局,例如開發(fā)有助于冥想和鍛煉的AR應(yīng)用程序,讓用戶在看書的過程中體驗(yàn)到奇幻的環(huán)境與現(xiàn)實(shí)世界融為一體的感受,讓用戶處于沙漠或者太空場景中觀看視頻,創(chuàng)建底層引擎為MR游戲提供支持。根據(jù)Metaverse元宇宙,蘋果的內(nèi)容團(tuán)隊(duì)由一個(gè)代號為Z50的團(tuán)隊(duì)研發(fā),規(guī)模約為幾十人,該團(tuán)隊(duì)成員多數(shù)都是來自視頻、游戲等領(lǐng)域,其主要任務(wù)為根據(jù)自身過去的流媒體服務(wù)AppleTV+中的經(jīng)驗(yàn),為MR頭顯打造內(nèi)容。彭博社記者M(jìn)arkGurman報(bào)道,蘋果正在將自家常用的FaceTime、筆記等軟件移植到頭顯當(dāng)中,另外它也可以充當(dāng)Mac設(shè)備的“第二屏”。2.Pico背靠字節(jié)跳動,有望持續(xù)獲得AI技術(shù)加持字節(jié)跳動持續(xù)布局AI技術(shù),Pico作為主力終端產(chǎn)品有望充分受益。2021年P(guān)ico被字節(jié)跳動收購。作為國內(nèi)頂尖的互聯(lián)網(wǎng)企業(yè)之一,字節(jié)跳動2012年發(fā)布今日頭條,以人工智能推薦算法起家,AI底蘊(yùn)深厚。2016年,字節(jié)跳動人工智能實(shí)驗(yàn)室(AILab)成立,成立時(shí)聚集馬維英、李航、李磊等AI領(lǐng)域超級大牛,為平臺持續(xù)提供AI技術(shù)支持,研究領(lǐng)域涵蓋計(jì)算機(jī)視覺、自然語言處理、機(jī)器學(xué)習(xí)、語音音頻處理、數(shù)據(jù)知識挖掘、計(jì)算機(jī)圖像學(xué)等各個(gè)領(lǐng)域。此后在各個(gè)AI應(yīng)用領(lǐng)域,字節(jié)AI技術(shù)研發(fā)與應(yīng)用持續(xù)深化;2018年,字節(jié)跳動“端上智能計(jì)算機(jī)視覺算法平臺”項(xiàng)目獲得CCF科技進(jìn)步卓越獎;2019年,字節(jié)推出頭條搜索使用機(jī)器學(xué)習(xí)根據(jù)用戶行為對搜索結(jié)果進(jìn)行個(gè)性化設(shè)置、推出剪映利用人工智能賦能視頻剪輯自動化視頻編輯任務(wù)、收購AI游戲技術(shù)研發(fā)商深極智能,在搜索、視頻、游戲等不同方面深化人工智能算法應(yīng)用;2020年,字節(jié)推出重磅產(chǎn)品火山引擎,提供多個(gè)領(lǐng)域人工智能開發(fā)與運(yùn)維等服務(wù),并推出切入AI教育硬件領(lǐng)域推出產(chǎn)品大力智能家教燈,通過AI攝像頭實(shí)現(xiàn)遠(yuǎn)程作業(yè)輔導(dǎo);2021年,字節(jié)推出面向開發(fā)人員和企業(yè)的AI工具和服務(wù)BytePlus,并切入AI+醫(yī)療領(lǐng)域,旗下醫(yī)療品牌“小荷健康”研發(fā)了一款結(jié)腸鏡AI輔助診斷軟件,并與清華大學(xué)合作首次提出了神經(jīng)網(wǎng)絡(luò)配音器;2022年聯(lián)合南京大學(xué)、清華大學(xué)人工智能產(chǎn)業(yè)研究院提出AI藥物設(shè)計(jì)方法。在與VR相關(guān)的渲染技術(shù)、動作捕捉、圖像內(nèi)容生成等人工智能技術(shù)上,字節(jié)跳動具備強(qiáng)大技術(shù)積累,Pico作為字節(jié)跳動在VR/AR領(lǐng)域探索的主力產(chǎn)品,有望持續(xù)得到字節(jié)AI技術(shù)加持。Pico利用AI算法賦能虛擬場景生成,為內(nèi)容提供更強(qiáng)技術(shù)支持。2022年,Pico正式推出了官方MRC(MixedRealityCapture,混合現(xiàn)實(shí)錄制)。對比MetaQuest需要個(gè)人電腦以及綠幕背景,Pico利用深度學(xué)習(xí)摳圖模型,將人物從物理環(huán)境中摳出并且疊加到虛擬游戲空間中,配合無線投屏技術(shù)實(shí)現(xiàn)更低門檻、更高質(zhì)量的MR視頻制作。此外,在虛擬演出這一場景中,Pico也開發(fā)了針對VR場景的AI燈光變化系統(tǒng)、AI智能音頻分析系統(tǒng)等,在旗下VR音樂互動產(chǎn)品BIT-CLUB中運(yùn)用,呈現(xiàn)超現(xiàn)實(shí)的VR電音現(xiàn)場,為用戶展現(xiàn)出更為極致的視覺體驗(yàn)。3.Meta在AI領(lǐng)域底蘊(yùn)深厚,產(chǎn)品配置迭代升級Meta在AI領(lǐng)域研發(fā)底蘊(yùn)深厚,具有世界級話語權(quán)。由于社交平臺在推薦算法、廣告、搜索排名、推薦以及用戶數(shù)據(jù)分析等方面的需要,Meta很早便開始布局人工智能技術(shù)。2013年4月成立人工智能研究機(jī)構(gòu)FAIR,F(xiàn)AIR主要成就包括發(fā)布開源機(jī)器學(xué)習(xí)框架PyTorch、自然語言處理模型PyText等等。同時(shí),Meta在AI領(lǐng)域通過收購實(shí)現(xiàn)技術(shù)拓展。2016年Meta收購面部表情分析技術(shù)公司FacioMetrics以及聊天機(jī)器人開發(fā)工具的公司TugboatYards;2017年收購人工智能個(gè)人助理應(yīng)用Ozlo和神經(jīng)網(wǎng)絡(luò)初創(chuàng)公司Deeplearning.ai;2018年收購了開發(fā)用于理解和總結(jié)文本的自然語言處理技術(shù)英國初創(chuàng)公司BloomsburyAI:2019年收購開發(fā)大腦信號控制計(jì)算機(jī)技術(shù)的CTRLlabs、收購計(jì)算機(jī)視覺初創(chuàng)公司ScapeTechnologies;2020年收購利用人工智能和機(jī)器學(xué)習(xí)幫助企業(yè)管理客戶互動的公司Kustomer;2021年收購使用人工智能和機(jī)器學(xué)習(xí)創(chuàng)建交互式游戲體驗(yàn)的公司Unit2Games、收購AI聲音識別公司AudioAnalytic。Meta在AI領(lǐng)域并購數(shù)量較多,持續(xù)在AI技術(shù)領(lǐng)域擴(kuò)張,不斷汲取優(yōu)秀的技術(shù)人才。Meta持續(xù)探索AI技術(shù),布局AI+VR/AR全面覆蓋前沿功能。2021年末Meta將其AI團(tuán)隊(duì)合并入負(fù)責(zé)開發(fā)AR/VR產(chǎn)品的Realit

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論