2024年電子行業(yè)年度策略:把握AI、創(chuàng)新、國產(chǎn)化三大趨勢下的十大投資方向_第1頁
2024年電子行業(yè)年度策略:把握AI、創(chuàng)新、國產(chǎn)化三大趨勢下的十大投資方向_第2頁
2024年電子行業(yè)年度策略:把握AI、創(chuàng)新、國產(chǎn)化三大趨勢下的十大投資方向_第3頁
2024年電子行業(yè)年度策略:把握AI、創(chuàng)新、國產(chǎn)化三大趨勢下的十大投資方向_第4頁
2024年電子行業(yè)年度策略:把握AI、創(chuàng)新、國產(chǎn)化三大趨勢下的十大投資方向_第5頁
已閱讀5頁,還剩31頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)

文檔簡介

2024年電子行業(yè)年度策略:把握AI、創(chuàng)新、國產(chǎn)化三大趨勢下的十大投資方向1.全年行情總覽:景氣度觸底回暖,周期與成長共振1.1.業(yè)績:逐季復(fù)蘇趨勢明確,模擬IC、光學(xué)引領(lǐng)Q3增長整體:1)營收:23Q1觸底后逐季有所好轉(zhuǎn),23Q3同比增速轉(zhuǎn)正,前三季度總體營收同比已基本持平。23Q3總體營收為8537.39億元(YoY+0.89%,QoQ+14.06%),23Q1-Q3營收為22918.19億元(YoY-4.65%);2)業(yè)績:22Q1-23Q1同比加速下滑,23Q2-Q3降幅大幅收窄。23Q3總體歸母凈利潤為343.99億元(YoY-6.66%,QoQ+17.60%),23Q1-Q3歸母凈利潤為810.03億元(YoY-36.67%)。細(xì)分:2023年前三季度,半導(dǎo)體設(shè)備取得營收、業(yè)績雙增長,營收336.52億元(YoY+28.51%),歸母凈利潤66.55億元(YoY+32.16%),23Q3增長態(tài)勢稍有趨弱;光學(xué)光電子前三季度整體業(yè)績同比下滑幅度最大,但逐季修復(fù)趨勢顯著,23Q3模擬芯片設(shè)計/面板/光學(xué)元件板塊歸母凈利潤環(huán)比增速最快,分別達(dá)到201.13%/131.59%/98.50%。1.2.漲跌幅:電子排名第五,光學(xué)光電子漲幅最高全行業(yè):本年(2023.1.1-2023.12.01)上證綜指上漲-2.15%,深證成指上漲-12.31%,滬深300指數(shù)上漲-10.63%,申萬電子板塊上漲8.05%,電子行業(yè)在全行業(yè)中的漲跌幅排名為5/31。電子行業(yè):本年(2023.1.1-2023.12.01)光學(xué)光電子板塊在電子行業(yè)子板塊中漲幅最高,為+19.01%,半導(dǎo)體板塊漲幅最低,為-2.49%;進(jìn)一步細(xì)分來看,光學(xué)元件漲幅最高,為+25.60%,分立器件板塊漲幅最低,為-22.29%。1.3.PE:電子行業(yè)PE為38.95倍,10年P(guān)E百分位為38.26%電子行業(yè):截至2023.12.01,滬深300指數(shù)PE為10.53倍,10年P(guān)E百分位為14.24%;SW電子指數(shù)PE為38.95倍,10年P(guān)E百分位為38.26%。電子行業(yè)子版塊:截至2023.12.01,電子行業(yè)子版塊PE/PE百分位分別為半導(dǎo)體(63.67倍/31.73%)、消費電子(22.43倍/13.01%)、元件(28.69倍/22.99%)、光學(xué)光電子(45.53倍/65.72%)、其他電子(44.09倍/43.35%)、電子化學(xué)品(52.70倍/77.82%)。2.云側(cè)AI:大模型算力需求激增,技術(shù)迭代推動瓶頸突破以ChatGPT為代表的AI大模型及其初步應(yīng)用“一石激起千層浪”,其相關(guān)技術(shù)變革預(yù)計將對個體的工作、生活及社會組織方式帶來的廣泛影響。大模型的參數(shù)量隨模型換代呈指數(shù)型增長,算力需求與參數(shù)量正相關(guān)。隨著模型復(fù)雜度提升,對應(yīng)的算力及基礎(chǔ)設(shè)施需求有望持續(xù)增長。目前AI大模型的算力水平顯著供不應(yīng)求,海內(nèi)外廠商積極布局,我們認(rèn)為以GPGPU為代表的算力基礎(chǔ)設(shè)施作為AI大模型底座將長期穩(wěn)定受益。關(guān)注存算一體、HBM、Chiplet、CPO等技術(shù)及相關(guān)產(chǎn)業(yè)鏈進(jìn)展,建議關(guān)注國產(chǎn)大算力芯片、英偉達(dá)/AMD產(chǎn)業(yè)鏈、上游硬件供應(yīng)商、下游多模態(tài)應(yīng)用落地等投資機會。2.1.AI大模型風(fēng)口已至,海內(nèi)外科技巨頭加碼布局AI大模型是指人工智能預(yù)訓(xùn)練大模型,具有海量參數(shù)和復(fù)雜架構(gòu),用于深度學(xué)習(xí)任務(wù)的模型,擁有強大的處理能力和表征能力。AI大模型產(chǎn)業(yè)生態(tài)是以數(shù)據(jù)、算力為基礎(chǔ)支撐,借助數(shù)據(jù)管理、模型訓(xùn)練、評估優(yōu)化、服務(wù)平臺、插件等大模型輔助工具,開發(fā)出基礎(chǔ)大模型或行業(yè)大模型,再延伸至工業(yè)、金融、醫(yī)療、交通等下游場景。AI大模型具備“大規(guī)?!焙汀邦A(yù)訓(xùn)練”屬性。一方面,AI大模型需要使用大量的計算資源和部署,具有強大的計算能力和學(xué)習(xí)能力;另一方面,AI大模型在大規(guī)模數(shù)據(jù)集上完成了預(yù)訓(xùn)練后無需或僅需少量數(shù)據(jù)的微調(diào),即能夠直接支撐各類應(yīng)用。ChatGPT引領(lǐng)AI大模型浪潮,海內(nèi)外科技巨頭先后加碼AI布局。2022年11月底,OpenAI發(fā)布聊天機器人ChatGPT,上線兩個月活躍用戶活躍用戶破億,成為史上增速最快的消費級應(yīng)用之一,引發(fā)AI大模型浪潮,海內(nèi)外科技巨頭先后加碼AI布局。國外:1)谷歌向AI公司Anthropic投資近4億美元,后者正在測試生成式AI工具Claude,且谷歌也推出對標(biāo)ChatGPT的聊天機器人Bard。2)微軟以100億美元投資ChatGPT的開發(fā)商OpenAI,并獲得其49%股權(quán)。2023年2月,微軟發(fā)布基于ChatGPT的newBing。3)亞馬遜云服務(wù)AWS宣布與AI公司HuggingFace開展合作,HuggingFace將在AWS上開發(fā)針對ChatGPT的開源競品,構(gòu)建開源語言模型的下個版本Bloom。國內(nèi):百度CEO李彥宏在西麗湖論壇提到,截至2023年10月,國內(nèi)已發(fā)布238個大模型。其中主流大模型包括:百度(文心一言)、抖音(云雀大模型)、智譜AI(GLM大模型)、中科院(紫東太初大模型)、百川智能(百川大模型)、商湯(日日新大模型)、MiniMax(ABAB大模型)、上海人工智能實驗室(書生通用大模型)、華為(盤古大模型)、騰訊(混元大模型)、科大訊飛(星火大模型)、阿里(通義大模型)。2.2.海量參數(shù)產(chǎn)生大算力需求,GPGPU等高壁壘AI芯片受益以ChatGPT為代表的AI模型預(yù)訓(xùn)練需要處理海量參數(shù),從而實現(xiàn)超高文本識別率。隨著新模型推出,新的參數(shù)量需求呈翻倍式增長。OpenAI首席執(zhí)行官SamAltman接受公開采訪表示,GTP-4參數(shù)量為GTP-3的20倍,需要的計算量為GTP-3的10倍;GTP-5在2024年底至2025年發(fā)布,它的參數(shù)量為GTP-3的100倍,需要的計算量為GTP-3的200-400倍。算力需求與參數(shù)量呈正相關(guān),對硬件的內(nèi)存容量和帶寬提出高要求。算力即計算能力,具體指硬件對數(shù)據(jù)收集、傳輸、計算和存儲的能力,算力的大小表明了對數(shù)字化信息處理能力的強弱,常用計量單位是FLOPS(Floating-pointoperationspersecond),表示每秒浮點的運算次數(shù)。硬件方面,運算量取決于GPU運算執(zhí)行時間的長短,而參數(shù)量取決于占用顯存的量。運算量(FLOPS)的數(shù)值通常與參數(shù)量(parametercount)成比例,不同模型架構(gòu)的換算關(guān)系不同。模型越復(fù)雜、參數(shù)量越大,所需計算量越大。GPGPU擁有硬件技術(shù)的核心壁壘:大顯存帶寬,進(jìn)行超高能效比的并行運算,可同時用于GPT模型的訓(xùn)練和推理過程。GPGPU(通用圖像處理器)是一種由GPU去除圖形處理和輸出,僅保留科學(xué)計算、AI訓(xùn)練和推理功能的GPU(圖形處理器)。GPU芯片最初用于計算機系統(tǒng)圖像顯示的運算,但因其相比于擅長橫向計算的CPU更擅長于并行計算,在涉及到大量的矩陣或向量計算的AI計算中很有優(yōu)勢,GPGPU應(yīng)運而生。目前,GPGPU的制造工藝在英偉達(dá)等企業(yè)的領(lǐng)導(dǎo)下已趨向成熟,成本在AI芯片中也較低,成為市場主流選擇,ChatGPT引起的AI浪潮有望提升其應(yīng)用規(guī)模。FPGA具有可編程的靈活性,ASIC性能佳、具有定制化特點,但成本方面與GPU相比稍顯劣勢,在GPT等AI模型的運用占比較GPU低。根據(jù)英偉達(dá)官網(wǎng),NVIDIADGX?A100服務(wù)器搭載8張A100GPU,我們假設(shè)每臺服務(wù)器搭載8張A100GPU。我們對以ChatGPT為例的大模型算力需求進(jìn)行測算得出,中性假設(shè)下,用于高端GPGPU顯卡的訓(xùn)練及推理部分市場空間合計約773億元(對應(yīng)約64萬張A100GPU,8萬臺服務(wù)器),其中訓(xùn)練市場規(guī)模約384億元(對應(yīng)32萬張A100GPU,4萬臺訓(xùn)練服務(wù)器),推理市場規(guī)模約389億元(對應(yīng)32萬張A100GPU,4萬臺推理服務(wù)器;該推理市場規(guī)模僅考慮了OpenAI)。2.3.英偉達(dá)引領(lǐng)硬件端產(chǎn)品升級,國產(chǎn)GPU靜待花開大GPU優(yōu)勢在于通過并行計算實現(xiàn)大量重復(fù)性計算。GPGPU(GeneralPurposeGPU)即通用GPU,能夠幫助CPU進(jìn)行非圖形相關(guān)程序的運算。在類似的價格和功率范圍內(nèi),GPU能提供比CPU高得多的指令吞吐量和內(nèi)存帶寬。GPGPU架構(gòu)設(shè)計時去掉了GPU為了圖形處理而設(shè)計的加速硬件單元,保留了GPU的SIMT(SingleInstructionMultipleThreads)架構(gòu)和通用計算單元,通過GPU多條流水線的并行計算來實現(xiàn)大量計算。所以基于GPU的圖形任務(wù)無法直接運行在GPGPU上,但對于科學(xué)計算,AI訓(xùn)練、推理任務(wù)(主要是矩陣運算)等通用計算類型的任務(wù)仍然保留了GPU的優(yōu)勢,即高效的搬運和運算有海量數(shù)據(jù)的重復(fù)性任務(wù)。目前主要用于例如物理計算、加密解密、科學(xué)計算以及比特幣等加密貨幣的生成。英偉達(dá)基于GPU、DPU和CPU構(gòu)建其加速計算平臺生態(tài)。1)主要產(chǎn)品TeslaGPU系列迭代速度快,從2008年至2022年,先后推出8種GPU架構(gòu),平均兩年多推出新架構(gòu),半年推出新產(chǎn)品。超快的迭代速度使英偉達(dá)的GPU性能走在AI芯片行業(yè)前沿,引領(lǐng)人工智能計算領(lǐng)域發(fā)生變革。2023年11月13日,英偉達(dá)宣布推出NVIDIAHGX?H200,容量是前一代H100的近兩倍,內(nèi)存帶寬提高了1.4倍。2)DPU方面,英偉達(dá)于2019年戰(zhàn)略性收購以色列超算以太網(wǎng)公司Mellanox,利用其InfiniBand(無限帶寬)技術(shù)設(shè)計出Bluefield系列DPU芯片,彌補其生態(tài)在數(shù)據(jù)交互方面的不足。InfiniBand與以太網(wǎng)相同,是一種計算機網(wǎng)絡(luò)通信標(biāo)準(zhǔn),但它具有極高的吞吐量和極低的延遲,通常用于超級計算機的互聯(lián)。英偉達(dá)的BluefieldDPU芯片可用于分擔(dān)CPU的網(wǎng)絡(luò)連接算力需求,從而提高云數(shù)據(jù)中心的效率,降低運營成本。3)CPU方面,自主設(shè)計GraceCPU并推出GraceHopper超級芯片,解決內(nèi)存帶寬瓶頸問題。采用x86CPU的傳統(tǒng)數(shù)據(jù)中心會受到PCIe總線規(guī)格的限制,CPU到GPU的帶寬較小,計算效率受到影響;而GraceHopper超級芯片提供自研GraceCPU+GPU相結(jié)合的一致內(nèi)存模型,從而可以使用英偉達(dá)NVLink-C2C技術(shù)快速傳輸,其帶寬是第5代PCIe帶寬的7倍,極大提高了數(shù)據(jù)中心的運行性能。AMD數(shù)據(jù)中心領(lǐng)域布局全面,形成CPU+GPU+FPGA+DPU產(chǎn)品矩陣。與英偉達(dá)相比,AMD在服務(wù)器端CPU業(yè)務(wù)表現(xiàn)較好,根據(jù)Passmark數(shù)據(jù)顯示,2021年Q4AMDEPYC霄龍系列在英特爾壟斷下有所增長,占全球服務(wù)器CPU市場的6%。依據(jù)CPU業(yè)務(wù)的優(yōu)勢,AMD在研發(fā)GPGPU產(chǎn)品時推出InfinityFabric技術(shù),將EPYC霄龍系列CPU與InstinctMI系列GPU直接相連,實現(xiàn)一致的高速緩存,形成協(xié)同效應(yīng)。此外,AMD分別于2022年2月、4月收購Xilinx和Pensando,補齊FPGA與DPU短板,全面進(jìn)軍數(shù)據(jù)中心領(lǐng)域。國內(nèi)GPGPU生態(tài)起步較晚,國產(chǎn)GPU亟待補位。根據(jù)華為2021年9月發(fā)布的《智能世界2030》報告,人類將于2030年進(jìn)入YB數(shù)據(jù)時代,通用算力相較2020年增長10倍、人工智能算力增長500倍。在算力需求快速增長的進(jìn)程中,國產(chǎn)GPU正面臨機遇與挑戰(zhàn)并存的局面,相關(guān)廠商需投入海量資金以及高昂的人力和時間成本。由于我國GPU行業(yè)起步較晚,缺乏相應(yīng)生態(tài),目前同國際一流廠商仍存在較大差距。在中美摩擦加劇、經(jīng)濟全球化逆行的背景下,以海光信息、天數(shù)智芯、壁仞科技和摩爾線程等為代表的國內(nèi)GPU廠商進(jìn)展迅速,國產(chǎn)GPU自主可控未來可期。2.4.“內(nèi)存墻”“功耗墻”掣肘算力發(fā)展,創(chuàng)新技術(shù)提供解決路徑1)存算一體技術(shù):以SRAM、RRAM為主的新架構(gòu),大算力領(lǐng)域優(yōu)勢大存算一體在存儲器中嵌入計算能力,以新的運算架構(gòu)進(jìn)行乘加運算。存算一體是一種以數(shù)據(jù)為中心的非馮諾依曼架構(gòu),它將存儲功能和計算功能有機結(jié)合起來,直接在存儲單元中處理數(shù)據(jù)。存算一體通過改造“讀”電路的存內(nèi)計算架構(gòu),可以直接從“讀”電路中得到運算結(jié)果,并將結(jié)果“寫”回存儲器的目標(biāo)地址,避免了在存儲單元和計算單元之間頻繁地轉(zhuǎn)移數(shù)據(jù)。存算一體減少了不必要的數(shù)據(jù)搬移造成的開銷,不僅大幅降低了功耗(降至1/10~1/100),還可以利用存儲單元進(jìn)行邏輯計算提高算力,顯著提升計算效率。它不僅適用于AI計算,也適用于感存算一體芯片和類腦芯片,是未來大數(shù)據(jù)計算芯片架構(gòu)的主流方向。存算一體技術(shù)可分為查存計算、近存計算、存內(nèi)計算和存內(nèi)邏輯,提供多種方式解決內(nèi)存墻問題。SRAM、RRAM是存算一體介質(zhì)的主流研究方向。存算一體的成熟存儲器有幾種,比如NORFLASH、SRAM、DRAM、RRAM、MRAM等NVRAM。FLASH成本低,可靠性高,但制程有瓶頸;SRAM速度快,能效比高,在存內(nèi)邏輯技術(shù)發(fā)展后有高能效和高精度的特點;DRAM容量大,成本低,但速度慢,需要不斷刷新電力;新型存儲器PCAM、MRAM、RRAM和FRAM也適用于存算一體。其中RRAM在神經(jīng)網(wǎng)絡(luò)計算中有優(yōu)勢,是下一代存算一體介質(zhì)的主流方向之一。除了SRAM之外,RRAM也是未來發(fā)展最快的新型存儲器之一,它結(jié)構(gòu)簡單,速度高,但材料不穩(wěn)定,工藝還需2-5年才能成熟。存算一體有著廣泛的應(yīng)用場景,在云側(cè)AI有著強大競爭力。存算一體可以應(yīng)用于AI和大數(shù)據(jù)計算,將AI計算中大量乘加計算的權(quán)重部分存在存儲單元中,從而在讀取的同時進(jìn)行數(shù)據(jù)輸入和計算處理,在存儲陣列中完成卷積運算。云計算和邊緣計算的大算力場景是存算一體芯片的優(yōu)勢領(lǐng)域。存算一體在大算力領(lǐng)域的競爭力影響約占90%。2)HBM技術(shù):高吞吐高帶寬,AI帶動需求激增HBM即高帶寬存儲器,是高性能GPU的核心組件,用多根數(shù)據(jù)線實現(xiàn)高帶寬。HBM具有高吞吐高帶寬的特性,單顆粒帶寬可以達(dá)到256GB/s,而GDDR6單顆粒的帶寬只有64GB/s,是HBM的1/4,DDR43200是HBM的1/10。HBM使用多根數(shù)據(jù)線實現(xiàn)高帶寬,完美解決傳統(tǒng)存儲效率低的問題。HBM/HBM2使用1024根數(shù)據(jù)線傳輸數(shù)據(jù),作為對比,GDDR是32根,DDR是64根。HBM需要使用額外的硅聯(lián)通層,通過晶片堆疊技術(shù)與處理器連接。這么多的連接線保持高傳輸頻率會帶來高功耗。因此HBM的數(shù)據(jù)傳輸頻率相對很低,HBM2也只有2Gbps,作為對比,GDDR6是16Gbps,DDR43200是3.2Gbps。這些特點導(dǎo)致了HBM技術(shù)高成本,容量不可擴,高延遲等缺點。HBM可以被廣泛的應(yīng)用到汽車高帶寬存儲器,GPU顯存芯片,部分CPU的內(nèi)存芯片,邊緣AI加速卡,Chiplets等硬件中。在高端GPU芯片產(chǎn)品中,比如NVDIA面向數(shù)據(jù)中心的A100等加速卡中就使用了HBM;部分CPU的內(nèi)存芯片,如目前富岳中的A64FX等HPC芯片中也有應(yīng)用到。車輛在快速移動時,攝像頭、傳感器會捕獲大量的數(shù)據(jù),為了更快速的處理數(shù)據(jù),HBM是最合適的選擇。Chiplets在設(shè)計過程中沒有降低對內(nèi)存的需求,隨著異構(gòu)計算(尤其是小芯片)的發(fā)展,芯片會加速對高帶寬內(nèi)存的需求,無論是HBM、GDDR6還是LPDDR6。HBM緩解帶寬瓶頸,是AI時代不可或缺的關(guān)鍵技術(shù)。隨著AI大模型和云端AI處理的發(fā)展,計算單元劇增,IO問題更嚴(yán)重了。要解決這個問題需要付出很高的代價(比如增加DDR接口通道數(shù)量、片內(nèi)緩存容量、多芯片互聯(lián)),這便是HBM出現(xiàn)的意義。HBM用晶片堆疊技術(shù)和硅聯(lián)通層把處理器和存儲器連接起來,把AI/深度學(xué)習(xí)完全放到片上,提高集成度,降低功耗,不受芯片引腳數(shù)量的限制。HBM在一定程度上解決了IO瓶頸。未來人工智能的數(shù)據(jù)量、計算量會越來越大,超過現(xiàn)有的DDR/GDDR帶寬瓶頸,HBM可能會是唯一的解決方案。3)Chiplet技術(shù):全產(chǎn)業(yè)鏈升級降本增效,國內(nèi)廠商迎重大機遇Chiplet即根據(jù)計算單元或功能單元將SOC進(jìn)行分解,分別選擇合適制程工藝制造。隨著處理器的核越來越多,芯片復(fù)雜度增加、設(shè)計周期越來越長,SoC芯片驗證的時間、成本也急劇增加,特別是高端處理芯片、大芯片。當(dāng)前集成電路工藝在物理、化學(xué)很多方面都達(dá)到了極限,大芯片快要接近制造瓶頸,傳統(tǒng)的SoC已經(jīng)很難繼續(xù)被采納。Chiplet,俗稱小芯片、芯粒,是將一塊原本復(fù)雜的SoC芯片,從設(shè)計的時候就按照不同的計算單元或功能單元進(jìn)行分解,然后每個單元分別選擇最合適的半導(dǎo)體制程工藝進(jìn)行制造,再通過先進(jìn)封裝技術(shù)將各自單元彼此互聯(lián)。Chiplet是一種類似搭樂高積木的方法,能將采用不同制造商、不同制程工藝的各種功能芯片進(jìn)行組裝,從而實現(xiàn)更高良率、更低成本。Chiplet多維度降本增效,為全產(chǎn)業(yè)鏈提供了升級機會。隨著半導(dǎo)體工藝制程推進(jìn),晶體管尺寸越來越逼近物理極限,所耗費的時間及成本越來越高,同時所能夠帶來的“經(jīng)濟效益”的也越來越有限。Chiplet技術(shù)可大幅度提高大型芯片的良率、降低設(shè)計的復(fù)雜度和設(shè)計成本,以及降低芯片制造的成本。2022年3月,Chiplet的高速互聯(lián)標(biāo)準(zhǔn)UCIe正式推出,旨在芯片封裝層面確立互聯(lián)互通的統(tǒng)一標(biāo)準(zhǔn),打造一個開放性的Chiplet生態(tài)系統(tǒng)。巨頭們合力搭建起了統(tǒng)一的Chiplet互聯(lián)標(biāo)準(zhǔn),將加速推動開放的Chiplet平臺發(fā)展,并橫跨x86、Arm、RISC-V等架構(gòu)和指令集。Chiplet的影響力也從設(shè)計端走到芯片制造與封裝環(huán)節(jié)。在芯片小型化的設(shè)計過程中,需要添加更多I/O與其他芯片芯片接口,裸片尺寸必須要保持較大的空白空間。而且,要想保證Chiplet的信號傳輸質(zhì)量就需要發(fā)展高密度、大寬帶布線的先進(jìn)封裝技術(shù)。另外,Chiplet也影響到從EDA廠商、晶圓制造和封裝公司、芯粒IP供應(yīng)商、Chiplet產(chǎn)品及系統(tǒng)設(shè)計公司到Fabless設(shè)計廠商的產(chǎn)業(yè)鏈各個環(huán)節(jié)的參與者。乾坤未定,Chiplet是國內(nèi)芯片相關(guān)公司的重要發(fā)展機遇。(1)最先受到影響的是芯片IP設(shè)計企業(yè),Chiplet本質(zhì)就是不同的IP芯片化,國內(nèi)類似IP商均有望參與其中,比如華為海思有IP甚至指令集開發(fā)實力的公司,推出基于RISC-V內(nèi)核的處理器(玄鐵910)阿里平頭哥半導(dǎo)體公司,獨立的第三方IP廠商,如芯動科技、芯原股份、芯耀輝、銳成芯微、芯來等眾多IP公司等。(2)Chiplet需要EDA工具從架構(gòu)探索、芯片設(shè)計、物理及封裝實現(xiàn)等提供全面支持,為國內(nèi)EDA企業(yè)發(fā)展帶來了突破口。芯和半導(dǎo)體已全面支持2.5DInterposer、3DIC和Chiplet設(shè)計。(3)Chiplet也推動了先進(jìn)封裝技術(shù)的發(fā)展。根據(jù)長電科技公告,在封測技術(shù)領(lǐng)域取得新的突破。4nm芯片作為先進(jìn)硅節(jié)點技術(shù),是導(dǎo)入Chiplet封裝的一部分通富微電提供晶圓級及基板級封裝兩種解決方案,其中晶圓級TSV技術(shù)是Chiplet技術(shù)路徑的一個重要部分。4)CPO技術(shù):提升數(shù)據(jù)中心及云計算效率,應(yīng)用領(lǐng)域廣泛CPO(Co-packaged,共封裝光學(xué)技術(shù))是高速電信號能夠高質(zhì)量的在交換芯片和光引擎之間傳輸。在5G時代,計算、傳輸、存儲的帶寬要求越來越高,同時硅光技術(shù)也越來越成熟,因此板上和板間的光互連成為了一種必要的方式。隨著通道數(shù)大幅增加,需要專用集成電路(ASIC)來控制多個光收發(fā)模塊。傳統(tǒng)的連接方式是Pluggable(可插拔),即光引擎是可插拔的光模塊,通過光纖和SerDes通道與網(wǎng)絡(luò)交換芯片(AISC)連接。之后發(fā)展出了NPO(Near-packaged,近封裝光學(xué)),一種將光引擎和交換芯片分別裝配在同一塊PCB基板上的方式。而CPO是一種將交換芯片和光引擎共同裝配在同一個Socketed(插槽)上的方式,形成芯片和模組的共封裝,從而降低網(wǎng)絡(luò)設(shè)備的功耗和散熱問題。NPO是CPO的過渡階段,相對容易實現(xiàn),而CPO是最終解決方案。隨著大數(shù)據(jù)及AI的發(fā)展,數(shù)據(jù)中心的需求激增,CPO應(yīng)用前景廣泛。在數(shù)據(jù)中心領(lǐng)域,CPO技術(shù)可以實現(xiàn)更高的數(shù)據(jù)密度和更快的數(shù)據(jù)傳輸速度,還可以減少系統(tǒng)的功耗和空間占用,降低數(shù)據(jù)中心的能源消耗和維護(hù)成本,能夠應(yīng)用于高速網(wǎng)絡(luò)交換、服務(wù)器互聯(lián)和分布式存儲等領(lǐng)域,例如Facebook在其自研的數(shù)據(jù)中心網(wǎng)絡(luò)FabricAggregator中采用了CPO技術(shù),提高了網(wǎng)絡(luò)的速度和質(zhì)量。在云計算領(lǐng)域,CPO技術(shù)可以實現(xiàn)高速云計算和大規(guī)模數(shù)據(jù)處理。例如微軟在其云計算平臺Azure中采用了CPO技術(shù),實現(xiàn)更高的數(shù)據(jù)密度和更快的數(shù)據(jù)傳輸速度,提高云計算的效率和性能。在5G通信領(lǐng)域,CPO技術(shù)可以實現(xiàn)更快的無線數(shù)據(jù)傳輸和更穩(wěn)定的網(wǎng)絡(luò)連接,例如華為在其5G通信系統(tǒng)中采用了CPO技術(shù),將收發(fā)器和芯片封裝在同一個封裝體中,從而實現(xiàn)了高速、高密度、低功耗的通信。除此之外,5G/6G用戶的增加,人工智能、機器學(xué)習(xí)、物聯(lián)網(wǎng)和虛擬現(xiàn)實流量的延遲敏感型流量激增,對光收發(fā)器的數(shù)據(jù)速率要求將快速增長;AI、ML、VR和AR對數(shù)據(jù)中心的帶寬要求巨大,并且對低延遲有極高的要求,未來CPO的市場規(guī)模將持續(xù)高速擴大。CPO技術(shù)壁壘高,通信公司成為主要參與者,發(fā)展迅速。銳捷網(wǎng)絡(luò)于2022年正式推出了首款應(yīng)用CPO技術(shù)的數(shù)據(jù)中心交換機,截至目前正式發(fā)布了多款同時應(yīng)用硅光技術(shù)和液冷技術(shù)的交換機,散熱成本對比同性能的可插拔光模塊設(shè)備降低了35%。聯(lián)特科技專注研發(fā)基于EML(電吸收調(diào)制激器)、SIP(硅光)、TFLN(薄膜鈮酸鋰)調(diào)制技術(shù)的800G光模塊,以及用于下一代產(chǎn)品NPO(近封裝光學(xué))/CPO(共封裝光學(xué))所需的高速光連接技術(shù)、激光器技術(shù)和芯片級光電混合封裝技術(shù)等。新易盛的光膜塊400G已廣泛應(yīng)用在各大數(shù)據(jù)中心,更高端的800G已實現(xiàn)產(chǎn)業(yè)化出貨走在行業(yè)引領(lǐng)前端,且光模塊已突破低功耗極限,同時布局了光電共同封裝(CPO)技術(shù),雙重受益,行業(yè)需求增量大。中際旭創(chuàng)400G系列相干產(chǎn)品已逐步在國內(nèi)主流設(shè)備商和互聯(lián)網(wǎng)云廠商中得到了應(yīng)用,同時也發(fā)布了800G的解決方案,部分光模塊使用自家研制的硅光芯片。3.端側(cè)AI:高通等IT龍頭布局,終端AI應(yīng)用帶動產(chǎn)業(yè)鏈升級近年來消費電子創(chuàng)新乏力,換機周期逐漸延長,智能手機、PC的出貨量有所放緩,終端生成式AI應(yīng)用有望為消費電子產(chǎn)業(yè)鏈注入新動能:搭載高端SoC的機型滲透率有望持續(xù)提升,DRAM和NAND等存儲芯片單機用量增加,通信、散熱等環(huán)節(jié)持續(xù)優(yōu)化,智能手機和PC的換機周期有望縮短;生成式AI在自動駕駛/智能座艙、機器人、XR、AIoT等領(lǐng)域的應(yīng)用也有望提速。3.1.終端算力需求凸顯,科技龍頭加快布局終端側(cè)AI年初以來,以ChatGPT為代表的生成式AI大模型持續(xù)落地和商業(yè)化。大模型參數(shù)規(guī)模迅速增大,邁入千億級和萬億級時代。通用大模型性能優(yōu)秀,但也帶來更大的硬件投入和功耗,終端算力的發(fā)展成為當(dāng)務(wù)之急。Meta、微軟、谷歌、蘋果、英特爾、聯(lián)發(fā)科等科技龍頭公司均加快部署生成式AI,并探索在手機、PC等終端的應(yīng)用。高通在《混合AI白皮書》中提出,混合AI是AI規(guī)?;l(fā)展的必然趨勢。混合AI是指終端和云端協(xié)同工作,在適當(dāng)?shù)膱鼍昂蜁r間下分配AI計算的工作負(fù)載,模型訓(xùn)練在云端實現(xiàn);根據(jù)模型復(fù)雜度,推理工作部分放在終端側(cè)?;旌螦I能夠帶來成本、能耗、性能、隱私、安全和個性化優(yōu)勢。當(dāng)前具備AI功能的智能手機、筆記本電腦和PC、汽車、XR以及物聯(lián)網(wǎng)等終端產(chǎn)品已達(dá)到數(shù)十億臺,混合AI架構(gòu)將賦能生成式AI在上述這些終端領(lǐng)域提供全新的增強用戶體驗。目前可以在終端側(cè)運行的生成式AI模型參數(shù)規(guī)模在10億至100億之間,隨著生成式AI模型不斷縮小,以及終端側(cè)處理能力的持續(xù)提升,擁有100億或更高參數(shù)的混合AI模型將能夠在終端上運行。3.2.高通持續(xù)提升終端硬件AI性能,終端側(cè)全棧AI不斷優(yōu)化高通重視前沿AI研發(fā),擁有領(lǐng)先的邊緣側(cè)AI布局。高通擁有行業(yè)領(lǐng)先的AI硬件和軟件解決方案,開發(fā)的低功耗、高性能AI,已經(jīng)形成了一個跨智能手機、汽車、XR、PC、筆記本電腦以及企業(yè)級AI等現(xiàn)有市場和新興領(lǐng)域的龐大終端AI生態(tài)系統(tǒng)。根據(jù)高通官網(wǎng)預(yù)測,混合AI有望在未來十年內(nèi)將公司的潛在市場擴大七倍以上,達(dá)到約7000億美元?!せ旌螦I在各終端陸續(xù)落地,應(yīng)用場景或?qū)⒉粩嘤楷F(xiàn)。根據(jù)高通CEO在彭博技術(shù)峰會上的發(fā)言,預(yù)計到2024年,高通公司將推出最新版AI處理器,在手機端可支持10B參數(shù)的大模型,在筆記本端可支持20B參數(shù)的大模型,在汽車端可支持40-60B參數(shù)的大模型。手機端將會出現(xiàn)越來越豐富的AI內(nèi)容生成場景,筆記本端微軟Copilot也將在高通SoC上運行。高通已形成豐富的終端側(cè)AI處理器產(chǎn)品矩陣,高性能產(chǎn)品廣泛應(yīng)用于多個機型。以高通在10月25日發(fā)布的驍龍8Gen3為例,驍龍8Gen3基于臺積電4nm制程,采用了1+5+2的八核心架構(gòu)設(shè)計,分別是1個3.3GHz超大核心Cortex-X4,5個3.2GHzCortex-A720大核和2個2.3GHzCortex-A530小核。驍龍8Gen3的CPU峰值性能相比前代提升了30%,能效提升了20%。高通持續(xù)推進(jìn)全棧AI策略,助力AI生態(tài)系統(tǒng)大規(guī)??焖偕虡I(yè)化,在支持主流框架的同時,優(yōu)化模型算法,探索終端側(cè)的軟件應(yīng)用布局。2023年2月,高通在2023年世界移動通信大會(MWC)期間高通演示了全球首個在Android智能手機上運行的StableDiffusion技術(shù),突顯了全棧策略的優(yōu)勢。StableDiffusion是一種全棧研究和優(yōu)化技術(shù),使終端側(cè)運行的操作能在僅15秒內(nèi)完成。這項技術(shù)已經(jīng)成功集成進(jìn)入高通的AI軟件棧,預(yù)計將在未來的硬件設(shè)計中發(fā)揮重要作用。3.3.手機/PC端有望率先變革,產(chǎn)業(yè)鏈投資機會值得重視混合AI或帶來硬件終端的變化:1)在功耗允許情況下,終端SoC算力持續(xù)提升,端側(cè)軟硬件一體框架加速優(yōu)化;2)模型參數(shù)的緩存量較大,DRAM配置需根據(jù)模型大小同步遞增,有望帶動存儲產(chǎn)業(yè)加速從周期底部走出;3)未來的生成式AI軟件安裝包中有可能集成訓(xùn)練好的模型參數(shù),NAND配置需相應(yīng)提高;4)手機、PC等終端的推理計算能耗增加,對產(chǎn)品的散熱要求提高;5)數(shù)據(jù)吞吐增加,總線通信模式或帶寬改變。3.3.1.SoC:終端SoC算力持續(xù)提升,軟硬件一體框架加速優(yōu)化高通目前已經(jīng)為智能手機、PC、智能汽車等各類終端平臺打造了SoC。SoC集成了CPU、GPU、NPU等各種功能模塊,其中NPU是專門為深度神經(jīng)網(wǎng)絡(luò)計算而設(shè)計的處理器,通常負(fù)責(zé)AI的算力模塊。高通SoC有望持續(xù)推陳出新,提高NPU性能,使AI算力持續(xù)升維。高通驍龍8Gen3和聯(lián)發(fā)科天璣9300都大幅度地提高了相對于前代的性能。除高通最新發(fā)布的驍龍8Gen3以外,11月6日,聯(lián)發(fā)科也發(fā)布了新一代旗艦天璣9300。天璣9300的全大核CPU架構(gòu)包括4個Cortex-X4超大核和4個Cortex-A720大核,超大核最高主頻達(dá)3.25GHz,CPU峰值性能提升達(dá)40%,功耗降低33%。強大的CPU性能和能效為天璣9300的游戲表現(xiàn)提供了極為強勁的動力基礎(chǔ),經(jīng)實測全大核CPU在GeekBench中多核性能第一。同時,天璣9300采用了Arm最新的Immortalis–G720旗艦12核GPU,峰值性能提升46%,在相同性能下功耗可降低40%,圖形處理同樣的性能、能效雙優(yōu)。3.3.2.DRAM/NAND:端側(cè)AI模型及APP擴容,存儲配置需相應(yīng)提升全球DRAM市場規(guī)模波動變化,2022年小幅回落后或恢復(fù)溫和增長。根據(jù)TrendForce集邦咨詢研究顯示,受惠于AI服務(wù)器需求攀升,帶動HBM出貨成長,加上客戶端DDR5的備貨潮,使得三大原廠出貨量均有成長,第二季DRAM產(chǎn)業(yè)營收約114.3億美元,環(huán)比增長20.4%,終結(jié)連續(xù)三個季度的跌勢。TrendForce集邦咨詢預(yù)期,第三季DRAM產(chǎn)業(yè)營收仍持續(xù)增長,且在原廠減產(chǎn)后,讓價意愿減低,故合約價已陸續(xù)落底,后續(xù)跌幅有限,因此庫存跌價損失將獲得改善,營業(yè)利益率有望轉(zhuǎn)虧為盈。隨著生成式AI模型參數(shù)遞增,DRAM配置也需提高。在INT8下,保守估計模型參數(shù)每增加10億,DRAM需要增加1GB。在手機端,分析榮耀、三星當(dāng)前最高端手機配置發(fā)現(xiàn),當(dāng)前手機內(nèi)存配置大多為8GB或16GB,如果在手機本地運行100億參數(shù)推理,需要額外增加DRAM。在PC端,分析聯(lián)想、蘋果最高端筆記本配置發(fā)現(xiàn),如果支持實現(xiàn)200億參數(shù)推理,需要新增DRAM。生成式AI推理輸出內(nèi)容或增加,NAND配置有望持續(xù)提高。手機端以榮耀、三星當(dāng)前最高端手機配置為例,榮耀Magic5至臻版閃存為1TB,而三星GalaxyS23Ultra閃存為256GB。PC端以聯(lián)想、蘋果當(dāng)前最高端筆記本配置為例,聯(lián)想LegionPro7iGen8的閃存為2TB,而蘋果MacBookM3Max閃存的最高選配可達(dá)8TB。由于NAND需要保存推理生成的數(shù)據(jù),預(yù)計生成式AI的推理結(jié)果會顯著增加,NAND容量也需要相應(yīng)提高。3.3.3.AI行情由供給側(cè)邁向應(yīng)用側(cè),建議關(guān)注產(chǎn)業(yè)鏈投資機會智能手機需求好轉(zhuǎn),有望迎來行業(yè)拐點。根據(jù)IDC統(tǒng)計數(shù)據(jù),從全球來看,2023年Q1全球智能手機出貨量為2.686億部,同比下降14.6%;Q2為2.653億部,同比下降7.8%;Q3為3.028億部,同比下降0.1%。從國內(nèi)來看,Q1中國智能手機市場出貨量約6544萬臺,同比下降11.8%;Q2約6570萬臺,同比下降2.1%;Q3約6705萬臺,同比下降6.3%。雖然三季度出貨量依舊呈現(xiàn)下降趨勢,但是隨著8月以來多個爆款新品的發(fā)布,中國智能手機市場消費者需求出現(xiàn)好轉(zhuǎn)。隨著新一輪換機周期逐漸開始,各品牌產(chǎn)品的集中上市以及年終電商平臺的促銷推動,中國智能手機市場出貨量有望在2023年第四季度迎來拐點。智能手機高端機型市場韌性較強,混合AI有望繼續(xù)帶動高端機型需求增長。將售價在800美元以上的智能手機機型劃分為高端機型,售價在400-799美元的智能手機劃分為中端機型,售價在399美元的智能手機劃分為低端機型。根據(jù)潮電智庫統(tǒng)計,2023年第三季度全球暢銷手機前20高端機型總銷量為6156.7萬部,同比2022年第三季度總銷量的4795萬部增長28%。高端機型手機銷量每季度占比約在30%水平,2023年第三季度高端機型占比33.4%。相比之下,中低端機型的總銷量都有所下降。未來混合AI或率先布局在高端機型市場,各大手機廠商的旗艦機型銷量有望進(jìn)一步提升。我們認(rèn)為,近年來消費電子創(chuàng)新乏力,換機周期逐漸延長,智能手機、PC的出貨量有所放緩,終端生成式AI應(yīng)用有望為消費電子產(chǎn)業(yè)鏈注入新動能:搭載高端SoC的機型滲透率有望持續(xù)提升,DRAM和NAND等存儲芯片單機用量增加,通信、散熱等環(huán)節(jié)持續(xù)優(yōu)化,智能手機、PC等消費電子的換機周期有望縮短,創(chuàng)新類AIoT終端有望增加,生成式AI在汽車、機器人等領(lǐng)域落地也有望加速,建議重點關(guān)注手機、PC、汽車、機器人、XR、AIoT等相關(guān)產(chǎn)業(yè)鏈投資機會。4.先進(jìn)封裝:先進(jìn)制程貼近物理極限,Chiplet迎來黃金發(fā)展期隨著摩爾定律的逐漸放緩,先進(jìn)制程的技術(shù)迭代已逐步接近物理極限,Chiplet技術(shù)的興起正為半導(dǎo)體產(chǎn)業(yè)帶來新的發(fā)展機遇。通過將芯片模塊化、分立化,并利用先進(jìn)的封裝技術(shù)將各個芯粒集成,Chiplet不僅提高了芯片設(shè)計的靈活性,降低了制造和封裝的難度,同時也能夠?qū)崿F(xiàn)更高的集成度和更低的成本。這對于高性能計算、人工智能、5G、自動駕駛等新興領(lǐng)域的需求增加以及全球封測市場的快速發(fā)展具有重要意義。建議重點關(guān)注國內(nèi)Chiplet先進(jìn)封裝產(chǎn)業(yè)鏈投資機會。4.1.先進(jìn)制程迭代放緩,Chiplet展現(xiàn)集成優(yōu)勢Chiplet是延續(xù)摩爾定律的關(guān)鍵手段。Chiplet通過將大型芯片分解為多個具特定功能的小芯片,并使用先進(jìn)封裝技術(shù)將它們互聯(lián),最終集成封裝為一個系統(tǒng)芯片。這種硅片級別的IP整合重用技術(shù)可以有效提高芯片的研發(fā)速度,降低研發(fā)成本和門檻。摩爾定律正在放緩,而Chiplet的性價比逐漸凸顯,通過突破單芯片SoC的諸多瓶頸,有望延續(xù)摩爾定律。Chiplet在設(shè)計成本、良率、制造成本、設(shè)計靈活性等方面具有明顯優(yōu)勢。通過將大型芯片拆解為多個小芯片,可以提高制造良率、降低芯片制造成本、提高芯片設(shè)計的靈活性和可定制化程度,并縮短芯片上市時間。然而,Chiplet方案在互聯(lián)與封裝兩塊還存在一定的難點,需要解決高數(shù)據(jù)吞吐量與低數(shù)據(jù)延遲和誤碼率、能效和連接距離等問題,同時對封裝工藝也提出了更高的要求。盡管如此,Chiplet技術(shù)的優(yōu)勢仍然使其成為延續(xù)摩爾定律的重要手段。4.2.AI等高算力芯片需求增加,Chiplet迎來高速發(fā)展在高性能計算領(lǐng)域,Chiplet技術(shù)已成為滿足當(dāng)下對算力需求的關(guān)鍵。通過將更多算力單元高密度、高效率、低功耗地連接在一起,實現(xiàn)超大規(guī)模計算,同時高速互聯(lián)網(wǎng)絡(luò)將芯片級異構(gòu)系統(tǒng)實現(xiàn)高速預(yù)處理和數(shù)據(jù)調(diào)度,非先進(jìn)制程構(gòu)建Cache提高片上Cache的容量和性價比,3D近存技術(shù)降低存儲訪問功耗,從而滿足大模型參數(shù)需求。服務(wù)器、自動駕駛等領(lǐng)域適合Chiplet落地場景,而消費電子由于對輕薄、功耗要求較高,不太適合應(yīng)用Chiplet。隨著算力、存儲等需求升級,Chiplet有望在未來得到更加廣泛的應(yīng)用。國際巨頭廠商已經(jīng)布局Chiplet在高性能計算領(lǐng)域的應(yīng)用,如英特爾發(fā)布了基于Chiplet技術(shù)的數(shù)據(jù)中心GPU,AMD發(fā)布了APU,蘋果則與臺積電合作開發(fā)了UltraFusion封裝技術(shù)。在AI芯片領(lǐng)域,運用Chiplet模式的異構(gòu)集成方案可以大幅降低芯片設(shè)計投入門檻及風(fēng)險,有效解決下游客戶難以平衡的核心痛點,國際巨頭廠商與國內(nèi)領(lǐng)先廠商都在AI芯片的運用上做了不同突破。中國首款基于Chiplet的AI芯片“啟明930”為北極雄芯開發(fā),該芯片采用12nm工藝生產(chǎn),中央控制芯粒采用RISC-VCPU核心,可通過高速接口搭載多個功能型芯粒,并基于全國產(chǎn)基板材料以及2.5D封裝,做到算力可拓展,提供8-20TOPS(INT8)稠密算力來適應(yīng)不同場景,目前已與多家AI下游場景合作伙伴進(jìn)行測試。Chiplet技術(shù)被視為”異構(gòu)”技術(shù)的焦點,已是當(dāng)下最被企業(yè)所認(rèn)可的新型技術(shù)之一。2022年3月,英特爾、AMD、Arm、高通、三星、臺積電、日月光、GoogleCloud、Meta、微軟等全球領(lǐng)先的芯片廠商共同成立了UCIe聯(lián)盟,UCIe聯(lián)盟的建立旨在促進(jìn)Chiplet模式的應(yīng)用發(fā)展,越來越多的企業(yè)開始研發(fā)Chiplet相關(guān)產(chǎn)品。中國首個原生Chiplet技術(shù)標(biāo)準(zhǔn)發(fā)布,有助于行業(yè)規(guī)范化、標(biāo)準(zhǔn)化發(fā)展。據(jù)Gartner統(tǒng)計,Chiplet市場規(guī)模在2024年將達(dá)到505億美元,復(fù)合年增長率高達(dá)98%。先進(jìn)封裝市場的發(fā)展為Chiplet市場提供了技術(shù)基礎(chǔ),隨著技術(shù)的不斷進(jìn)步,Chiplet市場將迎來更廣闊的發(fā)展空間。4.3.龍頭IC制造及封測廠加碼布局Chiplet隨著Chiplet技術(shù)的普及,封測環(huán)節(jié)在產(chǎn)業(yè)鏈中的地位日益重要。Chiplet技術(shù)發(fā)展早期往往局限于企業(yè)內(nèi)部獨立研發(fā)和應(yīng)用,且僅應(yīng)用于一些高端產(chǎn)品,如服務(wù)器和高性能計算等,組裝和測試等方面仍存在技術(shù)瓶頸。隨著Chiplet技術(shù)的不斷成熟和商業(yè)化推廣,越來越多的芯片廠商、設(shè)計公司和封測廠開始使用Chiplet技術(shù),Chiplet的商業(yè)化應(yīng)用趨勢也促進(jìn)了整個芯片生態(tài)系統(tǒng)的升級和發(fā)展。Chiplet產(chǎn)業(yè)鏈主鏈有四大環(huán)節(jié),包括芯粒、芯片設(shè)計、封裝生產(chǎn)和系統(tǒng)應(yīng)用,支撐環(huán)節(jié)包括芯粒生產(chǎn)、設(shè)計平臺、EDA工具、封裝基板、封測設(shè)備等領(lǐng)域。從Chiplet產(chǎn)業(yè)鏈邏輯看,芯片設(shè)計和封裝處于鏈條中心環(huán)節(jié),且與后端系統(tǒng)應(yīng)用緊密聯(lián)動,而晶圓廠則被前置,成為芯粒提供商的生產(chǎn)環(huán)節(jié)。專業(yè)公司提供的芯??梢詢?yōu)化設(shè)計和制造過程,提高生產(chǎn)效率,降低成本。芯片設(shè)計師需要考慮每個小型芯片的性能要求和接口通信方式,利用EDA工具進(jìn)行設(shè)計、驗證和仿真。同時,封測環(huán)節(jié)面臨高密度互聯(lián)帶來的工藝挑戰(zhàn),如散熱、供電等問題,需要不斷提升技術(shù)水平以保證良率。Chiplet技術(shù)已廣泛應(yīng)用于云、AI等領(lǐng)域,國內(nèi)外企業(yè)也紛紛推出基于Chiplet的產(chǎn)品。全球廠商紛紛加碼布局Chiplet先進(jìn)封裝技術(shù)。臺積電的3DFabric技術(shù)已應(yīng)用于FPGA、CPU、GPU等芯片,而Intel主導(dǎo)的EMIB技術(shù)則實現(xiàn)了高效高密度封裝。三星也在積極投資3D封裝技術(shù),以滿足HPC應(yīng)用的發(fā)展需求。日月光憑借FOCoS技術(shù)成為唯一擁有超高密度扇出解決方案的供應(yīng)商。這些先進(jìn)封裝技術(shù)正促進(jìn)全球芯片產(chǎn)業(yè)的發(fā)展。中國半導(dǎo)體企業(yè)緊跟產(chǎn)業(yè)趨勢,加快布局Chiplet先進(jìn)封裝技術(shù)。長電科技推出的面向Chiplet小芯片的高密度多維異構(gòu)集成技術(shù)平臺XDFOITM可實現(xiàn)TSV-less技術(shù),達(dá)到性能和成本的雙重優(yōu)勢;通富微電在先進(jìn)封裝方面公司已大規(guī)模生產(chǎn)Chiplet產(chǎn)品,7nm產(chǎn)品已大規(guī)模量產(chǎn),5nm產(chǎn)品已完成研發(fā)即將量產(chǎn);華天科技已量產(chǎn)Chiplet產(chǎn)品,主要應(yīng)用于5G通信、醫(yī)療等領(lǐng)域。后摩爾時代,Chiplet由于高性能、低功耗、高面積使用率以及低成本的優(yōu)勢,在延續(xù)摩爾定律的“經(jīng)濟效益”方面被寄予厚望。Chiplet芯片設(shè)計環(huán)節(jié)能夠降低大規(guī)模芯片設(shè)計的門檻,給中國集成電路產(chǎn)業(yè)帶來巨大發(fā)展機遇。5.存儲:周期與成長共振,AI+DDR5升級帶來增量存儲芯片是全球半導(dǎo)體的重要組成部分??春么鎯Ξa(chǎn)業(yè)的核心邏輯如下:1)市場空間大,占全球半導(dǎo)體規(guī)模約1/4;2)隨著資金、技術(shù)、人才持續(xù)投入,未來十年有望進(jìn)入加速發(fā)展期;3)以HBM為代表的DRAM,會成為生成式AI的核心收益方向;4)以近存計算、存算一體為代表的新一代計算架構(gòu),有望為AI提供高性價比算力;5)2022年開始,存儲產(chǎn)業(yè)進(jìn)入下行周期,隨著三星、海力士、美光的龍頭減產(chǎn),供給大幅減少,云端AI、AI手機/PC等有望拉動HBM、LPDDR5等需求,存儲產(chǎn)業(yè)有望進(jìn)入上行周期。5.1.存儲行業(yè)觸底企穩(wěn),供需格局持續(xù)優(yōu)化存貨壓力由來已久,并逐漸從供給端向需求端傳導(dǎo)。從供給端來看,存儲的庫存積壓自2021年底開始并逐漸增長。供給端在23Q1庫存水位達(dá)到最高,23Q2開始逐漸回落,同時,各需求端的存貨水位出現(xiàn)不同幅度的上升,庫存壓力傳導(dǎo)至需求端。為消耗庫存,各存儲原廠在23Q1的營業(yè)利潤率降至最低,行業(yè)周期觸底。受庫存積壓影響,存儲產(chǎn)業(yè)龍頭普遍傾向于減產(chǎn),供給格局向好。存儲芯片的競爭格局高度集中,國產(chǎn)化率低,以DRAM為例,三星、海力士、美光全球占比分別為43.6%/22.8%/27.7%,合計占94%,海力士在對部分收益性較低產(chǎn)品減產(chǎn)后,在23Q2財報中提出要擴大NAND產(chǎn)品減產(chǎn)規(guī)模;三星在23Q2財報電話會議中提到將延長減產(chǎn)行動,并對NAND在內(nèi)的某些產(chǎn)品進(jìn)行額外的產(chǎn)量調(diào)整;美光在23Q2財報中提到將減少DRAM和NAND30%的產(chǎn)量,計劃延續(xù)到2024年。龍頭減產(chǎn),渠道庫存的消化速度有望加快。原廠產(chǎn)量不及需求,價格彈性大。存儲產(chǎn)品銷貨周期明顯,隨著2023年銷貨量的觸底企穩(wěn),TrendForce預(yù)計23Q4和24Q1DRAM和閃存都將迎來需求大幅上升。受原廠減產(chǎn)影響,產(chǎn)量不及需求,存貨消耗速度有望進(jìn)一步得到提升,行業(yè)發(fā)展向好。自21H2以來,存儲產(chǎn)品價格一直處于下行通道。目前大宗DRAM產(chǎn)品價格已有回升趨勢。預(yù)計24H1有望迎來景氣周期,價格將出現(xiàn)明顯上升。根據(jù)TrendForce預(yù)測,23Q4DRAM價格將增加10%以上,2024年將保持增量在5%-10%左右;而閃存產(chǎn)品價格自22Q3開始下降,雖然從23Q3開始有回升態(tài)勢,但到2024年仍然無法回升到跌價周期起始水平。5.2.生成式AI顯著帶動DRAM需求,存儲行業(yè)發(fā)展長期向好5.2.1.“內(nèi)存墻”、“功耗墻”掣肘AI的算力發(fā)展“存”“算”性能失配,內(nèi)存墻導(dǎo)致訪存時延高,效率低。內(nèi)存墻,指內(nèi)存的容量或傳輸帶寬有限而嚴(yán)重限制CPU性能發(fā)揮的現(xiàn)象。內(nèi)存的性能指標(biāo)主要有“帶寬”(Bandwidth)和“等待時間”(Latency)。近20年間,運算設(shè)備的算力提高了90000倍,提升非???。雖然存儲器從DDR發(fā)展到GDDR6x,能夠用于顯卡、游戲終端和高性能運算,接口標(biāo)準(zhǔn)也從PCIe1.0a升級到NVLink3.0,但是通訊帶寬的增長只有30倍,和算力相比提高幅度非常緩慢。馮諾依曼架構(gòu)下,數(shù)據(jù)傳輸導(dǎo)致嚴(yán)重的功耗損失。馮·諾依曼架構(gòu)要求數(shù)據(jù)在存儲器單元和處理單元之間不斷地“讀寫”,這樣數(shù)據(jù)在兩者之間來回傳輸就會消耗很多的傳輸功耗。根據(jù)英特爾的研究表明,當(dāng)半導(dǎo)體工藝達(dá)到7nm時,數(shù)據(jù)搬運功耗高達(dá)35pJ/bit,占總功耗的63.7%。數(shù)據(jù)傳輸造成的功耗損失越來越嚴(yán)重,限制了芯片發(fā)展的速度和效率,形成了“功耗墻”問題。AI模型參數(shù)量極速擴大,GPU內(nèi)存增長速度捉襟見肘。在GPT-2之前的模型時代,GPU內(nèi)存還能滿足AI大模型的需求。近年來,隨著Transformer模型的大規(guī)模發(fā)展和應(yīng)用,模型大小每兩年平均增長了240倍。GPT-3等大模型的參數(shù)增長已經(jīng)超過了GPU內(nèi)存的增長。傳統(tǒng)的設(shè)計趨勢已經(jīng)不能適應(yīng)當(dāng)前的需求,芯片內(nèi)部、芯片之間或AI加速器之間的通信成為了AI訓(xùn)練的瓶頸。AI訓(xùn)練不可避免地遇到了“內(nèi)存墻”問題。AI模型運算量增長速度不斷加快,推動硬件算力增長。預(yù)訓(xùn)練技術(shù)的進(jìn)步導(dǎo)致了各領(lǐng)域模型計算量的快速增長,大約每兩年就要增加15倍。而

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論