電子行業(yè)市場分析研究_第1頁
電子行業(yè)市場分析研究_第2頁
電子行業(yè)市場分析研究_第3頁
電子行業(yè)市場分析研究_第4頁
電子行業(yè)市場分析研究_第5頁
已閱讀5頁,還剩30頁未讀 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡介

電子行業(yè)市場分析研究一、計(jì)算芯片:看好AI催化GPU/CPU等各類計(jì)算芯片投資機(jī)會1.1GPU為AI訓(xùn)練算力之源,國產(chǎn)替代和自主可控邏輯進(jìn)一步加強(qiáng)在人工智能發(fā)展的早期,缺乏算力和數(shù)據(jù)資源以及算法模型的局限性使得企業(yè)難以將偏通用的場景落地到企業(yè)場景中。而隨著Transformer模型統(tǒng)一底層算法模型后,算力和數(shù)據(jù)則逐漸成為最寶貴的資源。ChatGPT爆火的背后則代表著AI領(lǐng)域的未來發(fā)展趨勢,大模型先在大規(guī)模公開數(shù)據(jù)集上完成預(yù)訓(xùn)練,隨后遷移到具體應(yīng)用場景上無需或僅需少量調(diào)整即可應(yīng)用。預(yù)訓(xùn)練大模型的崛起以及算力成本的不斷下降,使得大模型逐漸成為AI領(lǐng)域的基礎(chǔ)設(shè)施,而GPU則是AI訓(xùn)練算力之源。AI大模型時(shí)代,算力需求提升明顯,并保持指數(shù)級增長。2015至2016年左右,AI大模型問世,大模型趨勢始于2015年底AlphaGo的出現(xiàn)并一直延續(xù)至今。期間,這些大規(guī)模模型由科技巨擘訓(xùn)練,他們擁有的更多訓(xùn)練預(yù)算打破了以往的趨勢,大模型由于參數(shù)數(shù)量大幅增加,所需要的算力也相較常規(guī)模型大幅增長。目前ChatGPT的總算力消耗約為3640PF-days(即假如每秒計(jì)算一千萬億次,需要計(jì)算3640天),需要7~8個(gè)投資規(guī)模30億、算力500P的數(shù)據(jù)中心才能支撐運(yùn)行。大模型算力增加呈指數(shù)級變化,每9至10個(gè)月翻一番。2015年推出的AlphaGoLee大模型所需要的訓(xùn)練量算力超過10^21FLOPs,而2021年推出的大模型Megatron-TuringNLG530B的訓(xùn)練算力需求已經(jīng)超過了10^24FLOPs,算力提升了1000倍左右。中美在AI大模型賽道上展開激烈競爭,背后比拼的是算力以及數(shù)據(jù)資源。根據(jù)OpenBMB的數(shù)據(jù),截至2022年12月,擁有大模型數(shù)量前十名的組織中,中國和美國分別占據(jù)4和6席;擁有大模型參數(shù)量前十名的組織中,中國和美國同樣分別占據(jù)4和6席。GPU直接受益于全球算力需求激增。根據(jù)VerifiedMarketResearch的數(shù)據(jù),2021年全球GPU市場規(guī)模335億元,2028年全球GPU市場規(guī)模有望達(dá)到4774億元,22-30年CAGR達(dá)33.3%。英偉達(dá)是GPU市場的主導(dǎo)者,全球獨(dú)立顯卡市占率高達(dá)80%。其高端GPU如H100,A100和V100等占據(jù)了AI算法訓(xùn)練市場絕大部分的份額。我們測算2026年全球數(shù)據(jù)中心GPU市場規(guī)模將達(dá)到749億美元。隨著ChatGPT引爆新一輪人工智能應(yīng)用的熱情,我們看好人工智能將成為未來無所不在的工具,海內(nèi)外數(shù)據(jù)中心、云業(yè)務(wù)廠商紛紛開始推動AI基礎(chǔ)設(shè)施建設(shè),AI服務(wù)器出貨量在全部服務(wù)器中的占比逐漸提高。根據(jù)TrendForce的數(shù)據(jù),2022年搭載GPGPU的AI服務(wù)器年出貨量占全部服務(wù)器的比重接近1%,2023年在ChatGPT等人工智能應(yīng)用加持下,根據(jù)我們對產(chǎn)業(yè)鏈上下游的調(diào)研,我們看好2023-2025年AI訓(xùn)練服務(wù)器出貨量實(shí)現(xiàn)50%左右的高增速,2026年出貨量增速保持在30%左右。目前數(shù)據(jù)中心GPU主要以英偉H100、A100、A800(主要出貨中國)以及AMDMI250、MI250X系列為主,英偉達(dá)與AMD的占比約8:2。我們測算2026年全球數(shù)據(jù)中心GPU市場規(guī)模有望達(dá)749億美元,22-26年CAGR達(dá)44%。目前國內(nèi)廠商GPU市占率不足1%,美國對華制裁加速GPU國產(chǎn)替代。2015年以來美國對GPU的制裁不斷升級,美國國防部研究員曾提出中美競爭中,利用人工智能更多且更快的一方將獲勝。前幾年主要是美國將中國超算中心及相關(guān)GPU芯片企業(yè)拉入實(shí)體清單,以此達(dá)到限制中國AI以及超級計(jì)算機(jī)的發(fā)展,但是限制范圍限于超算單一場景。2022年9月,美國針對AI、HPC及數(shù)據(jù)中心研發(fā)所用的高端GPU發(fā)出限制,英偉達(dá)的A100和H100以及AMD的MI250芯片暫停向中國客戶銷售。2022年10月,美國升級禁令限制范圍,對高算力芯片的連接速度和每秒運(yùn)算次數(shù)等具體參數(shù)做限制,除英偉達(dá)和AMD外,國內(nèi)廠商海光信息的部分產(chǎn)品也被加入到限制范圍內(nèi)。美國將制裁限制范圍由應(yīng)用場景擴(kuò)大到芯片和產(chǎn)品層面,其實(shí)也是代表著國內(nèi)相關(guān)GPU產(chǎn)品或下游應(yīng)用發(fā)展超過美國政府的預(yù)期。我們認(rèn)為美國持續(xù)加大對中國高端芯片的出口限制,高速運(yùn)算相關(guān)的GPU芯片國產(chǎn)化進(jìn)程必然加快。1.2AI及信創(chuàng)推動核心行業(yè)服務(wù)器CPU國產(chǎn)替代浪潮國產(chǎn)服務(wù)器在運(yùn)營商、政府以及企業(yè)上滲透主要由信創(chuàng)推動:黨政信創(chuàng)先行,八大行業(yè)全面推進(jìn)。國家層面提出的是2+8體系,“2”代表黨、政,“8”則是代表國民生計(jì)的八大行業(yè):金融、電力、電信、石油、交通、教育、醫(yī)療、航空航天。黨政機(jī)關(guān)是信創(chuàng)國產(chǎn)化的領(lǐng)頭羊,據(jù)零壹智庫的數(shù)據(jù)顯示,信創(chuàng)應(yīng)用進(jìn)展落地最快是黨政,落地實(shí)踐率為7.01%。而八大行業(yè)中,金融行業(yè)是最早開始推進(jìn)信創(chuàng)應(yīng)用同時(shí)也是進(jìn)度最快的行業(yè),落地實(shí)踐率為29.55%,其次是電信和電力行業(yè)。英特爾和AMD壟斷全球CPU市場,英特爾在服務(wù)器CPU市場占據(jù)絕對優(yōu)勢。根據(jù)IDC的數(shù)據(jù),2022年全球服務(wù)器市場規(guī)模有望達(dá)1216億美元,2026年全球服務(wù)器市場規(guī)模有望達(dá)1665億美元,22-26年CAGR達(dá)10.2%。截至23Q1,intel在全球CPU市場中的占比為63。0%,在全球服務(wù)器CPU市場中的占比為94.2%,在服務(wù)器CPU市場中占據(jù)絕對主導(dǎo)地位。國產(chǎn)服務(wù)器CPU芯片滲透率低,對應(yīng)巨大國產(chǎn)替代空間。根據(jù)海光信息招股說明書的數(shù)據(jù),2020年國內(nèi)x86服務(wù)器芯片出貨量698.1萬顆,絕大部分市場份額被Intel和AMD兩家公司占據(jù),合計(jì)市場份額超過95%,其中Intel產(chǎn)品市場占有率遙遙領(lǐng)先。2020年海光信息CPU產(chǎn)品銷售量約占總體市場份額的3.75%,占據(jù)了國產(chǎn)x86服務(wù)器CPU絕大部分市場份額。除了海光之外,國內(nèi)CPU廠商主要有海思、龍芯、兆芯、飛騰、申威等。我們測算國內(nèi)x86服務(wù)器用CPU市場規(guī)模為315.1億美元。IDC數(shù)據(jù)顯示,預(yù)計(jì)2025年國內(nèi)x86服務(wù)器出貨量將達(dá)到525.2萬臺。根據(jù)x86服務(wù)器出貨量和x86服務(wù)器路數(shù)分布情況進(jìn)行計(jì)算,2020年中國市場x86服務(wù)器芯片出貨量約為698.1萬顆。假設(shè)到2025年x86服務(wù)器的平均路數(shù)為3,預(yù)測2025年中國市場x86服務(wù)器芯片出貨量可達(dá)1575.6萬顆,對應(yīng)市場空間可達(dá)315.1億美元,22-25年CAGR達(dá)19%。我們測算2025年整體x86架構(gòu)國產(chǎn)PC+服務(wù)器端CPU國產(chǎn)替代空間達(dá)554.3億元,22-25年CAGR為32%。我們認(rèn)為服務(wù)器領(lǐng)域國產(chǎn)替代空間,主要在于政府機(jī)關(guān)、事業(yè)單位以及核心國央企等,有望率先放量。測算邏輯如下:1)相關(guān)人數(shù)測算:根據(jù)人社部2016年發(fā)布的《2015年人力資源和社會保障事業(yè)發(fā)展統(tǒng)計(jì)公報(bào)》,中國共有公務(wù)員716.7萬人,我們假設(shè)目前公務(wù)員人數(shù)為800萬人。根據(jù)國家統(tǒng)計(jì)局,2020年我國國有單位就業(yè)人員共5563萬人,此口徑以政府機(jī)關(guān)、事業(yè)單位為主,根據(jù)國家統(tǒng)計(jì)局,剔除教育、衛(wèi)生&社會保障和社會福利院后,2020年中口徑國有單位就業(yè)人員共3032萬人,因此假設(shè)國央企及事業(yè)單位人數(shù)預(yù)計(jì)有8000萬人。2)假設(shè)每人配備一臺PC,PC與服務(wù)器配置比例為10:1,根據(jù)海光3000系列,PC端CPU單顆價(jià)值1000元/顆,服務(wù)端:海光目前最高端7200芯片ASP11000元,低端7100ASP4000元,整體服務(wù)器CPU均價(jià)大約8000元/顆。3)假設(shè)到2025年黨政機(jī)關(guān)國產(chǎn)服務(wù)器替換比例為95%,其中國產(chǎn)x86服務(wù)器占比20%;國央企及事業(yè)單位國產(chǎn)x86服務(wù)器替換比例為20%。那么測算得出,預(yù)計(jì)2022年X86架構(gòu)國產(chǎn)PC+服務(wù)器CPU替換空間為242.8億元,到2025年有望達(dá)到554.3億元,22-25年CAGR為32%。二、PCB:AI催化算力需求,看好服務(wù)器主板和載板投資機(jī)會1)AI需求興起,服務(wù)器PCB/CCL升級大潮將至需求端,為了更高的數(shù)據(jù)運(yùn)算和傳輸效率來支持技術(shù)不斷迭代更新云計(jì)算平臺,PaaS對IaaS以及更上游零部件提供的新代更優(yōu)產(chǎn)品有較為迫切的需求。供應(yīng)端,數(shù)據(jù)運(yùn)算和傳輸效率的性能提升來自兩方面:服務(wù)器設(shè)備數(shù)量的增加和單設(shè)備算力的提升,其中服務(wù)器算力的提升主要依靠整個(gè)服務(wù)器平臺(CPU+芯片組+總線)。AI需求興起將加速服務(wù)器平臺向更強(qiáng)大性能設(shè)備方向的產(chǎn)品換代需求。PCB/CCL行業(yè)在這一發(fā)展過程中將呈現(xiàn)產(chǎn)品價(jià)值量普遍提升的趨勢。從主流廠商規(guī)劃來看,目前Intel服務(wù)器平臺正經(jīng)歷從Whitley升級至EagleStream的過程,其中PCB層數(shù)將從12-16層升級到16-20層,價(jià)值量將會至少提升50%,CCL等級將從LowLoss升級至VeryLowLoss,價(jià)值量將提升50%~100%,可見服務(wù)器升級將給PCB/CCL帶來顯著的價(jià)值增長。從格局上來看,大陸PCB廠商因配合國內(nèi)服務(wù)器廠商研發(fā)和供應(yīng),已經(jīng)在全球服務(wù)器PCB競爭中占有一席之地,只要服務(wù)器升級放量,則會對相應(yīng)的大陸PCB廠商帶來拉動;大陸CCL在全球市場競爭中布局相對較慢,全球特種基材CCL市場(包括高速CCL)競爭中僅有生益科技進(jìn)入全球前十大供應(yīng)商,可見國內(nèi)CCL在高端CCL市場仍處于追趕的階段。2)算力對CPU/GPU要求大幅提升,先進(jìn)封裝凸顯載板價(jià)值A(chǔ)I對算力提出了較高要求,但隨著先進(jìn)制程的提升越發(fā)緩慢,先進(jìn)封裝將成為解決多芯片之間高速互連的關(guān)鍵方向(預(yù)計(jì)未來復(fù)合增速達(dá)到9.8%),而載板作為先進(jìn)封裝的核心材料(成本占比達(dá)到50%),有望在算力提升的大背景下打開價(jià)值空間。載板的作用是為CPU等芯片與PCB母板之間提供電氣連接與物理支撐。隨著GPU/CPU芯片的性能提升,其對相應(yīng)載板的要求也水漲船高,具體來說,F(xiàn)CBGA載板最能夠滿足AI運(yùn)算高性能需求。AI技術(shù)發(fā)展對先進(jìn)封裝技術(shù)要求進(jìn)一步提升,而FCBGA作為能夠?qū)崿F(xiàn)芯片高速化與多功能化的高密度半導(dǎo)體封裝基板,相較FCCSP產(chǎn)品而言具有層數(shù)多、面積大、線路密度高、線寬線距小等特點(diǎn),能夠承載AI高性能運(yùn)算。根據(jù)CPCA,PGA/LGA/BGA產(chǎn)品2021-2026間CAGR將達(dá)11.5%,到2026市場空間超120億美元,為載板產(chǎn)品中增長最快、價(jià)值量最高的產(chǎn)品。載板因產(chǎn)業(yè)鏈壁壘和技術(shù)壁壘較高,因此該市場長期被日韓臺廠商高度壟斷,根據(jù)2021年數(shù)據(jù),目前國內(nèi)主要載板公司深南電路、興森科技在全球的市占率合計(jì)不到5%。我們認(rèn)為隨著半導(dǎo)體產(chǎn)業(yè)鏈國產(chǎn)替代趨勢凸顯,國內(nèi)廠商布局步伐加快將帶來快速成長機(jī)會,行業(yè)上升空間較大。國內(nèi)載板廠商已經(jīng)形成鮮明的布局梯隊(duì),其中深南電路、興森科技、珠海越亞因布局較早成為國內(nèi)布局第一梯隊(duì)廠商,景旺電子、博敏電子、中京電子、崇達(dá)技術(shù)等也在相應(yīng)做載板相關(guān)布局,我們認(rèn)為在當(dāng)前國產(chǎn)替代迫在眉睫的階段,應(yīng)當(dāng)首先關(guān)注第一梯隊(duì)廠商與大客戶配合情況,其次應(yīng)跟蹤第二梯隊(duì)廠商的技術(shù)突破情況。基于邊際變化分析的角度,我們認(rèn)為可以通過兩方面的對比來把握未來變化關(guān)鍵點(diǎn),一方面對比DGXA100和普通服務(wù)器,以觀測AI帶來的價(jià)值增量;另一方面對比DGXA100和DGXH100,以觀測未來AI技術(shù)繼續(xù)迭代的情況下PCB的增量點(diǎn)。2.1普通vsA100:普通單機(jī)2425元,95%的價(jià)值增量貢獻(xiàn)來自GPU板組依據(jù)前述拆解方式,我們選取市面上較為先進(jìn)的2U普通服務(wù)器華為2288HV6(雙路服務(wù)器,PCIE4.0)為普通服務(wù)器代表,通過拆解分析,我們估測普通服務(wù)器的PCB用量面積為0.630平方米,并且根據(jù)產(chǎn)業(yè)鏈調(diào)研,普通服務(wù)器功能板塊的PCB板型規(guī)格與AI服務(wù)器中CPU母板組和配件組相差不大,由此合計(jì)估測單機(jī)價(jià)值量為2425元。對比普通服務(wù)器和以DGXA100為代表的AI服務(wù)器,AI服務(wù)器所用PCB單機(jī)價(jià)值量相對普通服務(wù)器提升532%,增量貢獻(xiàn)主要來自算力需求(貢獻(xiàn)增量的95%)和集中度提升(貢獻(xiàn)增量的5%),其中載板級的單機(jī)價(jià)值量提升490%、增量貢獻(xiàn)主要來自算力需求(貢獻(xiàn)增量100%),PCB板級的單機(jī)價(jià)值量提升580%、增量貢獻(xiàn)90%來自算力而10%來自集中度提升。2.2A100vsH100:H100單機(jī)1.95萬元,83%的價(jià)值增量貢獻(xiàn)來自GPU板組再對比新款DGXH100和DGXA100,我們發(fā)現(xiàn)新產(chǎn)品架構(gòu)有一些變化,同樣分三個(gè)部分來看:1)GPU板組,性能提升之后相應(yīng)PCB的規(guī)格也會有所提升,具體來看,GPU載板,芯片性能增加,封裝架構(gòu)也會升級(如搭配HBM3),根據(jù)產(chǎn)業(yè)鏈調(diào)研,H100單片載板價(jià)值量會提升30%、約為150美元/片,在數(shù)量和面積變化不大的情況下,估測單機(jī)價(jià)值量為7800元,單機(jī)價(jià)值量相對A100方案提升50%;NVSwitch,集成度提高導(dǎo)致數(shù)量減少為4片,單價(jià)估測提升至40美元/片,因此對應(yīng)單機(jī)價(jià)值量為1040元,單機(jī)價(jià)值量相對A100方案有所下降11%;GPU加速卡(OAM),由于芯片性能有所提升,加速卡的工藝規(guī)格升級為5階HDI,對應(yīng)單價(jià)提升至15000元/平方米,在數(shù)量和面積沒有變化的情況下,估測單機(jī)價(jià)值量提升至3600元,相比A100提升25%;GPU模組板(UBB),集成度提高使得模組板的設(shè)計(jì)相對更緊湊,但層數(shù)和工藝變化不大,對應(yīng)單價(jià)提升至11000元/平方米,在數(shù)量和面積沒有變化的情況下,估測單機(jī)價(jià)值量提升至3300元,相比A100提升10%。由此,DGXH100GPU板組PCB用量的面積為0.612平方米,單機(jī)價(jià)值量提升至15700元,相比A100版本提升28%,主要提升點(diǎn)來自GPU載板、GPU加速卡(OAM)和模組板(UBB)。2)CPU母板組,CPU母板有升級,網(wǎng)卡集成度顯著提升,具體來看,CPU載板,CPU芯片雖然有相應(yīng)升級,但封裝承載結(jié)構(gòu)變化不大,根據(jù)產(chǎn)業(yè)鏈調(diào)研預(yù)估DGXH100的CPU載板價(jià)值量保持為1300元;CPU母板,DGXH100采用PCIE5.0總線標(biāo)準(zhǔn),CPU芯片平臺升級,根據(jù)產(chǎn)業(yè)鏈調(diào)研PCIE5.0服務(wù)器主板的單價(jià)會提升至5000元/平方米,因此在面積不變的情況下單機(jī)價(jià)值量提升至1900元,相比A100方案提升67%;其他配板,整體變化不大,值得一提的是網(wǎng)卡板的形態(tài)由A100的Mellanox成熟設(shè)計(jì)插拔的方案變?yōu)?張集成4芯片的ConnectX-7的PCB板(對應(yīng)8個(gè)端口)、2張單芯片雙端口的NVIDIABlueField-3DPUVPI網(wǎng)卡板、1張RJ45接口板載網(wǎng)卡、1張以太網(wǎng)可選網(wǎng)卡合計(jì)6張網(wǎng)卡板,相較A100方案網(wǎng)卡板數(shù)量下降但集成度和性能有所提升;綜合計(jì)算,我們估測DGXH100CPU板組PCB用量的面積為0.628平方米,單機(jī)價(jià)值量提升至3554元,相比A100版本提升25%,主要提升點(diǎn)來自CPU母板。3)配件,DGXH100仍然保持電源6個(gè)、硬盤8個(gè)、前控制臺板1塊的配置,PCB板規(guī)格變化也不大,因此我們估測配件用量仍為0.188平方米,單機(jī)價(jià)值量為226元。我們估測DGXH100服務(wù)器的PCB用量面積為1.428平方米,單機(jī)價(jià)值量為19520元,其中GPU板組單機(jī)價(jià)值量達(dá)到1.57萬元、占比達(dá)到81%,CPU母板組單機(jī)價(jià)值量為3554元、占比為18%,其他配件單機(jī)價(jià)值量226元、占比為1%;從板級的分類來看,載板級別單機(jī)價(jià)值量為10140元、占比達(dá)到51.9%,PCB板級單機(jī)價(jià)值量為9380元、占比為48.1%。對比DGXA100和DGXH100,平臺升級將使得PCB單機(jī)價(jià)值量提升27%,增量貢獻(xiàn)83%來自GPU板組、17%來自CPU母板組,其中載板級的單機(jī)價(jià)值量提升32%、增量貢獻(xiàn)主要來自GPU板組(貢獻(xiàn)增量100%),PCB板級的單機(jī)價(jià)值量提升23%、增量貢獻(xiàn)59%來自GPU板組而41%來自CPU母板組。2.3價(jià)值增量來自GPU板組,后續(xù)升級載板增速高于PCB板級綜合前文拆解情況,我們認(rèn)為AI服務(wù)器相對普通服務(wù)器的PCB單機(jī)價(jià)值量增幅為532%,其中載板級別增幅490%、PCB板級別增幅580%,PCB板級增幅較大的原因在于普通服務(wù)器的PCB的價(jià)值量低于載板級產(chǎn)品;再者,AI服務(wù)器升級過程中,載板級別增幅為32%、PCB板級別產(chǎn)品增幅為23%,可以想見AI服務(wù)器升級中與GPU相關(guān)度越高則增值幅度越大。2.4AI服務(wù)器PCB存在三種供應(yīng)關(guān)系,須分別把握產(chǎn)業(yè)鏈邏輯AI服務(wù)器涉及到的三個(gè)部分,供應(yīng)關(guān)系的決定權(quán)會有一定的區(qū)別,具體來看:1)GPU板組,所涉及到的4個(gè)板塊均由GPU設(shè)計(jì)廠商全權(quán)設(shè)計(jì),對應(yīng)的PCB板的供應(yīng)關(guān)系決定權(quán)也就由GPU設(shè)計(jì)廠決定;GPU設(shè)計(jì)廠通常給品牌服務(wù)器廠商(國內(nèi)產(chǎn)業(yè)鏈為主)和云計(jì)算廠商(海外產(chǎn)業(yè)鏈為主)交付整個(gè)GPU板組,有些情況GPU設(shè)計(jì)廠會給客戶交付GPU加速卡(PCIE版本),極少情況GPU設(shè)計(jì)廠會直接給客戶交付芯片。綜合來看我們認(rèn)為PCB在GPU板組供應(yīng)鏈的決定權(quán)主要掌握在GPU設(shè)計(jì)廠手中。2)CPU板組,遵循既有的服務(wù)器廠商供應(yīng)鏈關(guān)系,即CPU載板由CPU設(shè)計(jì)廠決定,CPU模板和一些整套系統(tǒng)所需要用到的拓展卡板由終端客戶決定,而其他帶芯片的PCB板大部分的場景是客戶向功能件廠商提出設(shè)計(jì)需求,然后由功能件廠商自行決定PCB的采購。3)配件,配件通常是客戶直接購買模組廠成熟的產(chǎn)品,部分場景是客戶會向配件模組廠商提出一定的設(shè)計(jì)需求,但不影響模組廠商對PCB采購的決定權(quán)?;诖耍诳紤]PCB廠商在AI服務(wù)器中的成長機(jī)會時(shí),應(yīng)當(dāng)區(qū)分供應(yīng)產(chǎn)品所處的產(chǎn)業(yè)鏈關(guān)系,從而把握邏輯真相。三、存儲芯片:關(guān)注服務(wù)器DDR5滲透率提升及HBM顯存投資機(jī)會3.1服務(wù)器用DDR5即將放量英特爾已于23年1月份正式推出支援4800MT/s,DDR5的Intel7服務(wù)器CPUSapphireRapids,而AMD在22年1月推出的5nm服務(wù)器Zen4CPUGenoa,也將支援5200MT/s的DDR5。我們認(rèn)為DDR5將比DDR4芯片面積及價(jià)格提升25-30%,意思就是消耗掉更多的內(nèi)存DRAM芯片產(chǎn)能。根據(jù)Yole的數(shù)據(jù),2022年全球內(nèi)存模組市場規(guī)模達(dá)420億美元,其中PC市場規(guī)模66億美元,同比下滑36%,服務(wù)器市場規(guī)模331億美元,同比增加0.4%。2028年全球內(nèi)存模組市場規(guī)模有望達(dá)963億美元,22-28年CAGR達(dá)16%,服務(wù)器端CAGR達(dá)19%。2022年全球內(nèi)存模組出貨量5.11億,其中DDR4出貨5.0億,DDR5出貨0.11億。2028年全球內(nèi)存模組出貨量有望達(dá)6.5億,DDR5占比超過98.7%,22-28年DDR5內(nèi)存模組出貨量CAGR達(dá)97%。除此之外,為了能夠梳理CPU與DDR5內(nèi)存之間大量的數(shù)據(jù)存取,整體DDR5模組中DDR51+10內(nèi)存接口芯片比重應(yīng)該會提升超過10%,內(nèi)存接口芯片面積也會加大,還要推新串行檢測,溫度傳感,電源管理芯片等配套芯片。TrendForce研究機(jī)構(gòu)還預(yù)期DDR5模組的電源管理芯片因產(chǎn)能短缺,可能面臨缺貨的窘境。我們估計(jì)2022年瀾起,Renesas/IDT,Rambus將分食40%/40%/20%的DDR5內(nèi)存接口芯片份額,而目前僅瀾起及Renesas/IDT能提供完整的內(nèi)存接口芯片加配套芯片解決方案。根據(jù)Yole的數(shù)據(jù),2022年內(nèi)存接口芯片及配套芯片市場規(guī)模達(dá)11億美元,2028年市場規(guī)模有望成長到40億美元,21-28年CAGR達(dá)28%。3.2AI爆火帶動GPU需求激增,HBM有望持續(xù)受益“3D堆疊+近存儲運(yùn)算”突破內(nèi)存容量與帶寬瓶頸,成為處理大量數(shù)據(jù)和復(fù)雜處理要求的理想解決方案。高帶寬存儲器(HBM,HighBandwidthMemory)是一款新型的高帶寬、高附加值DRAM產(chǎn)品。憑借獨(dú)特的TSV信號縱向連接技術(shù),HBM內(nèi)部將數(shù)個(gè)DRAM芯片在緩沖芯片上進(jìn)行立體堆疊,其內(nèi)部堆疊的DDR層數(shù)可達(dá)4層、8層以至12層,從而形成大容量、高位寬的DDR組合陣列。TSV是在DRAM芯片上搭上數(shù)千個(gè)細(xì)微孔并通過垂直貫通的電極連接上下芯片的技術(shù)。該技術(shù)在緩沖芯片上將數(shù)個(gè)DRAM芯片堆疊起來,并通過貫通所有芯片層的柱狀通道傳輸信號、指令、電流。相較傳統(tǒng)封裝方式,該技術(shù)能夠縮減30%體積,并降低50%能耗。憑借TSV方式,HBM大幅提高了容量和數(shù)據(jù)傳輸速率。與傳統(tǒng)內(nèi)存技術(shù)相比,HBM具有更高帶寬、更多I/O數(shù)量、更低功耗、更小尺寸等特征。除此之外,HBM堆棧不通過外部互連線的方式與GPU/CPU/Soc連接,而是通過中間介質(zhì)層緊湊快速地連接信號處理器芯片。在傳統(tǒng)的馮諾依曼計(jì)算架構(gòu)中,處理器CPU存儲器之間通過數(shù)據(jù)總線進(jìn)行數(shù)據(jù)交換,而由于存儲與計(jì)算單元的結(jié)構(gòu)、工藝、封裝不同,導(dǎo)致存儲單元的訪問速度遠(yuǎn)遠(yuǎn)跟不上計(jì)算單元的數(shù)據(jù)處理速度,系統(tǒng)每進(jìn)行一次運(yùn)算都需要將參數(shù)輸入存儲器進(jìn)行一次讀寫,因此信息交換速度的提高極其受制于存儲器的性能。相比之下,HBM通過3D堆疊多層DDR提供海量并行處理能力、通過集成型HBM提供極高的存儲器帶寬,并使得數(shù)據(jù)參數(shù)距離核心計(jì)算單元更近,從而有效降低數(shù)據(jù)搬運(yùn)的延遲和功耗。在系統(tǒng)集成方面,HBM將原本在PCB板上的DDR內(nèi)存顆粒和計(jì)算芯片一起集成到SiP,有效利用空間、縮小面積。相比于GDDR5,HBM能大幅提高數(shù)據(jù)處理速度,其每瓦帶寬可高至3倍以上,且能夠降低63%的功耗以及節(jié)省94%的芯片面積。以HBM為代表的超高帶寬內(nèi)存技術(shù)生成類模型也會加速HBM內(nèi)存進(jìn)一步增大容量和增大帶寬。目前三代HBMDRAM價(jià)格約是傳統(tǒng)DRAM價(jià)格的5倍。HBM融合了3D堆疊以及近存儲運(yùn)算技術(shù),可消除內(nèi)存受限、計(jì)算密集型工作負(fù)載的處理與內(nèi)存瓶頸,因此十分適合用于對性能要求高的計(jì)算系統(tǒng)領(lǐng)域,如:AI服務(wù)器、超級計(jì)算機(jī)、機(jī)器學(xué)習(xí)、數(shù)據(jù)庫加速、新一代防火墻和高級網(wǎng)絡(luò)測試器等應(yīng)用領(lǐng)域。除此之外,HBM在系統(tǒng)集成方面做到有效縮小芯片體積,也與半導(dǎo)體行業(yè)小型化、集成化的發(fā)展趨勢相吻合,作為存儲速度最快的DRAM產(chǎn)品,HBM或成為下一代DRAM高性能解決方案,為快速發(fā)展的數(shù)據(jù)中心及云計(jì)算人工智能提供更高的AI/ML性能與效率。ChatGPT橫空出世使得AI服務(wù)器爆火,催生對高算力GPU以及高性能存儲的需求,高帶寬HBM或?qū)⒊掷m(xù)成長。HBM當(dāng)前滲透率依然較低,截至2021年,HBM位元需求占整體DRAM市場的比例仍未達(dá)1%,主要由于:(1)消費(fèi)級應(yīng)用場景對于價(jià)格極其敏感,且數(shù)據(jù)處理復(fù)雜程度相對不高,傳統(tǒng)存儲器足夠滿足其需求,幾乎不需要使用到HBM;(2)服務(wù)器市場出于性價(jià)比考慮往往不會優(yōu)選HBM,大部分傳統(tǒng)服務(wù)器仍使用GDDR5、GDDR6來提升內(nèi)存性能,目前搭載高端AI算力芯片的服務(wù)器占比僅1%左右。這幾年因?yàn)橛ミ_(dá)的GPU大量被使用在人工智能的云端辨識系統(tǒng),從每臺服務(wù)器加兩片高速運(yùn)算GPU卡,4片到8片GPU卡都有,讓英偉達(dá)在數(shù)據(jù)中心芯片市場的份額從2018-2019年的不到10%,到2021年的超過25%,全球人工智能服務(wù)器占比也逐年提升至2021年近10%。以英偉達(dá)7nm芯片A100為例,芯片面積雖然高達(dá)826mm2,最大耗電量達(dá)400W,但其在浮點(diǎn)半精度,單精度,雙精度稀疏及理論峰值運(yùn)算都明顯優(yōu)于同業(yè),為了讓A100的DGX人工智能服務(wù)器系統(tǒng)發(fā)揮效能,除了要配備512GB-2TBDDR4-3200MT/sDRAM給AMDCPU用外,還要另外配備320-640GBHBM給GPU使用。以英偉達(dá)A10080GB配置4或8張GPU卡來計(jì)算,其HBM用量約為320~640GB。隨著AI模型逐漸復(fù)雜化,將刺激更多的存儲器用量,并帶動Server端DRAM、SSD和HBM的需求成長。所以全球AI服務(wù)器(使用GPU,ASIC來做人工智能整數(shù),浮點(diǎn)運(yùn)算)出貨占比的提升,對HBM內(nèi)存需求同比增長有明顯的拉動作用,占比逐年提升可期。2023年以來Microsoft、Meta、Baidu和ByteDance相繼推出基于生成式AI衍生的產(chǎn)品服務(wù)而積極加單,根據(jù)TrendForce的數(shù)據(jù),AI服務(wù)器用GPU,主要以英偉達(dá)H100、A100、A800(主要出貨中國)以及AMDMI250、MI250X系列為主,英偉達(dá)占比約80%,這些高性能AI芯片均采用HBM,因此TrendForce預(yù)計(jì)2023-2025年HBM市場CAGR有望達(dá)40-45%以上。根據(jù)我們對產(chǎn)業(yè)鏈上下游的調(diào)研,我們看好2023-2025年AI訓(xùn)練服務(wù)器出貨量實(shí)現(xiàn)50%左右的高增速,2026年出貨量增速保持在30%左右,我們測算得2026年HBM市場規(guī)模有望達(dá)56.9億,2022-2026年CAGR有望達(dá)52%,符合市場預(yù)期。目前全球HBM市場仍舊由海力士與三星壟斷,SK海力士HBM技術(shù)起步早,從2014年推出首款HBM后,SK海力士一直是HBM行業(yè)領(lǐng)頭羊,目前海力士占據(jù)全球HBM市場一半以上的市場份額。后期在美光、Synopsys等企業(yè)加入布局HBM產(chǎn)品推動行業(yè)加速競賽后,HBM內(nèi)存技術(shù)已從HBM、HBM2、HBM2E升級至HBM3標(biāo)準(zhǔn)(第四代HBM)。2021年SK海力士發(fā)布的全球首款HBM3適用于AI、HPC等容量密集型應(yīng)用,該產(chǎn)品已于2022年6月開始量產(chǎn)并供貨英偉達(dá)。英偉達(dá)對HBMDRAM的應(yīng)用,標(biāo)志著高性能存儲在數(shù)據(jù)中心的應(yīng)用迎來了一個(gè)新的時(shí)代。2023年4月,SK海力士宣布已在全球首次實(shí)現(xiàn)垂直堆疊12個(gè)單品DRAM芯片,實(shí)現(xiàn)最高容量24GB,容量較上一代HBM3DRAM提升50%,目前已向客戶提供樣品,正在接受客戶公司的性能驗(yàn)證,將在上半年內(nèi)完成量產(chǎn)準(zhǔn)備。目前海力士也正在進(jìn)行HBM4的研發(fā),預(yù)計(jì)后續(xù)將廣泛應(yīng)用于AI、超算、高性能數(shù)據(jù)中心、推薦引擎、800G路由器交換機(jī)、數(shù)據(jù)庫加速、防火墻監(jiān)測等應(yīng)用領(lǐng)域。根據(jù)TrendForce的數(shù)據(jù),2022年三大原廠HBM市占率分別為SK海力士(SKhynix)50%、三星(Samsung)約40%、美光(Micron)約10%。此外,伴隨AI訓(xùn)練與推理模型拉動高階深度學(xué)習(xí)AIGPU規(guī)格的提升,其熱度也將進(jìn)一步向上傳導(dǎo)至HBM產(chǎn)品的需求拉升與技術(shù)更迭。目前已有NVIDIAH100與AMDMI300正式搭載HBM,三大原廠海力士、三星、美光也已規(guī)劃在2023下半年進(jìn)行相對應(yīng)規(guī)格HBM3的量產(chǎn)。海力士作為HBM創(chuàng)始者具備先發(fā)優(yōu)勢,預(yù)計(jì)在今年將有更多客戶導(dǎo)入HBM3的情況下,海力士整體HBM市占率有望進(jìn)一步提升至53%,而三星、美光則預(yù)計(jì)陸續(xù)在今年底至明年初量產(chǎn),HBM市占率分別為38%及9%。四、服務(wù)器散熱:AI大模型帶來了多少液冷市場增量?4.1AI等應(yīng)用帶動功率密度升高,風(fēng)冷達(dá)到功率上限AI應(yīng)用加速數(shù)據(jù)中心向高密化趨勢演進(jìn)。面對AI帶來的數(shù)據(jù)量和計(jì)算量的爆發(fā)式增長,在數(shù)據(jù)中心資源尤其是一線城市資源日趨緊張的情況下,只有通過提高機(jī)房單位面積內(nèi)的算力、存儲以及傳輸能力,才能最大程度發(fā)揮數(shù)據(jù)中心的價(jià)值。高算力AI芯片導(dǎo)入將加速服務(wù)器高功率密度演進(jìn)趨勢。據(jù)UptimeInstitute發(fā)布的《全球數(shù)據(jù)中心調(diào)查報(bào)告》顯示,2020年全球數(shù)據(jù)中心平均單機(jī)架功率為8.4kW/機(jī)架,相比于2017年的5.6kW/機(jī)架有明顯的提高。其中,1-4kw占25%,5-9kw占46%,10-19kw占13%,中國目前與全球水平仍有差距。據(jù)CDCC調(diào)研,國內(nèi)全行業(yè)數(shù)據(jù)中心中8kW功率密度以上的機(jī)柜占比由21年的11%提升至22年的25%,高功率機(jī)柜占比提升明顯。未來,隨著人工智能模型訓(xùn)練推理等應(yīng)用增加,多樣化算力協(xié)同成為常態(tài),單IT機(jī)柜主流功率密度將從6-8KW/柜提高到12-15KW/柜,超算、智算中心功率密度將提升至30kW以上。人工智能芯片多用傳統(tǒng)型芯片,或用昂貴的圖形處理器(GPU),或用現(xiàn)場可編程門陣列芯片配合中央處理器(FPGA+CPU)為主,用以在云端數(shù)據(jù)中心的深度學(xué)習(xí)訓(xùn)練和推理,通用/專用型AI芯片(ASIC),也就是張量處理器或特定用途集成電路(ASIC),主要是針對具體應(yīng)用場景,三類芯片短期內(nèi)將共存并在不同應(yīng)用場景形成互補(bǔ)。摩爾定律發(fā)展晶體管數(shù)量增多,產(chǎn)品功耗瓦數(shù)升高,對于散熱的要求提升。隨著IC制程、晶片效能、小型化升級,芯片瓦數(shù)大幅提升,表面高單位密度發(fā)熱,對于導(dǎo)熱、散熱的要求提升。以主流廠商為例,Intel10nm以下制程需采均熱片以解決發(fā)熱問題,AMD7nm制程使用均熱片,5nm則必須采用均熱片進(jìn)行散熱。未來隨著先進(jìn)制程比如3nm推進(jìn),同時(shí)搭配3D封裝,對于散熱效率的要求更高。芯片級散熱的方式是通過熱傳導(dǎo)原理,將芯片不斷產(chǎn)出的熱能持續(xù)地傳導(dǎo)至散熱元件,熱能量傳遞通常是在非常接近熱源的散熱器上進(jìn)行的。以筆記本電腦為例,電子產(chǎn)品朝輕薄化、高性能化方向發(fā)展,晶片功能需要大幅增加,晶體管數(shù)量增多,對于散熱要求提升。①電子設(shè)備CPU硅半導(dǎo)體不耐熱,在過高溫度下無法作為電子電路發(fā)揮作用。②中央處理器和集成電路向電機(jī)等發(fā)出操作命令,產(chǎn)生的大部分能量都轉(zhuǎn)化為熱量。③小型化使得能量越集中,溫度越高,發(fā)熱密度更高。早期筆記本散熱模組使用2根熱管,現(xiàn)在增加為4至6根,高端的產(chǎn)品使用均熱板。風(fēng)機(jī)轉(zhuǎn)速超過4000r/min后對熱阻的效用是有限的。根據(jù)CNKI,風(fēng)冷系統(tǒng)中,風(fēng)機(jī)轉(zhuǎn)速從1000r/min提高到4000r/min,芯片散熱中對流占主導(dǎo),流速增加對流換熱系數(shù)顯著增加,風(fēng)冷方式能有效改善芯片散熱問題。而當(dāng)風(fēng)機(jī)轉(zhuǎn)速超過4000r/min后,傳熱熱阻下降比較平緩,轉(zhuǎn)速增加只能改善與空氣的導(dǎo)熱傳熱,散熱效果降低。芯片級液冷是未來發(fā)展趨勢。服務(wù)器2U空間下,250W大約是風(fēng)冷解熱極限;4U以上風(fēng)冷可以解到400-600W;AI芯片TDP普遍超過400W,大多使用4-8U。根據(jù)CNKI,芯片的平均熱流密度將達(dá)到500W/cm2,局部熱點(diǎn)熱流密度將會超過1000W/cm2,傳統(tǒng)風(fēng)冷散熱已經(jīng)達(dá)到極限。而芯片溫度的控制對于穩(wěn)定持續(xù)工作尤為重要,最高溫度不能超過85℃,溫度過高會導(dǎo)致芯片損壞,在70—80℃內(nèi),單個(gè)電子元件的溫度每升高10℃,系統(tǒng)可靠性降低50%,因此在功率提升的背景下,散熱系統(tǒng)將向芯片級液冷升級。風(fēng)冷達(dá)到功率上限后性價(jià)比下降,液體吸熱能力更強(qiáng)。根據(jù)《2021-2022年度中國數(shù)據(jù)中心基礎(chǔ)設(shè)施產(chǎn)品市場總報(bào)告》,2021年我國單機(jī)柜功率在10kW以上的數(shù)據(jù)中心市場規(guī)模增速超過10%,其中30kW以上增速達(dá)31%。據(jù)預(yù)測,2025年全球數(shù)據(jù)中心平均功率提升至25kW。TGG認(rèn)為每機(jī)柜15-25kW的功率密度作為“未使用背板換熱器等其他制冷設(shè)備”的風(fēng)冷解決方案的上限,當(dāng)前自然風(fēng)冷的數(shù)據(jù)中心單機(jī)柜密度一般只支持8-10kW,冷熱風(fēng)道隔離的微模塊加水冷空調(diào)水平制冷在機(jī)柜功率超過15kW后性價(jià)比大幅下降。在同樣單位體積下,液體吸收熱量的能力更高。因此液冷技術(shù)能夠更高效地散熱,以及讓芯片能夠更高效地工作。4.2冷板式成熟度高,浸沒式冷卻效率高,成本有望進(jìn)一步優(yōu)化液冷技術(shù)分為接觸式及非接觸式兩種,接觸式液冷是指將冷卻液體與發(fā)熱器件直接接觸的一種液冷實(shí)現(xiàn)方式,包括浸沒式和噴淋式液冷等具體方案。非接觸式液冷是指冷卻液體與發(fā)熱器件不直接接觸的一種液冷實(shí)現(xiàn)方式,包括冷板式等具體方案。其中,冷板式液冷采用微通道強(qiáng)化換熱技術(shù)具有極高的散熱性能,目前行業(yè)成熟度最高;而浸沒式和噴淋式液冷實(shí)現(xiàn)了100%液體冷卻,具有更優(yōu)的節(jié)能效果。冷板式液冷成熟度高。冷板式液冷是通過液冷板將發(fā)熱器件的熱量間接傳遞給封閉在循環(huán)管路中的冷卻液體,系統(tǒng)主要由冷卻塔、CDU、一次側(cè)&二次側(cè)液冷管路、冷卻介質(zhì)、液冷機(jī)柜組成;芯片設(shè)備熱量通過熱傳導(dǎo)傳遞到液冷板,工質(zhì)在CDU循環(huán)泵的驅(qū)動下進(jìn)入冷板,之后在液冷板內(nèi)通過強(qiáng)化對流換熱吸收熱量溫度升高,高溫工質(zhì)通過CDU換熱器將熱量傳遞到一次側(cè)冷卻液,溫度降低;低溫的工質(zhì)再進(jìn)入循環(huán)泵,一次側(cè)冷卻液最終通過冷卻塔將熱量排至大氣環(huán)境中。噴淋式液冷是面向芯片級器件精準(zhǔn)噴淋,通過重力或系統(tǒng)壓力直接將冷卻液噴灑至發(fā)熱器件或與之連接的導(dǎo)熱元件上的液冷形式,屬于直接接觸式液冷。噴淋式液冷系統(tǒng)主要由冷卻塔、CDU、一次側(cè)&二次側(cè)液冷管路、冷卻介質(zhì)和噴淋式液冷機(jī)柜組成;其中噴淋式液冷機(jī)柜通常包含管路系統(tǒng)、布液系統(tǒng)、噴淋模塊、回液系統(tǒng)等。浸沒式液冷技術(shù)通過浸沒發(fā)熱器件,使得器件與液體直接接觸,進(jìn)而進(jìn)行熱交換。浸沒式液冷技術(shù)主要由冷卻液、腔體結(jié)構(gòu)、換熱模塊及相關(guān)的連接管道等設(shè)施構(gòu)成。其中,冷卻液為數(shù)據(jù)中心的換熱介質(zhì),具有高絕緣、低黏度以及超強(qiáng)的兼容特性,是浸沒式液冷技術(shù)的主要媒介。液冷市場需求保持逐年增長狀態(tài),冷板式液冷和浸沒式液冷是行業(yè)內(nèi)目前共存的兩條主流技術(shù)路線;伴隨國家雙碳節(jié)能政策驅(qū)動,市場對液冷的需求將逐步提升。考慮到技術(shù)成熟度、可靠性、技術(shù)通用性、結(jié)構(gòu)顛覆性等多個(gè)方面,當(dāng)前液冷數(shù)據(jù)中心仍以冷板式液冷占據(jù)主流地位。4.3多樣化新興技術(shù)帶動中國智能算力規(guī)模高速增長我國大型及以上數(shù)據(jù)中心機(jī)架規(guī)模增長迅速,近年來我國數(shù)據(jù)中心機(jī)架規(guī)模穩(wěn)步增長,按照標(biāo)準(zhǔn)機(jī)架2.5kW統(tǒng)計(jì),截至2021年底,我國在用數(shù)據(jù)中心機(jī)架規(guī)模達(dá)520萬架,近五年CAGR超30%,其中大型及以上機(jī)架規(guī)模420萬架,占比80%。我國數(shù)據(jù)中心主要以通用算力為主,隨著AI、邊緣計(jì)算需求的提升,超算、智算數(shù)據(jù)中心數(shù)量有待增長。當(dāng)前通用算力機(jī)架規(guī)模占比超過90%,超算中心主要應(yīng)用于國家科研,商業(yè)場景較少;智算中心逐步從早期實(shí)驗(yàn)探索走向商業(yè)試點(diǎn),隨著人工智能應(yīng)用場景的豐富,預(yù)期規(guī)模增速將達(dá)到70%。4.4大模型訓(xùn)練+推理驅(qū)動液冷市場總量增加和邊際增速提升訓(xùn)練階段:根據(jù)OpenAI團(tuán)隊(duì)發(fā)表于2020年的論文《LanguageModelsareFew-ShotLearners》,訓(xùn)練1次1746億參數(shù)的GPT-3模型需要的算力約為3640Petaflop/s-day,假設(shè)當(dāng)前大模型每次訓(xùn)練需要一個(gè)月的時(shí)間,則對應(yīng)算力需求為121petaflops。隨著模型參數(shù)增加和訓(xùn)練時(shí)間縮短,遠(yuǎn)期算力需求會有明顯增長。AI訓(xùn)練芯片參考英偉達(dá)A100參數(shù),算力15.67TFlops,有效算力約為30%。推理階段:與用戶活躍數(shù)、提問字?jǐn)?shù)等參數(shù)有關(guān)。此處不考慮峰值,假設(shè)訪問需求平均分配在全天各個(gè)時(shí)段。隨著AI應(yīng)用深化,用戶活躍數(shù)、模型參數(shù)會呈現(xiàn)明顯增長,此外訪問時(shí)延降低。AI推理芯片參考英偉達(dá)T4參數(shù),算力8TFlops,假設(shè)有效算力利用率30%。計(jì)算結(jié)果表明,一個(gè)設(shè)計(jì)容量為5MW、單機(jī)柜功率密度20kW的數(shù)據(jù)中心前期建設(shè)成本為20元/W,其中制冷系統(tǒng)占比為35%,對應(yīng)冷板式液冷成本在7108元/kW。浸沒式液冷所需要的絕緣冷卻液成本較高,我們預(yù)計(jì)其成本在25000元/kW。當(dāng)前冷板式液冷技術(shù)成熟度較高,在液冷技術(shù)路線中處于主流,假設(shè)當(dāng)前占比為80%。未來隨著浸沒式液冷技術(shù)成熟及,整體占比有望逐步提升。綜合測算,AI大模型訓(xùn)練+推理會帶來40億元的液冷市場空間,隨著模型參數(shù)增加、使用推廣,未來四年帶來液冷市場60%+年復(fù)合增速。五、光芯片/光模塊:ChatGPT大幅提振算力需求,帶動通信產(chǎn)品量價(jià)齊升5.1光芯片:數(shù)通和電信市場水大魚大,光芯片國產(chǎn)替代空間廣闊受益于全球數(shù)據(jù)量快速增長,光通信逐漸崛起。在全球信息和數(shù)據(jù)互聯(lián)快速成長的背景下,終端產(chǎn)生的數(shù)據(jù)量每隔幾年就實(shí)現(xiàn)翻倍增長,當(dāng)前的基礎(chǔ)電子通訊架構(gòu)漸漸無法滿足海量數(shù)據(jù)的傳輸需求,光電信息技術(shù)逐步崛起。光通信是以光信號為信息載體,以光纖作為傳輸介質(zhì),光芯片實(shí)現(xiàn)電光轉(zhuǎn)換,將信息以光信號的形式進(jìn)行信息傳輸?shù)南到y(tǒng)。光通信傳輸過程中,發(fā)射端將電信號轉(zhuǎn)換成激光信號,然后調(diào)制激光器發(fā)出的激光束,通過光纖傳遞,在接收端接收到激光信號后再將其轉(zhuǎn)化為電信號,經(jīng)調(diào)制解調(diào)后變?yōu)樾畔?,其中需要光芯片來?shí)現(xiàn)電信號和光信號之間的相互轉(zhuǎn)換,光芯片是光電技術(shù)產(chǎn)品的核心,廣泛應(yīng)用于5G前傳、光接入網(wǎng)絡(luò)、城域網(wǎng)和數(shù)據(jù)中心等場景,處于光通信領(lǐng)域的金字塔尖。光芯片可以進(jìn)一步組裝加工成光電子器件,再集成到光通信設(shè)備的收發(fā)模塊實(shí)現(xiàn)廣泛應(yīng)用。光芯片按功能可以分為激光器芯片和探測器芯片。激光器芯片主要用于發(fā)射信號,將電信號轉(zhuǎn)化為光信號,探測器芯片主要用于接收信號,將光信號轉(zhuǎn)化為電信號。激光器芯片根據(jù)諧振腔制造工藝的不同可分為邊發(fā)射激光芯片(EEL)和面發(fā)射激光芯片(VCSEL)。邊發(fā)射激光器芯片是在芯片的兩側(cè)鍍光學(xué)膜形成諧振腔,沿平行于襯底表面發(fā)射激光,而面發(fā)射激光器芯片是在芯片的上下兩面鍍光學(xué)膜,形成諧振腔,由于光學(xué)諧振腔與襯底垂直,能夠?qū)崿F(xiàn)垂直于芯片表面發(fā)射激光。面發(fā)射激光器芯片有低閾值電流、穩(wěn)定單波長工作、可高頻調(diào)制、容易二維集成、沒有腔面閾值損傷、制造成本低等優(yōu)點(diǎn),但輸出功率及電光效率較邊發(fā)射激光芯片低。面發(fā)射芯片包括VCSEL芯片,邊發(fā)射芯片包括FP、DFB和EML芯片;探測器芯片主要包括PIN和APD兩類。需求端,數(shù)據(jù)中心和電信雙輪驅(qū)動,預(yù)計(jì)2027年全球光模塊市場規(guī)模超200億美元,22-27年CAGR達(dá)11%。隨著光電子、云計(jì)算技術(shù)等不斷成熟,更多終端應(yīng)用需求不斷涌現(xiàn),并對通信技術(shù)提出更高的要求。受益于全球數(shù)據(jù)中心、光纖寬帶接入以及5G通訊的持續(xù)發(fā)展,光模塊作為光通信產(chǎn)業(yè)鏈最為重要的器件保持持續(xù)增長。根據(jù)LightCounting的數(shù)據(jù),2027年全球光模塊市場規(guī)模預(yù)計(jì)將超過200億美元,22-27年CAGR達(dá)11%。供給端,海外光芯片廠商具備先發(fā)優(yōu)勢,國內(nèi)廠商乘國產(chǎn)替代東風(fēng)正迎頭趕上。我國光芯片產(chǎn)業(yè)參與者主要包括海外頭部光通信廠商、國內(nèi)專業(yè)光芯片廠商及國內(nèi)綜合光芯片模塊廠商。1)海外頭部光通信廠商:三菱電機(jī)、住友電工、馬科姆(MACOM)、朗美通(Lumentum)、應(yīng)用光電(AOI)、博通(Broadcom)等;2)國內(nèi)專業(yè)光芯片廠商:源杰科技、武漢敏芯、中科光芯、雷光科技、光安倫、云嶺光電等;3)國內(nèi)綜合光芯片模塊廠商或擁有獨(dú)立光芯片業(yè)務(wù)板塊廠商:光迅科技、海信寬帶、索爾思、三安光電、仕佳光子等。從競爭格局和產(chǎn)品布局看,以住友電工、馬科姆(MACOM)、博通(Broadcom)為代表的歐美日綜合光通信企業(yè)在高速率光芯片市場占據(jù)主導(dǎo)地位,而中國廠商在中低速率芯片市場占據(jù)優(yōu)勢,國產(chǎn)化率較高,但高速光芯片仍存在差距。5.2光模塊:英偉達(dá)NVLink與網(wǎng)絡(luò)架構(gòu)升級,帶動光模塊向高速率趨勢演進(jìn)DGXSuperPOD有四個(gè)網(wǎng)絡(luò):計(jì)算網(wǎng)絡(luò),通過8個(gè)200Gb/s單端口連接每個(gè)DGXA100系統(tǒng);存儲網(wǎng)絡(luò),使用來自CPU連接的兩個(gè)端口;帶內(nèi)管理網(wǎng)絡(luò),使用DGXA100系統(tǒng)上的兩個(gè)100Gbps端口連接到專用以太網(wǎng)交換機(jī);帶外管理網(wǎng)絡(luò),將每個(gè)DGXA100系統(tǒng)的基板管理控制器(BMC)端口連接到附加的以太網(wǎng)交換機(jī)??偨Y(jié)來看,共有8個(gè)200G單端口和兩個(gè)100G雙端口。NVLink實(shí)現(xiàn)服務(wù)器集群中每個(gè)GPU之間的高速無縫通信,將AI訓(xùn)練時(shí)間由數(shù)月縮短至數(shù)天或數(shù)小時(shí)。過去的PCIe帶寬有限,成為限制高速通信的瓶頸所在。NVLink是NVIDIA的高帶寬、高效能、低延遲、無丟失的GPU與GPU互連。從16年至22年,NVLink經(jīng)歷四輪迭代,第四代NVIDIA?NVLink?技術(shù)可為多GPU系統(tǒng)配置提供高于以往1.5倍的帶寬,以及增強(qiáng)的可擴(kuò)展性。單個(gè)NVIDIAH100TensorCoreGPU支持多達(dá)18個(gè)NVLink連接,總帶寬為900GB/s,是PCIe5.0帶寬的7倍。第三代NVSwitch技術(shù)在節(jié)點(diǎn)內(nèi)外提供交換機(jī),可連接多個(gè)服務(wù)器、集群和數(shù)據(jù)中心中的GPU。每個(gè)節(jié)點(diǎn)內(nèi)的NVSwitch提供64個(gè)第四代NVLink鏈接,以加速多GPU連接。H100采用第四代NVLink,增加內(nèi)部GPU互聯(lián)的光模塊需求數(shù)量。H100GPU中應(yīng)用了新的第四代NVLink,與A100中使用的第三代NVLink相比,提供了1.5倍的通信帶寬。所需的NVSwitch節(jié)點(diǎn)也

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論