版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)
文檔簡介
算力:AI算力需求持續(xù)高景氣,單卡到組網(wǎng)集群各產(chǎn)業(yè)鏈環(huán)節(jié)均受益終端:AI
+終端百花齊放,邊緣SoC+生態(tài)系統(tǒng)+硬件迭代構(gòu)筑端側(cè)智能體應(yīng)用:AI應(yīng)用百舸爭流,LLM仍是核心競爭力風(fēng)險提示請務(wù)必參閱正文之后的重要聲明1AI算力需求持續(xù)高景氣,單卡到組網(wǎng)集群各產(chǎn)業(yè)鏈環(huán)節(jié)均受益請務(wù)必參閱正文之后的重要聲明2供需:AI創(chuàng)新支撐算力需求,產(chǎn)能和技術(shù)等供給持續(xù)改善芯片:英偉達(dá)全面領(lǐng)先,AMD和博通面臨機(jī)遇,臺積電享受代工紅利服務(wù)器:擁有大量未交付訂單,關(guān)注Dell、HPE和超微電腦供需:AI創(chuàng)新支撐算力需求,產(chǎn)能和技術(shù)等供給持續(xù)改善產(chǎn)業(yè)鏈?zhǔn)崂恚篈I算力需求持續(xù)高景氣,算力硬件產(chǎn)業(yè)鏈?zhǔn)芤鍭I大模型技術(shù)迭代,Scaling
Law構(gòu)建算力增長底層邏輯短期訂單強(qiáng)勁可見度高,后續(xù)持續(xù)跟蹤客戶訂單和資本開支計劃技術(shù)供給方面,AI芯片加速技術(shù)迭代,助推算力成本下降產(chǎn)能供給方面,CoWoS和HBM的供給情況均在積極改善請務(wù)必參閱正文之后的重要聲明3生成式AI浪潮推動AI大模型研發(fā)和相關(guān)應(yīng)用開發(fā)需求,算力硬件公司作為“賣鏟人”持續(xù)受益。芯片側(cè),GPU
直接受益,英偉達(dá)Blackwell需求強(qiáng)勁、供不應(yīng)求。ASIC定制化積極配合云廠商等大客戶。芯片制造和CoWoS封裝產(chǎn)業(yè)鏈因旺盛需求積極擴(kuò)產(chǎn)。服務(wù)器側(cè),AI芯片積極出貨進(jìn)而帶動服務(wù)器訂單高增,
同英偉達(dá)密切合作的公司受益程度更高。AI服務(wù)器同時帶動HBM和SSD等存儲需求。數(shù)據(jù)中心側(cè),
算力集群化趨勢帶動網(wǎng)絡(luò)互聯(lián)需求,
利好光模塊、交換機(jī)、連接器等。數(shù)據(jù)中心的電力需求激增,推高清潔能源需求。產(chǎn)業(yè)鏈?zhǔn)崂恚篈I算力需求持續(xù)高景氣,算力硬件產(chǎn)業(yè)鏈?zhǔn)芤鎴D表1:AI算力硬件產(chǎn)業(yè)鏈?zhǔn)崂碣Y料來源:光大證券研究所整理繪制請務(wù)必參閱正文之后的重要聲明4請務(wù)必參閱正文之后的重要聲明5需求:AI大模型積極迭代,Scaling
Law構(gòu)建算力增長底層邏輯圖表2:近兩年已發(fā)布的重點(diǎn)AI大模型情況匯總資料來源:OpenAI官網(wǎng),
Stability
AI官網(wǎng),
Anthropic官網(wǎng),Google官網(wǎng),Meta
AI官網(wǎng),53AI網(wǎng),華爾街見聞,新華網(wǎng),網(wǎng)易新聞,新浪財經(jīng),光大證券研究所整理生成式AI競賽中,各公司加快訓(xùn)練大模型,模型發(fā)布時間縮短,帶動所需算力增長。單以O(shè)penAI為例,2024年已推出文生視頻大模型Sora、多模態(tài)大模型GPT-4o和擅長解決數(shù)學(xué)、代碼等復(fù)雜推理問題的o1。AI大模型仍在積極迭代、向更強(qiáng)性能和更多功能沖刺。Scaling
Law:OpenAI于2020年的一篇論文提出,大模型最終性能主要與計算量、模型參數(shù)量和訓(xùn)練數(shù)據(jù)量三者的大小相關(guān),而與模型具體結(jié)構(gòu)(層數(shù)/深度/寬度)基本無關(guān);而且AI大模型規(guī)模(參數(shù)量和數(shù)據(jù)集)擴(kuò)大,除了提升原有性能表現(xiàn)外,還會“涌現(xiàn)”原來不具有的能力。Scaling
Law奠定了客戶提升大模型性能必須購買堆疊AI算力的底層邏輯。模型Lab發(fā)布時間參數(shù)量ChatGPT
o1-previewOpenAI2024年9月12日ChatGPT
4oOpenAI2024年5月13日Qwen2.5阿里云2024年5月9日Claude
3.5
SonnetAnthropic2024年6月21日DeepSeek
-V2.5深度求索2024年9月6日236BGLM-4-Plus智譜AI2024年8月29日405BStable
LM
2Stability
AI2024年1月19日1.6BGemini
1.5Google2024年2月15日Llama
3.2Meta
AI2024年9月25日lightweighttext-only:1B&3B;larger:11B&90BMixtral
8x22BMistral
AI2024年4月10日141BSoraOpenAI2024年2月15日PalM2Google2023年5月10日Claude
2Anthropic2023年7月11日ChatGPT
4OpenAI2023年3月14日ChatGPT3.5OpenAI2022年11月30日圖表3:大模型表現(xiàn)隨著模型計算量提升而變佳資料來源:Epoch
AI請務(wù)必參閱正文之后的重要聲明6需求:AI大模型技術(shù)迭代,Scaling
Law構(gòu)建算力增長底層邏輯圖表4:OpenAI
GPT-4的訓(xùn)練算力需求相較GPT-3大幅增加資料來源:Life
Architect,騰訊云,36氪,Lambda,Medium,光大證券研究所整理計算量的增長驅(qū)動AI大模型開發(fā)廠商構(gòu)建更大的AI芯片算力集群。OpenAI訓(xùn)練GPT-4時,在大約2.5萬個A100上訓(xùn)練了90到100天;而OpenAI訓(xùn)練GPT-3時,在大約1萬個V100上訓(xùn)練了15天。68倍計算量增長驅(qū)動OpenAI采用性能增強(qiáng)的AI芯片、更多芯片數(shù)量的算力集群、增長訓(xùn)練時間。各大模型廠商紛紛囤積AI芯片用于模型訓(xùn)練。Meta
CEO扎克伯格表示2024年底Meta將擁有35萬塊H100,擁有近60萬個GPU等效算力;根據(jù)The
information預(yù)測,截至2024Q1,OpenAI用于模型訓(xùn)練的服務(wù)器集群約包括12萬個英偉達(dá)A100,而2024年全年的訓(xùn)練成本(包括支付數(shù)據(jù)的費(fèi)用)可能由原先最早計劃的8億美元增至30億美元。參數(shù)量Tokens數(shù)據(jù)規(guī)模FLOPS訓(xùn)練芯片型號芯片數(shù)量訓(xùn)練時長(B)(B)(GB)(天)GPT-417601300050002.15
e25A1002500095GPT-31753005703.14
e23V1001000015請務(wù)必參閱正文之后的重要聲明資料來源:華爾街見聞,光大證券研究所7需求:RL+CoT推動AIAgent,疊加多模態(tài)推動推理算力大幅提升RL+CoT
對于實現(xiàn)能自主規(guī)劃的
AI
Agent
至關(guān)重要。
AI
Agent應(yīng)當(dāng)擁有自主理解、規(guī)劃和執(zhí)行復(fù)雜任務(wù)的能力,是打破AI應(yīng)用發(fā)展瓶頸的關(guān)鍵,可以將簡單的指令自主拆分成多個步驟并精細(xì)化執(zhí)行,將上一環(huán)節(jié)的輸出作為下一環(huán)節(jié)的輸入。強(qiáng)化學(xué)習(xí)(RL)具備自主探索和連續(xù)決策的能力。其中包括self-play和蒙特卡洛樹搜索(MCTS)。思維鏈(CoT)通過分步推理,要求模型在生成最終答案前生成一系列中間推理步驟,實現(xiàn)“內(nèi)部思維”的推理過程。強(qiáng)化學(xué)習(xí)推理推出測試維度Scaling
Law,提升推理算力需求。強(qiáng)化學(xué)習(xí)范式使得推理過程包含多次推理迭代、更加復(fù)雜的搜索算法或模型的深度思考,因此推理中的思考時間(即測試時間)產(chǎn)生的數(shù)據(jù)量需要投入更多計算資源。圖表5:o1在AIEM測試中的準(zhǔn)確率與“訓(xùn)練時間計算”和“測試時間計算”呈正比請務(wù)必參閱正文之后的重要聲明資料來源:論文《
The
Illustrated
Transformer
》(作者Jay
Alammar),《Enhancing
Jujube
Forest
Growth
Estimation
and
Disease
Detection
Using
a
Novel
Diffusion-TransformerArchitecture》(作者Xiangyi
Hu),Creative
Commons,21經(jīng)濟(jì),光大證券研究所整理繪制多模態(tài)大模型輸入輸出Tokens規(guī)模較純文本數(shù)據(jù)大幅提升。圖片和視頻形式需要矩陣級分割成Tokens。RL+COT帶來測試維度Scaling
Law,多模態(tài)要求推理階段更多Tokens輸入輸出,均驅(qū)動推理算力需求大幅上升,但不代表訓(xùn)練算力需求會停止增長。1)AI
Agent和多模態(tài)要求新模型持續(xù)研發(fā);2)預(yù)訓(xùn)練階段同樣需要消耗大量的算力;3)強(qiáng)化學(xué)習(xí)推理和多模態(tài)大模型均并不意味著模型參數(shù)停止擴(kuò)張,因為主模型參數(shù)提升可能會產(chǎn)生更好的推理路徑和表現(xiàn)。圖表6:各模態(tài)切片匯總,音頻、圖片、視頻切片后對應(yīng)的Tokens數(shù)相較文字大幅增加8需求:RL+CoT推動AIAgent,疊加多模態(tài)推動推理算力大幅提升9需求:英偉達(dá)未到“思科時刻”,跟蹤客戶訂單和資本開支計劃資料來源:鳳凰網(wǎng),英偉達(dá)官網(wǎng),投資界,光大證券研究所整理請務(wù)必參閱正文之后的重要聲明宏觀背景①突發(fā)事件的宏觀擾動(2020年的新冠/2022年2月的俄烏戰(zhàn)爭
vs
1990年的海灣戰(zhàn)爭/1997年的亞洲金融危機(jī))②新政府的財政刺激(2022年拜登政府的“芯片法案”
vs
1993年克林頓政府的“信息高速公路計劃”)③降息周期的寬松環(huán)境(2024年底開啟的降息周期
vs
1990年至1999年的階梯式降息長周期)④經(jīng)濟(jì)軟著陸后的需求回歸(2024年的經(jīng)濟(jì)軟著陸
vs
1994年的經(jīng)濟(jì)軟著陸)中觀背景①新技術(shù)迭代(大模型
vs
萬維網(wǎng))②“賣鏟”公司壟斷(2023年英偉達(dá)的GPU
vs
1993年思科的路由器/交換機(jī)
)③標(biāo)志應(yīng)用的推出(2023年ChatGPT
vs
1995年Netscape
)行業(yè)需求英偉達(dá)下游AI初創(chuàng)公司及云廠商的大量資本開支明確用于AI基礎(chǔ)設(shè)施建設(shè),AI芯片獲取直接決定下游公司產(chǎn)品迭代速度,行業(yè)實際需求強(qiáng)勁。大量互聯(lián)網(wǎng)公司資金大量投入廣告和推廣而非產(chǎn)品和技術(shù)投入,需求泡沫堆積,缺乏更新?lián)Q代動力,基礎(chǔ)設(shè)施建設(shè)完成后需求迅速下降??蛻舴植糀I初創(chuàng)及云服務(wù)大客戶資本充裕穩(wěn)定,下游客戶領(lǐng)域仍在多元擴(kuò)展:主權(quán)AI、垂直大模型、跨行業(yè)應(yīng)用方興未艾??蛻艏杏谟芯€電視和電信行業(yè),存在資本支出周期。行業(yè)競爭壁壘AI芯片技術(shù)、資金壁壘高,創(chuàng)新難度大,龍頭企業(yè)先發(fā)優(yōu)勢和經(jīng)驗積累優(yōu)勢明顯,不易受挑戰(zhàn)者沖擊。交換機(jī)和路由器技術(shù)壁壘相對較低,思科受到華為等后發(fā)競爭對手在價格和性能上的威脅,迅速失去市場份額。短期需求各主要客戶陸續(xù)披露資本開支計劃和芯片需求,短期需求可見度高,強(qiáng)勁需求趨勢延續(xù)。2000年前思科戰(zhàn)略決策已經(jīng)呈現(xiàn)過度擴(kuò)張趨勢,大量囤積庫存、瘋狂收購、擴(kuò)張產(chǎn)品線等策略埋下隱患。AI算力產(chǎn)業(yè)鏈相較互聯(lián)網(wǎng)時期的“思科泡沫”
,存在客戶積極研發(fā)投入、行業(yè)競爭壁壘高等優(yōu)勢。1)AI算力客戶群體(云廠商、AI初創(chuàng)公司)投入大量資本開支用于AI基礎(chǔ)設(shè)施建設(shè),思科對應(yīng)的互聯(lián)網(wǎng)公司資金除產(chǎn)品技術(shù)投入外更多投入廣告宣傳;2)AI芯片技術(shù)和資金壁壘高,思科的路由器、網(wǎng)絡(luò)技術(shù)壁壘低,后期市場競爭激烈?!八伎婆菽本褢?yīng)緊密跟蹤AI算力需求和訂單變化,當(dāng)前英偉達(dá)Blackwell芯片訂單可見度高?;ヂ?lián)網(wǎng)泡沫破滅時,思科存在22億美元過剩庫存,因此應(yīng)短期監(jiān)控客戶訂單、中長期跟蹤下游客戶需求和資本開支計劃。圖表7:當(dāng)前英偉達(dá)和思科崩盤前的背景、行業(yè)和公司表現(xiàn)對比英偉達(dá) 思科需求:北美科技巨頭資本支出持續(xù)增加,短期算力需求仍有支撐10圖表9:科技公司資本支出占營運(yùn)現(xiàn)金流的比例變化趨勢資料來源:彭博,光大證券研究所整理,已排除自由現(xiàn)金流為負(fù)的年份和極端值,24E數(shù)據(jù)為彭博一致預(yù)期80%60%40%20%0%100%
140%120%2015 2016 2017 2018 2019 2020 2021微軟 亞馬遜
谷歌
Meta
特斯拉2022 2023 2024EOracle
100%圖表8:北美科技巨頭23Q1-24Q2資本支出與同比增速(單位:億美元)請務(wù)必參閱正文之后的重要聲明資料來源:各公司公告,光大證券研究所整理23Q123Q223Q323Q424Q124Q2微軟78.0107112115109.5190YoY23.8%23.0%69.7%69.1%40.4%77.57%谷歌62.968.980.6110120131YoY-35.7%0.9%10.7%45.1%90.8%90.13%Meta70.963.567.6796785YoY27.7%-18.0%-28.9%-14.4%-5.5%33.86%亞馬遜131104113133139169YoY-4.4%-26.2%-24.7%-14.2%6.1%62.50%北美科技公司陸續(xù)進(jìn)入新一輪AI投資周期,資本支出大幅增加,短期內(nèi)對高端AI芯片的需求仍較為強(qiáng)勁根據(jù)Omdia,23年微軟、Meta共計購買15萬張H100
GPU,谷歌、亞馬遜共計購買5萬張H100
GPU。由于谷歌、亞馬遜擁有自研AI芯片的儲備,對第三方芯片供應(yīng)商的依賴較弱,但隨著LLM性能迭代和用戶對AI服務(wù)的要求提升,當(dāng)前階段訓(xùn)練和推理均需要高性能GPU和大規(guī)模集群算力的支撐,幫助科技巨頭培養(yǎng)早期口碑、搶占市場先機(jī)。雖然科技巨頭仍有充足的營運(yùn)現(xiàn)金流支持資本開支持續(xù)增加,但仍面臨一定的成本壓力,長期AI投資策略可能發(fā)生變化從資本支出占營運(yùn)現(xiàn)金流的比例來看,利潤壓力較大的亞馬遜、Meta、Oracle大幅削減了資本支出的占比,谷歌資本支出占比無明顯變化,微軟、特斯拉資本支出占比均呈上升趨勢。而根據(jù)公司指引,2024年和2025年科技巨頭有望繼續(xù)增加資本支出,Meta則明確指出持續(xù)增加的投資會使2025年的折舊成本大幅提升。根據(jù)彭博一致預(yù)期,2024年科技巨頭資本支出占營運(yùn)現(xiàn)金流的比例將普遍達(dá)到40%以上。因此,在AI的投資回報率尚不明顯的現(xiàn)狀下,科技巨頭會更加重視AI戰(zhàn)略的性價比。請務(wù)必參閱正文之后的重要聲明11需求:云廠商注重AI產(chǎn)品創(chuàng)新,AI算力公司對長期增速表態(tài)樂觀資料來源:新浪財經(jīng),南方財經(jīng),BiaNews,華盛通,騰訊,智通財經(jīng),芯智訊,光大證券研究所整理云廠商和OpenAI積極研發(fā)投入,產(chǎn)品創(chuàng)新和模型推理運(yùn)作將為主要工作負(fù)載。OpenAI表示2030年前預(yù)計累計投入2000億美元;云廠商方面更注重針對不同行業(yè)和客戶需要開發(fā)具備實用性、創(chuàng)新性的功能,激發(fā)客戶的購買和復(fù)用意愿。AI芯片廠商預(yù)計AI芯片市場規(guī)模長期維持較快復(fù)合增速。AMD預(yù)計2028年數(shù)據(jù)中心人工智能加速器市場規(guī)模將達(dá)到5000億美元(2023年~2028年期間的年均復(fù)合增速60%+);英偉達(dá)和Dell科技預(yù)計數(shù)據(jù)中心由通用計算向加速計算轉(zhuǎn)型,帶來萬億級別數(shù)據(jù)中心市場空間。圖表10:各公司對AI算力產(chǎn)業(yè)鏈相關(guān)需求的表述與預(yù)期匯總行業(yè)公司對于未來長期AI算力需求的表述AI大模型OpenAI預(yù)計2030年前累計花費(fèi)2000億美元,其中60%-80%將用于訓(xùn)練和運(yùn)行模型;2026年的大模型訓(xùn)練成本或提高至95億美元。云廠商MetaAI模型會針對不同行業(yè)和用戶進(jìn)行大量產(chǎn)品和應(yīng)用創(chuàng)新,具備更多實用性功能。新一代
Llama
模型的訓(xùn)練需求,資本支出將在2025年顯著增長,投入注重大模型訓(xùn)練、推理和業(yè)務(wù)支持。GoogleAI大模型正在整合基礎(chǔ)功能,未來的重點(diǎn)是基于這些功能構(gòu)建解決方案。Microsoft公司將在未來幾個季度繼續(xù)加大資本支出,以擴(kuò)展基礎(chǔ)設(shè)施建設(shè)。當(dāng)前大部分AI工作負(fù)載來自推理運(yùn)行工作。Amazon生成式AI仍處非常早期階段,公司已在AI領(lǐng)域?qū)崿F(xiàn)數(shù)十億美元收入,而需求增長仍非常顯著,看好AI未來持續(xù)發(fā)展。AI芯片英偉達(dá)未來幾年內(nèi),總值達(dá)1萬億美元的數(shù)據(jù)中心將全部實現(xiàn)加速計算。當(dāng)前客戶對于Blackwell需求旺盛供不應(yīng)求使得客戶關(guān)系緊張。AMD預(yù)計2023年~2028年數(shù)據(jù)中心人工智能加速器市場將以每年60%+的速度增長,2028年市場將增長至5000億美元。此前曾預(yù)計2027年市場規(guī)模達(dá)4000億美元。Marvell科技Marvell對應(yīng)的數(shù)據(jù)中心TAM將從2023年的210億美元增長至2028年的750億美元,年復(fù)合增長率29%。其中,預(yù)計ASIC加速計算芯片業(yè)務(wù)2028年市場規(guī)模將達(dá)429億美元。服務(wù)器Dell科技未來數(shù)據(jù)中心將更多轉(zhuǎn)向采用GPU和AI加速器以滿足對復(fù)雜AI工作負(fù)載的支持。請務(wù)必參閱正文之后的重要聲明12供給:AI芯片加速迭代,算力成本下降助推應(yīng)用推理側(cè)發(fā)展資料來源:英偉達(dá)官網(wǎng),谷歌云官網(wǎng),新浪財經(jīng),芯智訊,IT之家,搜狐,TOP
CPU,新浪科技,36氪,信息化觀察網(wǎng),hpcwire,icsmart,光大證券研究所整理資料來源:騰訊網(wǎng),新浪財經(jīng),光大證券研究所整理底層邏輯提升芯片性能以降低算力單位成本,進(jìn)而幫助AI為“推理”運(yùn)行服務(wù)。單芯片改善提升單顆芯片峰值算力。機(jī)架級改善基于芯片和網(wǎng)絡(luò)互聯(lián)的性能提升,GB200
NVL72相較等數(shù)量的
H100
Tensor
CoreGPU,可為LLM推理工作負(fù)載提供30倍性能,同時將成本和能耗降低25倍,大幅降低單位算力成本。AI芯片廠商產(chǎn)品迭代加速,英偉達(dá)性能優(yōu)勢明顯。自2023年以來,英偉達(dá)、AMD和博通等AI芯片廠商均積極進(jìn)行產(chǎn)品迭代。性能提升幫助算力成本下降,降低AI應(yīng)用推理運(yùn)行門檻,幫助硬件和應(yīng)用形成正向循環(huán)。單芯片性能提升、算力集群整體運(yùn)行效率增強(qiáng)均幫助單位算力成本下降,有望促進(jìn)AI應(yīng)用和產(chǎn)品研發(fā)和使用,豐富的AI應(yīng)用則將為AI算力帶來持續(xù)需求。圖表11:已發(fā)布重點(diǎn)AI芯片情況匯總 圖表12:AI芯片算力成本出現(xiàn)下降趨勢供給:產(chǎn)能瓶頸CoWoS和HBM的供給情況均在積極改善資料來源:TrendForce,光大證券研究所資料來源:格隆匯,新浪財經(jīng),IT之家,TheElec,光大證券研究所整理公司CoWoS產(chǎn)能情況臺積電2024年底CoWoS月產(chǎn)能4萬片;2025年底CoWoS月產(chǎn)能預(yù)計爬升至8萬片。聯(lián)華電子2023年8月消息,英偉達(dá)打造非臺積電CoWoS供應(yīng)鏈,其中聯(lián)華電子將擴(kuò)充旗下硅中介層(silicon
interposer)產(chǎn)能,把月產(chǎn)能由3千片擴(kuò)增至1萬片。三星電子2024年4月消息,三星電子已經(jīng)成功拿下英偉達(dá)2.5D封裝訂單,提供Interposer(硅中介層和I-Cube先進(jìn)封裝產(chǎn)能,以補(bǔ)充臺積電CoWoS產(chǎn)能缺口。CoWoS:AI芯片擴(kuò)產(chǎn)瓶頸之一是CoWoS先進(jìn)封裝中的硅中介層(interposer)產(chǎn)能。1)臺積電克服土地和廠房等擴(kuò)產(chǎn)限制,2025年底CoWoS月產(chǎn)能預(yù)計由2024年底4萬片翻倍擴(kuò)至8萬片;2)英偉達(dá)積極擴(kuò)展非臺積電的CoWoS供應(yīng)鏈,吸納聯(lián)華電子和三星電子實現(xiàn)對臺積電的產(chǎn)能補(bǔ)充。HBM:根據(jù)TrendForce,英偉達(dá)和AMD的AI芯片積極提升搭載HBM規(guī)格,由HBM3向HBM3E更迭,由8層堆疊向12層堆疊更迭,并不斷提升HBM容量和內(nèi)存帶寬。圖表13:CoWoS供應(yīng)鏈的擴(kuò)產(chǎn)情況匯總 圖表14:英偉達(dá)和AMD
AI芯片采用HBM產(chǎn)品的規(guī)格情況預(yù)測請務(wù)必參閱正文之后的重要聲明13供給:HBM3E將于2024H2大批量出貨,HBM4
2025年蓄勢待發(fā)資料來源:
TrendForce,光大證券研究所公司最新財報AI業(yè)務(wù)表述HBM擴(kuò)產(chǎn)計劃HBM產(chǎn)品迭代SK海力士1)24Q3
,
HBM營收環(huán)比增長70%,同比增長330%;
Q3中HBM銷售額占DRAM
的30%
,
預(yù)計Q4將實現(xiàn)40%。2)24Q3,eSSD營收環(huán)比增長20%,同比增長430%。)
2024
年
SK
海力士HBM產(chǎn)能預(yù)計翻倍;)
2024
年
SK
海力士HBM產(chǎn)能售罄,且2025年也基本售罄。1)
據(jù)Q3業(yè)績會,
12層HBM3E產(chǎn)品將于
2024Q4
出貨,
預(yù)計2025H1HBM3E12H將
占HBM3E總出貨量的50%;2
)
據(jù)
Q2
業(yè)績會
,
2024
年HBM3E將占HBM出貨量的50%3)
據(jù)Q2業(yè)績會,
2025年12層HBM3E將成為旗艦產(chǎn)品;4)據(jù)Q2業(yè)績會,2025H2推出12層堆疊HBM4。三星電子1)24Q2
,
HBM營收環(huán)比增長50%+;2
)
24Q2
,
服務(wù)器SSD營收環(huán)比增長約40%;3)
24Q3,
HBM3E營收占HBM總收入比重略高于10%,預(yù)計Q4將增至50%。HBM3E全面增產(chǎn)1)24Q1向客戶發(fā)送8層HBM3E樣品,24Q3正在量產(chǎn)8層和12層HBM3E產(chǎn)品;2)12層HBM3E已完成開發(fā),目前已發(fā)送樣品并完成增產(chǎn)準(zhǔn)備,預(yù)計24H2根據(jù)客戶需求情況擴(kuò)大供應(yīng);3
)
HBM4
按計劃研發(fā),
預(yù)計
2025H2發(fā)布。美光科技2024年和2025年的HBM產(chǎn)品均已售罄,
且定價已確定-2024年3月,12層HBM3E產(chǎn)品送樣,并預(yù)計2025年大批量生產(chǎn)。請務(wù)必參閱正文之后的重要聲明14圖表16:三大存儲廠商的HBM產(chǎn)品的業(yè)績、產(chǎn)能和技術(shù)情況匯總資料來源:三星電子官網(wǎng),美光科技官網(wǎng),新浪財經(jīng),新浪科技,理財網(wǎng),華爾街見聞,光大證券研究所整理HBM供不應(yīng)求,三大存儲廠商積極擴(kuò)產(chǎn),驅(qū)動相關(guān)收入高增。美光表示其HBM產(chǎn)品2024年和2025年產(chǎn)能均已售罄,三大廠商均加大產(chǎn)能供給,2025年預(yù)計HBM出貨量持續(xù)高增以驅(qū)動收入增長。存儲廠商競相推出新款HBM技術(shù),并加速量產(chǎn)出貨。2024年HBM芯片將向HBM3E產(chǎn)品迭代,其中三大存儲廠商均發(fā)布8層HBM3E;三星和SK海力士于24Q3量產(chǎn)出貨12層HBM3E,美光科技將于2025年大批量出貨12
層HBM3E
;
SK
海力士和三星電子預(yù)計于2025H2推出HBM4。圖表15:三大存儲廠商的HBM3E研發(fā)和供應(yīng)進(jìn)展芯片:英偉達(dá)全面領(lǐng)先,AMD和博通面臨機(jī)遇,臺積電享受代工紅利英偉達(dá):發(fā)布Blackwell平臺,算力集群系統(tǒng)成為突出技術(shù)優(yōu)勢AMD:
MI325x注重推理,關(guān)注后續(xù)集群算力產(chǎn)品和軟件生態(tài)建設(shè)博通:
AI定制芯片+以太網(wǎng),把握AI浪潮長期發(fā)展趨勢臺積電:掌握先進(jìn)制程和先進(jìn)封裝技術(shù)優(yōu)勢,收獲AI芯片代工紅利請務(wù)必參閱正文之后的重要聲明1516英偉達(dá):股價歷史復(fù)盤,多輪業(yè)績超預(yù)期驅(qū)動股價快速抬升請務(wù)必參閱正文之后的重要聲明資料來源:格隆匯,新浪財經(jīng),IT之家,TheElec,光大證券研究所整理英偉達(dá)股價可分成邏輯推演期和業(yè)績兌現(xiàn)期:
)邏輯推演期( ):英偉達(dá)收割生成式 算力紅利“鏟子”邏輯突出,市場預(yù)期算力需求強(qiáng)勁、英偉達(dá)手握大量確定性訂單;
)業(yè)績兌現(xiàn)期( 至今):
亮眼業(yè)績不斷推高盈利預(yù)測,進(jìn)而帶動股價提升。業(yè)績驅(qū)動股價:英偉達(dá)憑借其技術(shù)優(yōu)勢,奪得絕大部分AI
GPU市場份額,成為收獲AI算力紅利的主要受益公司。AI算力需求幫助英偉達(dá)數(shù)據(jù)中心業(yè)務(wù)營收高速增長,同時高價值量的AI
GPU幫助英偉達(dá)盈利能力爬升。圖表17:英偉達(dá)強(qiáng)勁業(yè)績驅(qū)動股價大幅抬升英偉達(dá):發(fā)布超級芯片GB200,機(jī)架系統(tǒng)級性能和能效大幅提升圖表18:GB200超級芯片由2個B200
GPU和1個Grace
CPU組成B200
SXMH200
SXMH100
SXMA100(80GB)
SXMGPU
SubsystemHBM3eHBM3eHBM3HBM2eMemory
Bandwidth8TB/s4.8TB/s3.35TB/s2TB/sVRAM192GB(2*96GB)141GB80GB80GBFP8
Tensor
Core9000
TFLOPS3958
TFLOPS3958TFLOPS624TOPSFP16
Tensor
Core4500
TFLOPS1979TFLOPS1979TFLOPS312TFLOPSTF32
Tensor
Core2250
TFLOPS989TFLOPS989TFLOPS156TFLOPS(tensore
float)FP64
Tensor
Core40
TFLOPS67TFLOPS67TFLOPS19.5TFLOPSInterconnectNVLink
5:1800GB/sNVLink
4:
900GB/sNVLink
4:
900GB/sNVLink
3:
600
GB/sPCIe
Gen5:
256GB/sPCIe
Gen5:
128GB/sPCIe
Gen5:
128GB/sPCIe
Gen4:
64
GB/sTDP1000W700W700W400W17資料來源:英偉達(dá)官網(wǎng),光大證券研究所整理圖表19:Blackwell平臺產(chǎn)品涉及GPU、CPU、網(wǎng)絡(luò)等多類產(chǎn)品資料來源:英偉達(dá)官網(wǎng) 資料來源:英偉達(dá)官方材料圖表20:英偉達(dá)AI芯片性能匯總,B200(SXM)單卡峰值算力提升至H200(SXM)的兩倍以上(除FP64精度)Blackwell全新架構(gòu)實現(xiàn)單卡芯片算力密度及峰值算力較上代Hopper躍升。Blackwell
GPU
實現(xiàn)兩個GPUdie
雙芯片堆疊,
晶體管數(shù)量較Hopper
GPU提升160%,B200同精度的峰值算力也較H200均提升至少一倍(除FP64精度外)。弱化單獨(dú)GPU芯片,英偉達(dá)推出當(dāng)前最強(qiáng)AI芯片GB200
。GB200通過NVLink-C2C接口連接兩個BlackwellGPU和一個Grace
CPU,GB200推理速度為H100
的7
倍,
訓(xùn)練速度為H100的4倍(基于GPT-3模型)?;ヂ?lián)技術(shù)幫助GB200機(jī)架系統(tǒng)實現(xiàn)通信速度和整體性能的大幅提升。GB200還可擴(kuò)充至機(jī)架系統(tǒng)級產(chǎn)品,DGX
GB200
NVL72
機(jī)架通過18
個NVLink
Switch芯片連接36個GB200,幫助Blackwell機(jī)架級系統(tǒng)推理性能較Hopper算力集群提升至30倍(基于GPT-MoE模型)。請務(wù)必參閱正文之后的重要聲明請務(wù)必參閱正文之后的重要聲明18英偉達(dá)自研通信芯片,實現(xiàn)通信能力持續(xù)增強(qiáng)。1)NVLink
5.0在B200上實現(xiàn)1.8TB/s的數(shù)據(jù)傳輸,較4.0提升一倍;2)NVLink
Switch是第一款機(jī)架級交換機(jī)芯片,能夠在無阻塞計算結(jié)構(gòu)中支持多達(dá)
576
個完全連接的
GPU。圖表21:英偉達(dá)、AMD和博通的芯片通信產(chǎn)品發(fā)布時間表資料來源:英偉達(dá)官網(wǎng),騰訊云,搜狐,36氪,智東西,IThome,光大證券研究所整理繪制英偉達(dá):自研通信芯片成為組建大規(guī)模算力集群系統(tǒng)的關(guān)鍵19資料來源:英偉達(dá)官網(wǎng),光大證券研究所整理請務(wù)必參閱正文之后的重要聲明NVLink和NVLink
Switch是英偉達(dá)創(chuàng)建無縫、高帶寬、多節(jié)點(diǎn)GPU集群的關(guān)鍵。NVLink
Switch互連技術(shù)幫助已連接的GPU共享計算結(jié)果,提高通信速度,降低集群損耗。NVLink
Switch可組建連接GB200
NVL72的GPU實現(xiàn)全通信連接,并可進(jìn)一步擴(kuò)展、最多連接576個GPU,從而形成高效的數(shù)據(jù)中心大小的GPU算力集群。圖表22:英偉達(dá)NVLink通信芯片歷次迭代產(chǎn)品性能匯總表2nd
Generation3rd
Generation4th
Generation5th
GenerationNVLink
bandwidth
per
GPU300GB/s600GB/s900GB/s1,800GB/sMaximum
Number
of
Links
per
GPU6121818Supported
NVIDIA
ArchitecturesNVIDIA
Volta?
architectureNVIDIA
Ampere
architectureNVIDIA
Hopper?
architectureNVIDIA
Blackwell
architectureFirst
GenerationSecond
GenerationThird
GenerationNVLink
SwitchNumberofGPUswithdirectconnection
within
a
NVLink
domainUp
to
8Up
to
8Up
to
8Up
to
576NVSwitch
GPU-to-GPU
bandwidth300GB/s600GB/s900GB/s1,800GB/sTotal
aggregate
bandwidth2.4TB/s4.8TB/s7.2TB/s1PB/sSupported
NVIDIA
architecturesNVIDIA
Volta?
architectureNVIDIA
Ampere
architectureNVIDIA
Hopper?
architectureNVIDIA
Blackwell
architecture資料來源:英偉達(dá)官網(wǎng),光大證券研究所整理圖表23:英偉達(dá)NVLink
Switch通信芯片歷次迭代產(chǎn)品性能匯總表英偉達(dá):自研通信芯片成為組建大規(guī)模算力集群系統(tǒng)的關(guān)鍵20英偉達(dá):GB200
NVL72等機(jī)架系統(tǒng)大幅強(qiáng)化新一代AI計算能力HGX
B200HGX
B100GPU組成8
x
B200
SXM8
x
B100
SXMFP4
Tensor
Core144
PFLOPS112
PFLOPSFP8/FP6
Tensor
Core72
PFLOPS56
PFLOPSINT8
Tensor
Core72
POPS56
POPSFP16/BF16
Tensor
Core36
PFLOPS28
PFLOPSTF32
Tensor
Core18
PFLOPS14
PFLOPSFP64
Tensor
Core320
TFLOPS240
TFLOPS存儲高達(dá)1.5TBNVIDIA
NVLinkNVLink
5.0NVIDIA
NVSwitchNVSwitch
4.0GPU間帶寬1.8
TB/s總聚合帶寬14.4
TB/s資料來源:英偉達(dá)官方,光大證券研究所請務(wù)必參閱正文之后的重要聲明資料來源:英偉達(dá)官網(wǎng),光大證券研究所英偉達(dá)產(chǎn)品形態(tài)包括芯片、服務(wù)器和機(jī)架系統(tǒng)三個層級,存在依次組成構(gòu)建的關(guān)系。芯片級:英偉達(dá)官方當(dāng)前公布的芯片款式包括B100、B200和GB200三類,其中GB200由2個B200和1個CPU構(gòu)成;服務(wù)器級:8個B100或B200芯片組成對應(yīng)8卡服務(wù)器,GB200超級芯片服務(wù)器則配備兩個GB200超級芯片;機(jī)架系統(tǒng):服務(wù)器通過機(jī)架式設(shè)計,可實現(xiàn)多個服務(wù)器連接形成更多GPU互連,例如72個GPU連接的GB200
NVL72。機(jī)架系統(tǒng)組成:1)GB200
NVL72:計算部分由18個GB200
服務(wù)器構(gòu)成(36個GB200超級芯片,即36個Grace
CPU+72個Blackwell
GPU),中間通過9個NVLink
Switch
Tray實現(xiàn)通信共享;機(jī)架還可橫向拓展,如8個GB200
NVL
72機(jī)架可組成一個SuperPOD,創(chuàng)建一個576個GPU互連的大型算力集群。2)GB200
NVL36:單機(jī)柜形式,計算部分由9個GB200服務(wù)器構(gòu)成,其中機(jī)架上方放置5個、機(jī)架下方放置4個,中間通過9個NVLink
Switch
Tray連接。圖表24:英偉達(dá)Blackwell系列服務(wù)器規(guī)格 圖表25:英偉達(dá)GB200
NVL72和GB200NVL36的機(jī)架內(nèi)部構(gòu)成和結(jié)構(gòu)21圖表26:英偉達(dá)和AMD的AI軟件生態(tài)系統(tǒng)結(jié)構(gòu)圖請務(wù)必參閱正文之后的重要聲明資料來源:英偉達(dá)官網(wǎng),AMD官網(wǎng),光大證券研究所整理繪制資料來源:AMD官網(wǎng),HPCwire,騰訊云,光大證券研究所整理繪制英偉達(dá):CUDA成為生態(tài)護(hù)城河,積極打造軟件配套服務(wù)圖表27:英偉達(dá)、AMD和Intel的AI軟件生態(tài)布局對比CUDA成英偉達(dá)生態(tài)護(hù)城河,AMD依賴遷移+開源追趕。英偉達(dá)CUDA具備豐富訓(xùn)練框架和強(qiáng)大算子庫,開發(fā)者使用粘性強(qiáng)。CUDA支持JAX、PaddlePaddle、MXNet、PyTorch
Geometric、DGL等深度學(xué)習(xí)框架,且CUDA-XAI軟件加速庫具備豐富的數(shù)學(xué)、數(shù)據(jù)處理、圖像視頻、通訊等庫,以及TensorRT、cuDNN兩個專門綁定英偉達(dá)GPU的深度學(xué)習(xí)核心庫。英偉達(dá)打造軟硬一體解決方案。1)DGX平臺,打造從硬件到軟件的企業(yè)級AI平臺;2)AI
Enterprise軟件套件,幫助客戶靈活部署、加速降本,提供包括NeMo、Riva、NIM容器式微服務(wù)等應(yīng)用。22請務(wù)必參閱正文之后的重要聲明資料來源:英偉達(dá)官網(wǎng),AMD官網(wǎng),光大證券研究所整理繪制;英偉達(dá)選取“Tensor
Core”,AMD選取“with
Structured
Sparsity”資料來源:新浪財經(jīng),光大證券研究所整理NVIDIA
B200NVIDIAH200
SXMAMD
MI325XAMD
MI300XMemory
Clock8Gbps
HBM3eHBM3e6
GHz
HBM3E5.2
GHz
HBM3MemoryBandwidth8TB/s4.8TB/s6
TB/s5.3
TB/sVRAM192GB(2*96GB)141GB256GB192GBFP8稀疏4500TFLOPS3958
TFLOPS5.22
PFLOPs5.22
PFLOPsFP16稀疏2250TFLOPS1979TFLOPS2.61
PFLOPs2.61
PFLOPsTF32稀疏1100TFLOPS989TFLOPS1.3
PFLOPs1.3
PFLOPsFP64稀疏40TFLOPS67TFLOPS81.7
TFLOPs81.7
TFLOPsInterconnectNVLink
5:1800G/sNVLin
4:900GB/sInfinity
Fabric:128GB/sInfinity
Fabric:128GB/sAMD
MI325x發(fā)布,公司注重提升內(nèi)存和推理性能。MI325x芯片采用MI300X相同的基本設(shè)計和CDNA
3
GPU架構(gòu),但配備256GB
HBM3e內(nèi)存;注重推理性能,單顆MI325x在執(zhí)行Llama
3.1
70B等大模型的推理性能比英偉達(dá)H200快20%~40%,MI325X服務(wù)器在運(yùn)行Llama
3.1405B時,較英偉達(dá)HGX
H200推理性能可提高40%。而AMD指引2024年AI芯片收入由原先40億美元上調(diào)至45億美元,主要系MI300貢獻(xiàn)。AMD積極彌補(bǔ)通信和軟件生態(tài)短板。1)通信:使用Infinity
Fabric,并推出業(yè)界首款支持UEC超以太網(wǎng)聯(lián)盟的AI網(wǎng)卡Pensando
Pollara
400和性能翻倍提升的Pensando
Salina
400
DPU。2023年7月,微軟、Meta、AMD、博通等公司組建UEC,致力于建立AI時代下的超大型網(wǎng)絡(luò)標(biāo)準(zhǔn)。2)生態(tài)系統(tǒng):AMD推出ROCm
6.2生態(tài)系統(tǒng),平均推理/訓(xùn)練性能提高2.4倍。后續(xù)關(guān)注AMD的集群系統(tǒng)、軟件生態(tài)和客戶進(jìn)展。AI工作負(fù)載由訓(xùn)練向推理轉(zhuǎn)變,算力性能和軟件生態(tài)面臨的壁壘降低,但AMD仍較英偉達(dá)存在差距,我們建議關(guān)注后續(xù)進(jìn)展突破。1)英偉達(dá)已推出機(jī)架級系統(tǒng),市場期待AMD的超大規(guī)模算力產(chǎn)品的推出;2)AMD積極推出通信產(chǎn)品,但實際可能較英偉達(dá)仍有差距,例如單顆MI325x訓(xùn)練Llama
2
7B的速度超過單顆英偉達(dá)H200,但8張MI325X訓(xùn)練Llama
2
70B的性能同英偉達(dá)HGX
H200相當(dāng);3)客戶當(dāng)前以微軟為主,OpenAI、Meta、Cohere、xAI為其戰(zhàn)略合作伙伴,關(guān)注后續(xù)下單潛力。圖表28:英偉達(dá)和AMD新款A(yù)I芯片單芯片性能對比 圖表29:AMD公布后續(xù)AI芯片產(chǎn)品迭代路線圖23請務(wù)必參閱正文之后的重要聲明資料來源:博通Hot
Chips
2024
PPT資料來源:博通投資者日PPT博通:AI定制芯片+以太網(wǎng),把握AI浪潮長期發(fā)展趨勢定制芯片趨勢已來。相較英偉達(dá)等通用芯片,定制AI芯片ASIC具備低成本同時實現(xiàn)最大限度提高客戶關(guān)心性能的優(yōu)勢。博通當(dāng)前已具備四家重要ASIC客戶,分別為Google、Meta、字節(jié)跳動和OpenAI,其中博通已幫助Google研發(fā)五代TPU芯片。通信成為組建大型算力集群的關(guān)鍵,博通以太網(wǎng)成為重要技術(shù)。GPU、網(wǎng)卡、內(nèi)存之間需要高速傳輸數(shù)據(jù),業(yè)界發(fā)明RDMA技術(shù),使網(wǎng)卡接管數(shù)據(jù),在發(fā)送方和接收方的內(nèi)存間直接傳輸數(shù)據(jù),從而繞過緩存和操作系統(tǒng)。英偉達(dá)主導(dǎo)的infiniband和以太網(wǎng)都支持RDMA,而博通以太網(wǎng)具備成本和開放生態(tài)優(yōu)勢,可供客戶組建大型算力系統(tǒng)時自由選擇軟硬組件。博通推出共同封裝光學(xué)器件(CPO)集成至ASIC芯片。共同封裝光學(xué)器件(CPO)這一新技術(shù)可提供功耗和成本領(lǐng)先優(yōu)勢,且顯著減少了系統(tǒng)延遲,并提高了數(shù)據(jù)傳輸速度、能效和頻寬。CPO技術(shù)已被使用在博通新一代的Tomahawk
5
Bailly交換機(jī),目前博通在致力于開發(fā)硅光子學(xué)與共封裝光學(xué)器件的結(jié)合,以實現(xiàn)AI加速器ASIC芯片的進(jìn)一步升級。圖表30:博通發(fā)布集成在ASIC的硅光子學(xué)和共封裝光學(xué)器件(CPO)技術(shù) 圖表31:AI數(shù)據(jù)中心算力集群需網(wǎng)絡(luò)通信產(chǎn)品連接,博通通信產(chǎn)品覆蓋較為全面務(wù)必參閱正文之后的重要聲明資料來源:老虎說芯,華爾街見聞,光大證券研究所整理資料來源:華爾街見聞臺積電:掌握先進(jìn)制程和先進(jìn)封裝技術(shù)優(yōu)勢,收獲AI芯片代工紅利CoWoS-SCoWoS-L中介層硅中介層RDL中介層和LSI芯片尺寸和布線密度硅中介層尺寸受限,布線密度較低滿足更大尺寸需求,布線密度較高性能需求能夠支持更高的帶寬和更低的延遲滿足了性能和成本之間的平衡應(yīng)用場景主要用于需要極高性能和高密度互連的應(yīng)用,如HPC、AI加速器和高端服務(wù)器適用于兼顧性能和成本的應(yīng)用,如網(wǎng)絡(luò)設(shè)備、通信基站和某些高端消費(fèi)電子產(chǎn)品制造復(fù)雜性制造工藝復(fù)雜且對精度要求高,通常只在對性能要求極高且能夠承受較高制造成本的應(yīng)用中使用制造復(fù)雜度高于CoWoS-S,能夠?qū)崿F(xiàn)復(fù)雜系統(tǒng)集成的需求技術(shù)成熟度請良率較高,目前高達(dá)99%良率偏低,目前約為90%24AI芯片廠商為保證性能領(lǐng)先,均采取臺積電的先進(jìn)制程和先進(jìn)封裝工藝用于芯片生產(chǎn),臺積電享受AI發(fā)展紅利。臺積電負(fù)責(zé)為英偉達(dá)、AMD和博通等AI芯片公司代工制造數(shù)據(jù)中心服務(wù)器端AI芯片,當(dāng)前其CoWoS先進(jìn)封裝產(chǎn)能已成AI芯片產(chǎn)能瓶頸。CoWoS-L成為英偉達(dá)Blackwell生產(chǎn)的關(guān)鍵。臺積電CoWoS-L較此前CoWoS-S技術(shù),能夠幫助AI芯片實現(xiàn)更高布線密度和更大尺寸。3nm進(jìn)入量產(chǎn)階段,2nm工藝預(yù)計于2026年量產(chǎn)。臺積電先進(jìn)制程向2nm和3nm轉(zhuǎn)移,當(dāng)前服務(wù)器端AI芯片、手機(jī)芯片、PC芯片等下游客戶向3nm過渡,支撐起臺積電未來強(qiáng)勁業(yè)績表現(xiàn)。圖表32:CoWoS-S和CoWoS-L的區(qū)別對比 圖表33:臺積電公布代工制程工藝的技術(shù)演進(jìn)路線請務(wù)必參閱正文之后的重要聲明25服務(wù)器:擁有大量未交付訂單,關(guān)注Dell、HPE和超微電腦全球AI服務(wù)器市場規(guī)模有望持續(xù)高增,市場競爭格局較為分散三大服務(wù)器廠商AI服務(wù)器營收&未交付訂單金額增長,印證行業(yè)高景氣AI服務(wù)器賽道競爭激烈,三大品牌服務(wù)器廠商短期盈利能力承壓資料來源:Counterpoint,光大證券研究所整理資料來源:
Statista
,光大證券研究所整理請務(wù)必參閱正文之后的重要聲明314052678811520040608010012014020232024E2025E2026E2027E2028E(十億美元)AI服務(wù)器市場規(guī)模全球AI服務(wù)器市場規(guī)模有望持續(xù)高增,市場競爭格局較為分散受益于生成式AI的數(shù)據(jù)分析、訓(xùn)練、推理等多方面需求,AI服務(wù)器行業(yè)有望維持高景氣度。Statista研究數(shù)據(jù)顯示,2023年全球AI服務(wù)器市場規(guī)模為310億美元,預(yù)計2024年達(dá)到400億美元、2028年將達(dá)到1150億美元左右,2024-2028年間CAGR約30%。除云廠商委托ODM定制的AI服務(wù)器外,品牌服務(wù)器廠商DELL、HPE、超微電腦份額合計超50%。Counterpoint發(fā)布的2Q24統(tǒng)計數(shù)據(jù)顯示,品牌服務(wù)器廠商DELL、HPE、超微電腦為AI服務(wù)器三大巨頭,份額合計超50%。服務(wù)器商業(yè)模式分為品牌和白牌廠商。數(shù)據(jù)中心建設(shè)過程包括“零部件—服務(wù)器—服務(wù)器機(jī)柜—數(shù)據(jù)中心”,零部件除關(guān)鍵算力設(shè)施GPU外,還需要CPU、內(nèi)存、硬盤等核心部分,組裝完成的服務(wù)器需要掛載在服務(wù)器機(jī)架,以實現(xiàn)服務(wù)器間的數(shù)據(jù)交互及統(tǒng)一管理。白牌服務(wù)器廠商主要負(fù)責(zé)將GPU等部件組裝為GPU服務(wù)器/機(jī)柜,在主板設(shè)計、供應(yīng)鏈整合、制造代工等環(huán)節(jié)提供溢價;品牌服務(wù)器廠商通過自主設(shè)計服務(wù)器整體解決方案提供溢價。圖表34:2023-2028年全球AI服務(wù)器市場規(guī)模 圖表35:2Q24AI服務(wù)器市場份額 圖表36:服務(wù)器廠商商業(yè)模式資料來源:
DELL、HPE公司公告,光大證券研究所整理品牌服務(wù)器廠商白牌服務(wù)器廠商定位擁有服務(wù)器方案的自主設(shè)計權(quán),將設(shè)計好的產(chǎn)品交給代工廠進(jìn)行生產(chǎn),組裝后交付給下游客戶下游客戶提供設(shè)計方案,根據(jù)客戶定制化委托進(jìn)行生產(chǎn)廠商戴爾科技、超微電腦、HPE、浪潮信息、聯(lián)想集團(tuán)等鴻海精密、富士康、英業(yè)達(dá)、廣達(dá)電腦、緯創(chuàng)資通、神達(dá)電腦等請務(wù)必參閱正文之后的重要聲明27受強(qiáng)勁AI需求拉動,
DELL、HPE、超微電腦AI服務(wù)器營收高速增長:1)Dell科技
ISG業(yè)務(wù)線收入連續(xù)2個季度同比正增長,最新季度收入環(huán)比增長26%至116億美元,超市場預(yù)期。業(yè)績改善主因是AI服務(wù)器需求強(qiáng)勁,看好AI服務(wù)器的強(qiáng)勁勢頭持續(xù);2)HPE:已實現(xiàn)連續(xù)2個季度AI系統(tǒng)收入同比增長,公司對AI新系統(tǒng)未來訂單保持樂觀。3)超微電腦:OEM設(shè)備和大型數(shù)據(jù)中心業(yè)務(wù)收入近3個季度均實現(xiàn)超過150%同比高增長,截至2024年6月30日的最新季度同比增長達(dá)192%,增長主因OEM和大型數(shù)據(jù)中心客戶增加、超大數(shù)據(jù)中心業(yè)務(wù)占比增加,客戶對DLC液冷機(jī)架需求超預(yù)期。圖表37:DELL、HPE、超微電腦AI服務(wù)器所在業(yè)務(wù)線的業(yè)績情況匯總Dell859392116ISG服務(wù)器和網(wǎng)絡(luò),包括AI服務(wù)器和非AI的傳統(tǒng)服務(wù)器連續(xù)2個季度同比增長,受益于AI服務(wù)器需求強(qiáng)勁和傳統(tǒng)服務(wù)器需求恢復(fù)YoY-12%-6%22%38%HPE44913AI
Systems 高性能計算(HPC)
AI系統(tǒng)收入實現(xiàn)連續(xù)2個季度同比增長和AIYoY 33%0%125%44%公司AI服務(wù)器所在業(yè)務(wù)線營收(億美元)業(yè)務(wù)線業(yè)務(wù)線簡介業(yè)績描述服務(wù)器產(chǎn)品示例23Q3
23Q4
24Q1
24Q2超微電腦12221934OEM設(shè)備和大型數(shù)據(jù)中心主要以AI服務(wù)器為主大型數(shù)據(jù)中心客戶增加,收入同比維持高增速YoY 26%175%222%192%資料來源:
DELL、HPE、超微電腦公司公告,光大證券研究所整理;注:由于各公司財年劃分不一,表頭中如“24Q2”等非財年概念,超微電腦、Dell、HPE最新季度對應(yīng)截止日期分別為2024年6月30日、2024年8月2日、2024年7月31日。28從AI服務(wù)器未交付訂單金額來看,DELL、HPE呈現(xiàn)逐季增加趨勢:2023年以來DELL、HPE的AI服務(wù)器訂單交付速度低于新簽速度,未交付訂單逐季增加。1)截至FY2025Q2(2024年8月2日),Dell未完成訂單金額為38億美元,金額較上一季度FY2025Q1基本持平,較24財年同期接近翻倍,供給交付能力提升后,AI服務(wù)器新增需求仍保持增長態(tài)勢。2)截至FY2024Q3(2024年7月31日),HPE未完成訂單金額為34億美元,金額較上一季度FY2024Q2的31億美元進(jìn)一步增長。圖表38:HPE和Dell未完成訂單情況(億美元)請務(wù)必參閱正文之后的重要聲明資料來源:
DELL、HPE公司公告,光大證券研究所整理AI服務(wù)器賽道競爭激烈,三大品牌服務(wù)器廠商短期盈利能力承壓資料來源:英偉達(dá)官網(wǎng)、光大證券研究所整理請務(wù)必參閱正文之后的重要聲明英偉達(dá)提供AI服務(wù)器參考設(shè)計,產(chǎn)業(yè)鏈話語權(quán)較高,服務(wù)器品牌廠商價值量增量環(huán)節(jié)受到擠壓。GB200
NVL機(jī)柜交付模式下,英偉達(dá)對于整機(jī)產(chǎn)品定義能力更強(qiáng),價值量向運(yùn)算主板、交換機(jī)主板設(shè)計,以及機(jī)柜設(shè)計傾斜,工業(yè)富聯(lián)、廣達(dá)電腦、緯創(chuàng)資通等受益。服務(wù)器品牌商DELL、HPE、超微電腦整機(jī)解決方案設(shè)計自由度降低,主要通過液冷、組網(wǎng)等系統(tǒng)集成能力參與產(chǎn)業(yè)鏈價值分配。圖表39:AI服務(wù)器產(chǎn)業(yè)鏈請務(wù)必參閱正文之后的重要聲明11.3%11.8%11.4%10.9%13.2%12.6%9.7%14%13%12%11%10%9%8%7%6%FY2019 FY2020 FY2021 FY2022 FY2023 FY2024 FY25H1AI服務(wù)器賽道競爭激烈,三大品牌服務(wù)器廠商短期盈利能力承壓整體來看,DELL、HPE、超微電腦AI服務(wù)器相關(guān)業(yè)務(wù)盈利能力短期呈下滑趨勢。1)DELL
ISG部門FY25H1經(jīng)營利潤率同比下降1.5pct、環(huán)比下降4.3pct;2)HPE服務(wù)器業(yè)務(wù)經(jīng)營利潤率在FY2023大幅下降后,近兩季度經(jīng)營利潤率下降趨緩;3)超微電腦毛利率于FY2023達(dá)到18%高點(diǎn),F(xiàn)Y2024毛利率14.1%,同比下降3.9pct。分析由于:1)AI服務(wù)器市場作為新興賽道,行業(yè)競爭激烈、前期研發(fā)投入大;2)DLC液冷機(jī)架等關(guān)鍵零組件短缺,導(dǎo)致供應(yīng)鏈成本提升。14.2%15.8%15.0%15.4%18.0%14.1%19%18%17%16%15%14%13%12%11%10%FY2019 FY2020 FY2021 FY2022 FY2023 FY202415.7%14.4%10.1%10.1%11.4%11.0%10.8%18%16%14%12%10%8%6%FY23Q1FY23Q2FY23Q3FY23Q4FY24Q1FY24Q2
FY24Q3圖表40:DELL
ISG部門經(jīng)營溢利率資料來源:超微電腦官網(wǎng),光大證券研究所圖表41:HPE服務(wù)器業(yè)務(wù)經(jīng)營溢利率圖表42:超微電腦毛利率資料來源:Dell官網(wǎng),光大證券研究所資料來源:HPE官網(wǎng),光大證券研究所AI算力:多模態(tài)+AI推理+多元客戶驅(qū)動需求持續(xù)高漲,供給改善助推業(yè)績增長確定性強(qiáng)化,算力集群化帶來產(chǎn)業(yè)鏈投資機(jī)遇AI
GPU:訓(xùn)練側(cè)AI大模型持續(xù)迭代,推理側(cè)和端側(cè)延伸引發(fā)增量需求,產(chǎn)品加速迭代出貨,推薦英偉達(dá),關(guān)注AMD;ASIC芯片設(shè)計:AI算力需求由通用芯片向配合行業(yè)和公司特性的專用定制AI芯片轉(zhuǎn)型,關(guān)注Marvell科技、博通;存儲:行業(yè)開啟漲價周期,AI手機(jī)/AIPC提升容量需求,云端算力帶動HBM供不應(yīng)求、市場規(guī)模高速增長,關(guān)注美光科技;服務(wù)器OEM:AI算力需求強(qiáng)勁帶動AI服務(wù)器出貨量攀升,在手訂單高漲,關(guān)注超微電腦、戴爾科技、惠普、慧與、IBM;CoWoS:先進(jìn)封裝CoWoS產(chǎn)能成AI算力供應(yīng)瓶頸,臺積電訂單持續(xù)外溢,封測廠受益,關(guān)注臺積電,Amkor科技;網(wǎng)絡(luò):萬卡算力集群化趨勢驅(qū)動通信互聯(lián)需求,利好光模塊、連接器、交換機(jī)等,關(guān)注Coherent、安費(fèi)諾、Arista網(wǎng)絡(luò)、Juniper網(wǎng)絡(luò)。請務(wù)必參閱正文之后的重要聲明31投資建議24Q2以來,美股市場對AI算力相關(guān)公司的投資趨于理智,且半導(dǎo)體復(fù)蘇節(jié)奏呈現(xiàn)整體表現(xiàn)偏弱、不同領(lǐng)域分化的特點(diǎn)。因此我們綜合考量當(dāng)前業(yè)績支撐性、長期行業(yè)增長性和高AI敞口等因素,推薦英偉達(dá):Blackwell芯片需求強(qiáng)勁,強(qiáng)大芯片性能疊加通信產(chǎn)品能力,GB200
NVL72等機(jī)架系統(tǒng)大幅強(qiáng)化整體訓(xùn)練和推理表現(xiàn),受到云廠商等客戶的大力追捧。CoWoS-L供給情況改善后,看好2025年英偉達(dá)業(yè)績在Blackwell出貨推動下持續(xù)高速增長。建議關(guān)注:高通:AI終端(AI手機(jī)+AI
PC)直接受益標(biāo)的,智能手機(jī)出貨量復(fù)蘇已得到驗證,汽車+PC業(yè)務(wù)打開長期想象空間。PC處理器驍龍X
Elite短期搶得量產(chǎn)出貨先機(jī),長期順應(yīng)AI
PC低功耗趨勢,看好高通長期在PC市場獲得較高市占率。臺積電:先進(jìn)制程&先進(jìn)封裝技術(shù)全面領(lǐng)先,英偉達(dá)、AMD、博通等各類AI芯片均采用臺積電進(jìn)行晶圓代工和先進(jìn)封裝,AI時代下臺積電“強(qiáng)者更強(qiáng)”,先進(jìn)制程和CoWoS積極擴(kuò)產(chǎn)助推業(yè)績高增,后續(xù)整體業(yè)績穩(wěn)健性高。博通:網(wǎng)絡(luò)產(chǎn)品受益于算力集群化趨勢,作為定制化AI芯片龍頭,已為谷歌、Meta研發(fā)AI芯片,其AI相關(guān)業(yè)務(wù)具備持續(xù)超預(yù)期潛力。Marvell科技:網(wǎng)絡(luò)業(yè)務(wù)因算力集群化趨勢而增長強(qiáng)勁,定
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 商務(wù)中心外墻體租賃合同
- 浙江電子產(chǎn)業(yè)園租賃合同
- 老舊小區(qū)改造項目可行性研究報告
- 2023上半年銀行從業(yè)《個人理財》試題及答案
- 2023年注冊土木工程師(水利水電)考試試題合集
- 2023年注冊安全工程師模擬題密
- 醫(yī)生技術(shù)安全培訓(xùn)和風(fēng)險防控
- 石油遠(yuǎn)期合同范例
- 2.2.4 化學(xué)反應(yīng)的條控(教學(xué)課件)-【上好課】2022-2023學(xué)年高二化學(xué)同步備課系列(人教版2019選擇性必修1)
- 銷售返利合作合同范例
- 泵的變頻調(diào)速技術(shù)考核試卷
- 屋頂拆除施工方案
- 2024年蘇州申請客運(yùn)從業(yè)資格證2024年試題
- 工程化學(xué)課件全套課件
- 2025屆山東實驗中學(xué)高一上數(shù)學(xué)期末統(tǒng)考試題含解析
- 紀(jì)委履行監(jiān)督職責(zé)情況報告3篇-各級紀(jì)委要履行好監(jiān)督專責(zé)
- 綠植花卉租擺及園林養(yǎng)護(hù)服務(wù)投標(biāo)方案(技術(shù)方案)
- 照明線路安裝與檢修理論考核試題及答案
- 大學(xué)英語三級(A級)模擬試卷12(共668題)
- 大齡自閉癥兒童課程設(shè)計
- 機(jī)電安裝行業(yè)危險源因素識別清單
評論
0/150
提交評論