AIGC行業(yè)市場分析3_第1頁
AIGC行業(yè)市場分析3_第2頁
AIGC行業(yè)市場分析3_第3頁
AIGC行業(yè)市場分析3_第4頁
AIGC行業(yè)市場分析3_第5頁
已閱讀5頁,還剩5頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領

文檔簡介

AIGC行業(yè)市場分析國內大模型發(fā)展國內AI市場迅速發(fā)展,數據量增速或將全球第一國內應用層面的需求推動AI產業(yè)的加速發(fā)展,或將帶來市場的爆發(fā)性增長。根據IDC數據預測,2021年中國人工智能軟件及應用市場規(guī)模為51億美元,預計2026年將會達到211億美元。數據、算法、算力是AI發(fā)展的驅動力,其中數據是AI發(fā)展的基石,中國數據規(guī)模增速或排名全球第一。據IDC統(tǒng)計,中國數據規(guī)模將從2021年的18.51ZB增長至2026年的56.16ZB,年均增長速度CAGR為24.9%,增速位居全球第一。國內各大科技企業(yè)紛紛入局AI大模型大模型增強了AI技術的通用性,助力普惠AI的實現(xiàn)。未來,大模型有望于場景深度融合,配合專業(yè)工具和平臺支持應用落地,開放的生態(tài)來激發(fā)創(chuàng)新,形成良性循環(huán)。頭部企業(yè)均采取“模型+工具平臺+生態(tài)”三層共建模式,有助于業(yè)務的良性循環(huán),也更容易借助長期積累形成競爭壁壘。大模型廠商主要包括百度、騰訊、阿里、商湯、華為等企業(yè),也有智源研究院、中科院自動化所等研究機構,同時英偉達等芯片廠商也紛紛入局。百度:文心大模型百度文心大模型:模型+平臺+產品構成全套體系百度文心構建了文心大模型層、工具平臺層、產品與社區(qū)三層體系。產品能力:文心大模型+飛槳PaddlePaddle深度學習平臺,滿足市場大規(guī)模落地需求。應用能力:百度已在金融、能源、制造、城市、傳媒、互聯(lián)網等行業(yè)擁有實際落地的標桿案例。生態(tài)能力:在社區(qū)用戶的基礎上,可以實現(xiàn)與開發(fā)者、行業(yè)用戶、上下游產業(yè)的正向互動。百度飛槳:深度學習平臺為大模型研發(fā)基石飛槳(Paddle-Paddle)以百度多年的深度學習技術研究和業(yè)務應用為基礎,集深度學習核心訓練和推理框架、基礎模型庫、端到端開發(fā)套件、豐富的工具組件于一體,是國內功能豐富、開源開放的產業(yè)級深度學習平臺。截止2022年底,共服務企事業(yè)單位20萬家,創(chuàng)建模型67萬個。飛槳深度學習平臺解決大模型研發(fā)和部署的各類問題,文心大模型是飛槳模型庫的重要組成部分,與飛槳共享生態(tài),包含產業(yè)級知識增強大模型體系,以及工具平臺、API和創(chuàng)意社區(qū)助力大模型的高效應用。文心大模型在市場格局中處于第一梯隊百度率先在2019年3月發(fā)布預訓練模型ERNIE1.0,文心大模型構建了“基礎+任務+行業(yè)”的三級模型體系,基礎大模型支撐任務與行業(yè)大模型的建設,任務和行業(yè)大模型結合真實場景與數據反哺基礎大模型優(yōu)化,目前已有36個大模型?;A大模型:聚焦技術挑戰(zhàn)、通用性、泛化性探索,包括含NLP大模型、CV大模型和跨模態(tài)大模型。任務大模型:包含對話、搜索、信息抽取、生物計算等多個典型任務。行業(yè)大模型:包含與來自8個行業(yè)的頭部企業(yè)或機構共建的11個行業(yè)大模型。IDC評估結果顯示,百度文心大模型處于第一梯隊,產品能力、生態(tài)能力達到L4水平,應用能力達到L3水平?;A大模型:聚焦技術挑戰(zhàn)、通用性、泛化性探索文心基礎大模型覆蓋了NLP、CV、跨模態(tài)三大方向。文心NLP大模型:ERNIE3.0基于知識增強的多范式統(tǒng)一預訓練框架,深入融合的千億級知識,具備強大的語言理解能力與小說、摘要、文案創(chuàng)意、歌詞、詩歌等文學創(chuàng)作能力;與鵬城實驗室合作發(fā)布了知識增強千億大模型“鵬城-百度·文心“。文心CV大模型:VIMER系列的CV大模型,包括視覺自監(jiān)督預訓練大模型VIMER-CAE,多任務學習模型VIMERUFO2.0,端到端文檔OCR表征學習預訓練模型VIMER-StrucTexT2.0等。文心跨模態(tài)大模型:ERNIE-ViLG2.0文生圖大模型、ERNIE-ViL視覺-語言大模型、ERNIE-Layout文檔智能大模型等。任務大模型:面向多個經典下游任務推出的模型任務大模型包括,對話大模型PLATO、搜索大模型ERNIE-Search、信息抽取大模型ERNIE-UIE、代碼生成大模型ERNIE-Code、生物計算大模型等。PLATO:基于隱變量的生成式開放域對話大模型,具備接近真人水平的多輪流暢對話能力,開放域對話效果達到世界領先水平。ERNIE-UIE:支持多種類型的開放抽取任務,用戶可以使用自然語言自定義抽取目標,無需訓練即可抽取輸入文本中的對應信息。ERNIE-Code:基于海量代碼和文本數據進行預訓練,引入聯(lián)合學習,具備跨多種自然語言和編程語言的語義理解和生成能力。文心生物計算大模型構建面向化合物分子、蛋白分子的生物計算領域預訓練模型,賦能生物醫(yī)藥行業(yè),包括單序列蛋白質結構預測模型HelixFold、蛋白質結構預測模型HelixFold-Single、化和表征學習模型HelixGEM-2。行業(yè)大模型:深入產業(yè)落地的重要舉措行業(yè)大模型是百度與行業(yè)頭部企業(yè)、機構聯(lián)合研發(fā)的融合行業(yè)數據、知識以及專家經驗的大模型,在各行業(yè)的技術效果突破、產品創(chuàng)新、生產流程變革、降本增效等維度產生價值。與國網合作的NLP大模型:探索研發(fā)電力人工智能聯(lián)合大模型,不僅提升了傳統(tǒng)電力專用模型的精度,而且大幅降低了研發(fā)門檻,實現(xiàn)了算力、數據、技術等資源的統(tǒng)籌優(yōu)化。與人民網的合作的NLP大模型:引入輿情數據中心積淀的行業(yè)知識來更好訓練知識增強的傳媒行業(yè)大模型,實現(xiàn)更少的標注數據下大幅提升傳媒行業(yè)自然語言處理任務效果,如新聞內容審核分類、輿情分析、摘要生成等。與TCL合作的CV大模型:在TCL幾個產線檢測mAP指標平均提升10%+,訓練樣本減少到原有訓練樣本30%~40%,產線指標即可達到原有產線效果,新產線冷啟動效率可提升3倍,產線上線開發(fā)周期降低30%。應用:平臺及產品面向B端C端齊發(fā)力百度文心圍繞大模型產業(yè)應用的不同研發(fā)環(huán)節(jié),面向各階段不同技術、業(yè)務背景的開發(fā)者或用戶,打造系列工具平臺與場景化產品。面向開發(fā)者:擁有面向NLP工程師的大模型套件ERNIEKit,包括數據標注與處理、大模型精調、大模型壓縮、高性能部署、場景化工具五大模塊能力;AI開發(fā)平臺,包括零門檻AI開放平臺EasyDL,和面向AI算法開發(fā)者提供全功能AI開發(fā)平臺BML。面向下游應用:文心開放了API接口,包括NLP大模型ERNIE3.0、跨模態(tài)大模型ERNIE-ViLG、對話大模型PLATO。面向用戶:推出了基于大模型驅動的新一代產業(yè)級搜索系統(tǒng)文心百中,以及AI藝術與創(chuàng)意輔助平臺文心一格。騰訊:混元大模型騰訊HunYuan大模型:深入產業(yè)落地的重要舉措2022年4月,騰訊首次對外披露HunYuan大模型,協(xié)同了騰訊預訓練研發(fā)力量,完整覆蓋NLP大模型、CV大模型、多模態(tài)大模型及眾多行業(yè)/領域任務模型。HunYuan-NLP:萬億級別中文NLP預訓練模型,參數量達1T,排名CLUE1.1總排行榜第一。HunYuan-vcr:排名VCR(VisualCommonsenseReasoning)榜單第一。HunYuan_tvr:跨模態(tài)文字-視頻檢索AI大模型。太極機器學習平臺:HunYuan大模型的底層支持太極是騰訊自主研發(fā)的一站式機器學習生態(tài)服務平臺,為AI工程師打造從數據預處理、模型訓練、模型評估到模型服務的全流程高效開發(fā)工具,為大模型的訓練提供了有力保障。太極AngelPTM:預訓練加速組件,單機最大可容納55B模型,需要192張卡就可以訓練萬億模型。太極-HCFToolKit:大模型壓縮和分布式推理組件,包含了從模型蒸餾、壓縮量化到模型加速的完整能力。太極-HCFdistributed為大模型分布式推理組件,使得HunYuan-NLP1T大模型推理只需96張A100(4G)卡,相比于“威震天”資源設備占用減少了40%。太極–SNIP為大模型壓縮組件,從蒸餾框架和壓縮加速算法兩方面,實現(xiàn)了迭代更快,效果更好,成本更低的大模型壓縮。應用:為騰訊生態(tài)降本增效,廣告類應用表現(xiàn)出色HunYuan先后支持了包括微信、QQ、游戲、騰訊廣告、騰訊云等眾多產品和業(yè)務,降本增效。依靠HunYuan的多模態(tài)理解能力,在廣告內容理解、行業(yè)特征挖掘、文案創(chuàng)意生成等方面的應用,在為騰訊廣告帶來大幅GMV提升的同時,也初步驗證了大模型的商業(yè)化潛力。HunYuan大模型和騰訊廣告精排大模型基于太極機器學習平臺,共同完善優(yōu)化了廣告理解、用戶理解、廣告和用戶匹配的整個流程,提升對廣告理解、匹配效率、精準度和轉化效率。HunYuan大模型的生成能力,可以提升廣告制作的效率:“圖生視頻”功能,可以將靜態(tài)的圖片自動生成不同樣式的視頻廣告;“文案助手”功能,可以為廣告自動生成更恰當的標題,提升廣告的效果;“文生視頻”功能,未來只需要提供一句廣告文案,就可以自動生成與之匹配的視頻廣告。阿里:通義大模型通義大模型:讓AI更通用2022年9月,在阿里巴巴達摩院主辦的世界人工智能大會“大規(guī)模預訓練模型”主題論壇上,發(fā)布“通義”大模型系列,并宣布相關核心模型向全球開發(fā)者開源開放。阿里達摩院基于其AI統(tǒng)一底座構建了通用模型與專業(yè)模型協(xié)同的層次化人工智能體系。統(tǒng)一底座層:M6-OFA模型作為單一模型,在不引入新增結構的情況下,可處理超過30種跨模態(tài)任務。通用模型層:NLP模型“通義–AliceMind”;CV模型“通義-視覺”;多模態(tài)模型“通義-M6”。專業(yè)模型層:深入電商、醫(yī)療、娛樂、設計、金融、工業(yè)、制造業(yè)等行業(yè)。底座層:實現(xiàn)模態(tài)表示、任務表示、模型結構統(tǒng)一通義大模型背后的核心技術為統(tǒng)一學習范式OFA,使其具備了多種任務的“大一統(tǒng)”能力。單一模型即可同時處理圖像描述、視覺定位、文生圖、視覺蘊含、文檔摘要等10余項單模態(tài)和跨模態(tài)任務;升級后更是可以處理超過包括語音和動作在內的30多種跨模態(tài)任務。架構統(tǒng)一:使用Transformer架構,統(tǒng)一進行預訓練和微調,無需在應對不同任務時,增加任何特定的模型層。模態(tài)統(tǒng)一:不管是NLP、CV這種單模態(tài),還是圖文等多模態(tài)任務,全都采用同一個框架和訓練思路。任務統(tǒng)一:將所有單模態(tài)、多模態(tài)任務統(tǒng)一表達成序列到序列(Seq2seq)生成的形式,同類任務的輸入幾乎就是“一個模子里刻出來的”。通用模型層:趨向于統(tǒng)一大模型的演化通義-M6為多模態(tài)大模型,已經從2020年6月的3億參數基礎模型發(fā)展到2021年10月的10萬億參數全球最大預訓練模型到2022年1月的業(yè)界首個通用統(tǒng)一大模型M6-OFA。2021年3月,發(fā)布通義–AliceMind,為達摩院開源的深度語言模型體系,CLUE1.1總排行榜第二。AliceMind生態(tài)體系包括:通用語言模型StructBERT、多模態(tài)語言模型StructVBERT、多語言模型VECO、生成式模型PALM、文檔圖像理解模型StructuralLM、表格理解模型SDCUP、超大中文理解與生成模型PLUG(24層StructBERT編碼器+“24-6”層的PALM編碼器-解碼器)、超大圖像-文本模型mPLUG等。華為:盤古大模型華為盤古大模型:深耕大模型的行業(yè)應用華為云團隊于2020年立項AI大模型,并且于2021年4月發(fā)布“盤古大模型”。受益于華為的全棧式AI解決方案,大模型與昇騰(Ascend)芯片、昇思(MindSpore)語言、ModelArts平臺深度結合。盤古大模型已經發(fā)展出包括基礎大模型(L0)、行業(yè)大模型(L1)、行業(yè)細分場景模型(L2)三大階段的成熟體系。2022年11月,在華為全聯(lián)接大會2022中國站上,華為云進一步迭代盤古大模型的技術能力,擴展盤古大模型的服務范圍,發(fā)布盤古氣象大模型、盤古礦山大模型、盤古OCR大模型三項重磅服務。ModelArts:大模型研發(fā)的平臺支持ModelArts是面向開發(fā)者的一站式AI平臺,為機器學習與深度學習提供海量數據預處理及交互式智能標注、大規(guī)模分布式訓練、自動化模型生成,及端-邊-云模型按需部署能力,幫助用戶快速創(chuàng)建和部署模型,管理全周期AI工作流。ModelArts的主要能力包括數據處理、算法開發(fā)、模型訓練、AI應用管理和部署;功能模塊涵蓋了強化學習、天籌(OptVerse)AI求解器、盤古大模型、AIGallery(人工智能知識與實訓專區(qū))、IDE(云原生Notebook)等?;A大模型:將Transformer應用于各模態(tài)盤古語音語義大模型:語義模型是業(yè)界首個千億中文大模型;語音模型擁有超過4億參數,是當前最大的中文語音模型之一。語義部分,基于Transformer搭建基礎架構,針對理解能力,使用類似BERT的MLM方式訓練;針對生成能力,使用回歸語言模型作為訓練目標,即給定一句話的上半部分,讓模型預測下半部分。2022年,華為在鵬城云腦Ⅱ上訓練了全球首個全開源2000億參數的自回歸中文預訓練語言大模型——鵬程·盤古。語音部分,使用卷積與Transformer結合的網絡結構,解碼器與文本類似;音頻編碼器部分,預訓練時采取將音頻中挖掉一個片段,再隨機采樣一些片段作為負例,讓模型從中找出正確的被挖掉的片段。盤古視覺大模型:最大擁有30億參數,兼顧判別與生成能力;在小樣本學習性能領先。融合了卷積網絡和Transformer架構,分開或按需結合達到更好效果;業(yè)界首創(chuàng)

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經權益所有人同意不得將文件中的內容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網僅提供信息存儲空間,僅對用戶上傳內容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
  • 6. 下載文件中如有侵權或不適當內容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論