




版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
Web3時(shí)代的生產(chǎn)力工具AIGC2023P.PAGEP.PAGE22022:AIGC崛起之年 3AIGC是什么? 5AIGC發(fā)展簡(jiǎn)史 6技術(shù) 6自然語(yǔ)言處理技術(shù)NLP 6AIGC生成模型 9當(dāng)我們開始用AIGC——商業(yè)模式的探索 14AIGC的未來(lái)發(fā)展趨勢(shì) 18面臨的挑戰(zhàn) 19未來(lái)的發(fā)展方向 20投資策略:AIGC的軟硬件與數(shù)據(jù)集 20風(fēng)險(xiǎn)提示 21圖表目錄圖表1:紅框?yàn)榫W(wǎng)站頭條文章位置,為AI創(chuàng)作 3圖表2:官網(wǎng)展示應(yīng)用場(chǎng)景 4圖表3:AI生成的喬布斯訪談博客 4圖表4:《幻覺東京》AI重制版 5圖表5:內(nèi)容生成的四階段 5圖表6:AIGC發(fā)展歷程 6圖表7:自然語(yǔ)言理解三大發(fā)展階段 7圖表8:自然語(yǔ)言生成6步驟 7圖表9:微軟ApacheSpark功能 8圖表10:Transformer與其他神經(jīng)網(wǎng)絡(luò)英德翻譯質(zhì)量對(duì)比 9圖表11:Transformer與其他神經(jīng)網(wǎng)絡(luò)英法翻譯質(zhì)量對(duì)比 9圖表12:Transformer模型結(jié)構(gòu) 9圖表13:GAN的兩個(gè)組成 10圖表14:GAN架構(gòu) 10圖表15:DALL-E2可以根據(jù)文字描述生成圖片 11圖表16:擴(kuò)散模型訓(xùn)練原理 12圖表17:擴(kuò)散模型與其他模型比較 12圖表18:正態(tài)分布函數(shù)疊加 13圖表19:DALL-E2工作過程舉例 13圖表20:Jasper的應(yīng)用場(chǎng)景 14圖表21:通過AIGC撰寫的AIGC報(bào)告 15圖表22:通過AIGC生成的圖片 15圖表23:MidJourney用戶案例 16圖表24:Phenaki2分鐘視頻生成案例 17圖表25:Delysium中的虛擬人玩家 18圖表26:GitHubCopilot 18圖表27:AIGC生成的圖片在細(xì)節(jié)上效果較差 19圖表28:AIGC投資標(biāo)的 211.2022:AIGC崛起之年VCAIAI923AIAIGC(AI-GeneratedContent202210StabilityAI1.01達(dá)10億美元,躋身獨(dú)角獸行列,由Coatue、LightspeedPartners和O'ShaughnessyVenturesLLCStabilityAIStableDiffusionStableDiffusionAIAIGCAI配AI圖表1:紅框?yàn)榫W(wǎng)站頭條文章位置,為AI創(chuàng)作資料來(lái)源:巴比特官網(wǎng),國(guó)盛證券研究所除了繪畫以外,文字、音頻、視頻均可通過AI來(lái)生成。JasperAIInstagram2021700004000202220221113日P.PAGEP.PAGE10圖表2:官網(wǎng)展示應(yīng)用場(chǎng)景資料來(lái)源:Jasper,國(guó)盛證券研究所3:AI
Podcast.aiAI的語(yǔ)JoeRogan資料來(lái)源:Podcast.ai官網(wǎng),國(guó)盛證券研究所AI1603AIAIGC基于AIGC圖表4:《幻覺東京》AI重制版資料來(lái)源:公開資料,國(guó)盛證券研究所NLP(NaturalLanguageProcessing)(DiffusionAdversarialNetwork)GANAIGC是什么?AIGC1.02.0PGCUGCInstagramB的內(nèi)容來(lái)自于UGC圖表5:內(nèi)容生成的四階段資料來(lái)源:A16Z,國(guó)盛證券研究所AIGCAIAIGC發(fā)展簡(jiǎn)史AIGC的發(fā)展可以大致分為以下三個(gè)階段:2050年代—90AIGC902110106:AIGC
近年來(lái),AIGC的發(fā)展迅速,從原來(lái)作為邊緣側(cè)服務(wù)于企業(yè)、機(jī)構(gòu)的角色變?yōu)榱爽F(xiàn)在段
1950年,圖靈提出著名的“圖靈測(cè)試”,給出判斷機(jī)器是否具有”智能“的實(shí)驗(yàn)方法1957年,第一支由計(jì)算機(jī)創(chuàng)作的弦樂四重奏《依利亞克組曲》完成1966年,世界第一款可人機(jī)對(duì)話的機(jī)器人Eliza問世80年代中期,IBM創(chuàng)造語(yǔ)音控制打字機(jī)段2007年,世界第一部完全由人工智能創(chuàng)作的小說(shuō)《1theroad》問世2012年,微軟展示全自動(dòng)同傳系統(tǒng)段2014年,IanJGoodfellow提出生成對(duì)抗網(wǎng)絡(luò)GAN2017年,微軟“小冰”推出世界首部100%由人工智能創(chuàng)作的詩(shī)集《陽(yáng)光失了玻璃窗》2018年,英偉達(dá)發(fā)布StyleGan模型可自動(dòng)生成高質(zhì)量圖片2018年,人工智能生成畫作在佳士得以43.25萬(wàn)美成交,成為首個(gè)出售的人工智能藝術(shù)品2019年,DeepMind發(fā)布DVD-GAN模型用以生成連續(xù)視頻2021年,OpenAI推出DALL-E,主要應(yīng)用于文本與圖像交互生成內(nèi)容資料來(lái)源:《AIGC白皮書》,國(guó)盛證券研究所技術(shù)隨著NLP(NaturalLanguageProcessing,自然語(yǔ)言處理)技術(shù)和擴(kuò)散模型(DiffusionModel)的發(fā)展,AI不再僅作為內(nèi)容創(chuàng)造的輔助工具,創(chuàng)造生成內(nèi)容成為了可能。自然語(yǔ)言處理技術(shù)NLP自然語(yǔ)言處理最早可以追溯到1950年,圖靈發(fā)表論文“計(jì)算機(jī)器與智能”,提出“圖靈測(cè)試”的概念作為判斷智能的條件。這一測(cè)試包含了自動(dòng)語(yǔ)意翻譯和自然語(yǔ)言生成。自然語(yǔ)言處理技術(shù)可以分為兩個(gè)核心任務(wù):自然語(yǔ)言理解NLU計(jì)算機(jī)在理解上有很多難點(diǎn),所以NLU3786
自然語(yǔ)言生成GNLG到現(xiàn)在的高級(jí)NLG內(nèi)容確定文本結(jié)構(gòu)內(nèi)容確定文本結(jié)構(gòu)句子聚合語(yǔ)法化參考表達(dá)式生成語(yǔ)言實(shí)現(xiàn)子。參考表達(dá)式生成需要識(shí)別出內(nèi)容的領(lǐng)域,然后使用該領(lǐng)域(而不是其他領(lǐng)域)的詞匯。NLG最終傳達(dá)的信息要多。NLP主要被應(yīng)用在四個(gè)方面:youtubenetflix圖表9:微軟ApacheSpark功能資料來(lái)源:微軟官網(wǎng),國(guó)盛證券研究所商業(yè)上,NLP主要被應(yīng)用在一下領(lǐng)域:文字處理工作,如:名稱實(shí)體辨識(shí)(NER)、分類、摘要和關(guān)聯(lián)擷取。AI(RNN)NLP年由Google(LSTM)RNNGPTCommonCrawl圖表10:Transformer與其神網(wǎng)絡(luò)英翻譯量對(duì)比 圖表11:Transformer與其神網(wǎng)絡(luò)英翻譯量對(duì)比資料來(lái):GoogleResearch,盛證券究所 資料來(lái):GoogleResearch,盛證券究所NLPRNN不必像RNN圖表12:Transformer模型結(jié)構(gòu)資料來(lái)源:GoogleResearch,國(guó)盛證券研究所AIGC生成模型近年來(lái),AIGC的快速發(fā)展歸功于生成算法領(lǐng)域的技術(shù)積累,其中包含了:生成對(duì)抗網(wǎng)絡(luò)(DiffusionModel)AIGC生成對(duì)抗網(wǎng)絡(luò)GAN(GenerativeAdversarialNetworks)2014J.Goodfellow圖表13:GAN的兩個(gè)組成資料來(lái)源:EasyAi,國(guó)盛證券研究所GAN圖表14:GAN架構(gòu)資料來(lái)源:公開資料,國(guó)盛證券研究所其優(yōu)點(diǎn)在于:缺點(diǎn):(ModeCollapse)GANs擴(kuò)散模型DiffusionModel擴(kuò)散模型是一種新型的生成模型,可生成各種高分辨率圖像。在OpenAI,NvidiaGoogle圖表15:DALL-E2可以根據(jù)文字描述生成圖片資料來(lái)源:OpenAI官網(wǎng),國(guó)盛證券研究所擴(kuò)散模型的生成邏輯相比其他的模型更接近人的思維模式,也是為什么近期AIGC擁有了開放性的創(chuàng)造力。本質(zhì)上,擴(kuò)散模型的工作原理是通過連續(xù)添加高斯噪聲來(lái)破壞訓(xùn)練數(shù)據(jù),然后通過反轉(zhuǎn)這個(gè)噪聲過程來(lái)學(xué)習(xí)恢復(fù)數(shù)據(jù)。訓(xùn)練后,我們可以通過簡(jiǎn)單地將隨機(jī)采樣的噪聲傳遞給學(xué)習(xí)的去噪過程來(lái)生成數(shù)據(jù)。(latentvariable)q(????|?????1)??1……??????0??0????????(?????1|????)圖表16:擴(kuò)散模型訓(xùn)練原理資料來(lái)源:AssemblyAI,國(guó)盛證券研究所相比于其他模型,擴(kuò)散模型的優(yōu)勢(shì)在于生成的圖像質(zhì)量更高,且無(wú)需通過對(duì)抗性訓(xùn)練,這使得其訓(xùn)練的效率有所提升。同時(shí),擴(kuò)散模型還具有可擴(kuò)展性和并行性。圖表17:擴(kuò)散模型與其他模型比較資料來(lái)源:Github”whatarediffusionmodels?”,國(guó)盛證券研究所高斯噪聲是一種概率密度函數(shù)符合正態(tài)分布的函數(shù),當(dāng)AIGC運(yùn)用擴(kuò)散模型來(lái)生成內(nèi)容的時(shí)候,是通過在一副純白的畫布(隨機(jī)白噪聲)上逐步去噪來(lái)生成最終的目標(biāo)畫作。即用戶給出的文本描述形容詞,來(lái)從一個(gè)模糊的概念逐步具象。我們可以簡(jiǎn)化為多個(gè)正態(tài)分布函數(shù)的疊加,模型選擇其中重疊的區(qū)間輸出,這也是一個(gè)逐步縮小范圍的過程。這與人類的思維模式很類似。AIAI在柯基身上。圖表18:正態(tài)分布函數(shù)疊加資料來(lái)源:Wikipedia,國(guó)盛證券研究所簡(jiǎn)述完原理以后,我們可以通過目前非常先進(jìn)的AI圖像生成應(yīng)用DALL-E2來(lái)舉例闡述具體的工作過程:(Prior)OpenAI的Clip4-AIGC圖表19:DALL-E2工作過程舉例資料來(lái)源:AssemblyAI,國(guó)盛證券研究所除了上述提到的自然語(yǔ)言處理技術(shù)和AIGC生成算法模型以外,超級(jí)計(jì)算機(jī)和算力這些硬件作為基礎(chǔ)設(shè)施也是不可或缺的。在機(jī)器學(xué)習(xí)的過程中,需要通過大量的訓(xùn)練來(lái)實(shí)現(xiàn)更準(zhǔn)確的結(jié)果,這樣的計(jì)算量普通的電腦是無(wú)法完成的,目前主要由英偉達(dá)A100構(gòu)建的計(jì)算集群完成,而國(guó)內(nèi)外的初創(chuàng)企業(yè)也會(huì)通過云實(shí)現(xiàn)。AIGC——商業(yè)模式的探索AIGCAIGCAIGC服務(wù)SaaS文字創(chuàng)作20:Jasper
AIGCJasper1.25億美15Jasper2021AIAIJasperJasperJasper7Airbnb、Ibm202140009000資料來(lái)源:Jasper,國(guó)盛證券研究所AIGCAIGCJasper很快就生成了一篇AIGCAIGCJasperAPP圖表21:通過AIGC撰寫的AIGC報(bào)告資料來(lái)源:Jasper,國(guó)盛證券研究所圖像創(chuàng)作22AIGC
MidJourneyNLP()AIAIGC創(chuàng)資料來(lái)源:MidJourneyBot和無(wú)界版圖,國(guó)盛證券研究所近期,OpenAI已經(jīng)與全球最大的版權(quán)圖片供應(yīng)商之一的Shutterstock達(dá)成深度合作,Shutterstock將開始出售利用OpenAI的DALL-E生成的圖片,并禁止銷售非DALL-E生成的圖片,完成深度獨(dú)家綁定。AIGC圖表23:MidJourney用戶案例資料來(lái)源:MidJourney,國(guó)盛證券研究所視頻創(chuàng)作Google推出了AIDEMOImagen基ImagenVideoPhenakiAIGC24:Phenaki2音頻剪輯AIGC游戲開發(fā)AIGCAIGC來(lái)創(chuàng)建場(chǎng)景和NPCAIGCDelysium202220221113日?qǐng)D表25:Delysium中的虛擬人玩家資料來(lái)源:Delysium,國(guó)盛證券研究所代碼生成GitHubCopilot是一個(gè)GitHub和OpenAIAI或者正在編輯的代碼上下文為開發(fā)者提供代碼建議。官方介紹其已經(jīng)接受了來(lái)自GitHub圖表26:GitHubCopilot資料來(lái)源:GitHub,國(guó)盛證券研究所AIGC的未來(lái)發(fā)展趨勢(shì)AIGC是PGC、UGC之后,全新的內(nèi)容生產(chǎn)方式。不僅能提升內(nèi)容生產(chǎn)的效率以滿足我們飛速增長(zhǎng)的內(nèi)容需求,也能夠豐富內(nèi)容的多樣性。在2022年百度世界大會(huì)上,李彥宏提到了:“AIGC將走過三個(gè)發(fā)展階段:第一個(gè)階段是“助手階段”,AIGC用來(lái)輔助AIGCAI面臨的挑戰(zhàn)下圖是筆者通過AIGC生成的一副“美女與布偶貓”的圖片,從這一張圖片我們可以發(fā)現(xiàn)有兩個(gè)問題:AIGC圖表27:AIGC生成的圖片在細(xì)節(jié)上效果較差資料來(lái)源:MidJourney,國(guó)盛證券研究所那么造成以上的這些問題和差距的原因在哪里呢?
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 湖北中醫(yī)藥大學(xué)《預(yù)防醫(yī)學(xué)綜合設(shè)計(jì)》2023-2024學(xué)年第二學(xué)期期末試卷
- 2025年重慶市安全員《A證》考試題庫(kù)
- 成都工業(yè)學(xué)院《數(shù)字電視節(jié)目編導(dǎo)與制作》2023-2024學(xué)年第二學(xué)期期末試卷
- 西寧城市職業(yè)技術(shù)學(xué)院《城市傳播》2023-2024學(xué)年第二學(xué)期期末試卷
- 上海交通大學(xué)《單片機(jī)原理及其應(yīng)用》2023-2024學(xué)年第二學(xué)期期末試卷
- 內(nèi)蒙古大學(xué)《材料化學(xué)與物理》2023-2024學(xué)年第二學(xué)期期末試卷
- 西安海棠職業(yè)學(xué)院《風(fēng)景園林制圖》2023-2024學(xué)年第二學(xué)期期末試卷
- 襄陽(yáng)職業(yè)技術(shù)學(xué)院《設(shè)計(jì)基礎(chǔ)(1)》2023-2024學(xué)年第二學(xué)期期末試卷
- 河南藝術(shù)職業(yè)學(xué)院《形體基訓(xùn)》2023-2024學(xué)年第二學(xué)期期末試卷
- 隴南師范高等??茖W(xué)?!渡锇踩c實(shí)驗(yàn)室安全》2023-2024學(xué)年第二學(xué)期期末試卷
- HG∕T 3792-2014 交聯(lián)型氟樹脂涂料
- 中國(guó)大豆加工發(fā)展現(xiàn)狀簡(jiǎn)析
- 2024年海南省高考物理試卷(含答案)
- GJB5765-2006 軍用機(jī)場(chǎng)場(chǎng)道工程質(zhì)量評(píng)定標(biāo)準(zhǔn)
- JJG 705-2014液相色譜儀行業(yè)標(biāo)準(zhǔn)
- 公司合作計(jì)劃書
- 2016-2023年南京信息職業(yè)技術(shù)學(xué)院高職單招(英語(yǔ)/數(shù)學(xué)/語(yǔ)文)筆試歷年參考題庫(kù)含答案解析
- 跨領(lǐng)域聯(lián)合診療(MDT)管理法規(guī)
- 光伏電站運(yùn)維安全風(fēng)險(xiǎn)管控清單
- 保安員考核評(píng)分標(biāo)準(zhǔn)與細(xì)則
- 四年級(jí)豎式計(jì)算大全100道
評(píng)論
0/150
提交評(píng)論