2024 AIGC視頻生成:走向AI創(chuàng)生時(shí)代_第1頁
2024 AIGC視頻生成:走向AI創(chuàng)生時(shí)代_第2頁
2024 AIGC視頻生成:走向AI創(chuàng)生時(shí)代_第3頁
2024 AIGC視頻生成:走向AI創(chuàng)生時(shí)代_第4頁
2024 AIGC視頻生成:走向AI創(chuàng)生時(shí)代_第5頁
已閱讀5頁,還剩92頁未讀 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

出品機(jī)構(gòu):甲子光年智庫研究團(tuán)隊(duì):張一甲、宋濤發(fā)布時(shí)間:2024.03*劉瑤、小麥對(duì)本報(bào)告亦有貢獻(xiàn)。數(shù)學(xué)家想反抗上帝;Part02Part02AIGC視頻生成推動(dòng)世界走向“AI創(chuàng)生時(shí)代” 33OpenAI發(fā)布文生視頻模型Sora,堪稱視頻生成領(lǐng)域的“GPT-3”時(shí)刻“Sora”一詞在微信指數(shù)及百度指數(shù)的關(guān)注度快速上升2月16日微信指數(shù)快速上升百度關(guān)鍵詞搜索趨勢(shì)處于高位“Sora”一詞在微信指數(shù)及百度指數(shù)的關(guān)注度快速上升2月16日微信指數(shù)快速上升百度關(guān)鍵詞搜索趨勢(shì)處于高位效果逼真:普通人一時(shí)難以分辨效果逼真:普通人一時(shí)難以分辨 www.jazzyear.com4模型Gen-2pika1.0StableVideoDiffusionEmuVideoW.A.L.T李飛飛及其學(xué)生團(tuán)模型Gen-2pika1.0StableVideoDiffusionEmuVideoW.A.L.T李飛飛及其學(xué)生團(tuán)Sora的語言理解能力更強(qiáng),可將簡(jiǎn)短的用戶提示轉(zhuǎn)換為更長的詳細(xì)描述Sora還可以生成圖片,最高可達(dá)到2048*2048分辨率Sora通過插幀技術(shù),實(shí)現(xiàn)完全不同主題和場(chǎng)景構(gòu)圖的視頻之間的流暢自然的過渡效果Sora可生成具有動(dòng)態(tài)攝像機(jī)運(yùn)動(dòng)效果的視頻,隨著攝像機(jī)的移動(dòng)和旋轉(zhuǎn),人和場(chǎng)景元素在三維空間中保持一致移動(dòng)Sora可以對(duì)短期和長期依賴關(guān)系進(jìn)行建模,保持各個(gè)主體的時(shí)空連貫性和一致性Sora以簡(jiǎn)單的方式模擬影響世界狀態(tài)的行為,比如一個(gè)人吃完漢堡可以在上面留下咬痕Sora還能夠模擬人工過程,比如視頻游戲,同時(shí)通過基本策略控制玩家,同時(shí)以高保真度渲染世界及其動(dòng)態(tài)視頻時(shí)長60秒 20秒以內(nèi) 視頻長寬比1920*1080之間的任意尺寸固定尺寸比例,例如16:9,9:16,1:1等視頻清晰度1080p部分upscale后達(dá)到4k成語言理解能力強(qiáng)弱文本生成視頻支持支持強(qiáng)支持視頻生成視頻視頻生成視頻支持支持文本編輯視頻支持支持?jǐn)U展視頻向前/向后擴(kuò)展僅支持向后視頻的無縫連接 支持不支持強(qiáng)弱或不支持遠(yuǎn)程相干性和物體持久性強(qiáng)弱強(qiáng)弱數(shù)字世界模擬支持不支持www.jazzwww.jazzyear.com5大模型訓(xùn)練的“暴力美學(xué)”在視頻生成領(lǐng)域再次涌現(xiàn)卓越特性O(shè)penAI發(fā)現(xiàn)視頻模型在大規(guī)模訓(xùn)練時(shí)表現(xiàn)出許多有趣的“涌現(xiàn)”能力,使Sora能夠從物理世界中模擬人、動(dòng)物和環(huán)境。值得一提的是OpenAI官網(wǎng)所說的“theyarepu基于時(shí)空雙維度的視頻擴(kuò)展與世界互動(dòng):Sora有時(shí)可以用簡(jiǎn)單的方式模擬影響世界狀況的動(dòng)作畫家可以在畫布上留下新的筆觸,并隨著時(shí)間的推移而持續(xù)存在。不同主題場(chǎng)景視頻的無縫一鍵進(jìn)行風(fēng)格渲染例如,Sora可以同時(shí)通過基本策略控制《我的世界》中的玩家,同時(shí)以高保真度渲染世界及其動(dòng)態(tài)。模擬數(shù)字世界遠(yuǎn)程相關(guān)性和物體持久性基于時(shí)空雙維度的視頻擴(kuò)展與世界互動(dòng):Sora有時(shí)可以用簡(jiǎn)單的方式模擬影響世界狀況的動(dòng)作畫家可以在畫布上留下新的筆觸,并隨著時(shí)間的推移而持續(xù)存在。不同主題場(chǎng)景視頻的無縫一鍵進(jìn)行風(fēng)格渲染例如,Sora可以同時(shí)通過基本策略控制《我的世界》中的玩家,同時(shí)以高保真度渲染世界及其動(dòng)態(tài)。模擬數(shù)字世界遠(yuǎn)程相關(guān)性和物體持久性3D一致性:確保景別切換時(shí)運(yùn)鏡的連貫 13D一致性:確保景別切換時(shí)運(yùn)鏡的連貫 14343以上四個(gè)鏡頭由遠(yuǎn)及近,保證了視頻鏡頭中人和場(chǎng)景的一致性,是其他以上四個(gè)鏡頭由遠(yuǎn)及近,保證了視頻鏡頭中人和場(chǎng)景的一致性,是其他AI生成視頻中少見的。12123434以上四個(gè)鏡頭在同一視頻中生成,包括機(jī)器人的多個(gè)角度。以上四個(gè)鏡頭在同一視頻中生成,包括機(jī)器人的多個(gè)角度。www.jazzyear.com數(shù)據(jù)來源:公開資料,openAl技術(shù)文件,甲子光年整理,www.jazzyear.comScalinglaw(規(guī)模法則)的再次驗(yàn)證:雖然Sora并不十全十美,但它通過scalinglaw和原有模型拉開了差距,為視頻生成領(lǐng)域提供了另一條可文生視頻的“GPT-3”時(shí)刻:從發(fā)展階段類比,文生視頻的“GPT-3”時(shí)刻:從發(fā)展階段類比,Sora更像文本模型的GPT-3時(shí)刻。ChatGPT讓人類看到實(shí)現(xiàn)AGI的雛形,Sora讓實(shí)現(xiàn)AGI的目標(biāo)又進(jìn)一步。信息時(shí)代信能比AGI信能比>300<AI賦能生產(chǎn)力二次躍遷,開啟智能新世代第一代PC信能比>100農(nóng)業(yè)時(shí)代工業(yè)時(shí)代原始時(shí)代第一臺(tái)計(jì)算機(jī)…0宙線:時(shí)間 無窮小數(shù)字時(shí)代智能新世代信息時(shí)代信能比AGI信能比>300<AI賦能生產(chǎn)力二次躍遷,開啟智能新世代第一代PC信能比>100農(nóng)業(yè)時(shí)代工業(yè)時(shí)代原始時(shí)代第一臺(tái)計(jì)算機(jī)…0宙線:時(shí)間當(dāng)下推動(dòng)人類向AGI邁過又一個(gè)里程碑推動(dòng)人類向AGI邁過又一個(gè)里程碑推動(dòng)人類向AGI邁過第一個(gè)里程碑信能比,是甲子光年智庫發(fā)明的概念,反映單位能源所能駕馭的信息量。信能比通過單位時(shí)間內(nèi)產(chǎn)生/傳輸/使用/存儲(chǔ)的信息量除以單位時(shí)間內(nèi)所消耗的能信能比可以體現(xiàn)數(shù)據(jù)智能技術(shù)的先進(jìn)性和能源效率的高效性:它能夠反映整個(gè)社會(huì)數(shù)字化、智能化水平的高低;它能體現(xiàn)能源體系的可持續(xù)發(fā)展能力;它能反映生產(chǎn)力的高低和生產(chǎn)效率的提77歷史反復(fù)表明,一旦先行者模式驗(yàn)證,后來者整體的應(yīng)用進(jìn)程時(shí)間表將加快先行者往往要花費(fèi)大量時(shí)間精力試錯(cuò),一旦模式跑通,“明牌游戲”就開啟了。后來者會(huì)有更好的參考系和聚焦方向。ChatGPT后續(xù)的文本生成模型進(jìn)展就說過去一年,AI文本生成和圖像生成相繼走向成熟,Sora的發(fā)布意味著視頻生成應(yīng)用走對(duì)此,甲子光年智庫更新了生成式AI技術(shù)的成熟應(yīng)用進(jìn)程時(shí)間表。2024年可實(shí)現(xiàn)根據(jù)文本提示生成初版短視頻,2025年有望實(shí)現(xiàn)根據(jù)文本生成初版長視頻,并在視頻制作環(huán)節(jié)真實(shí)使用落地。大模型成熟難度:初級(jí)嘗試接近成熟成熟文本生成類51.9%圖像生成類科研文字生成類視頻生成類代碼生成類語音生成類多模態(tài)生成類37.6%文本領(lǐng)域32.4%代碼領(lǐng)域27.6%26.2%圖像領(lǐng)域22.4%視頻/3D/游戲領(lǐng)域17.1%領(lǐng)域類型2020年之前2020年2022年2023年2024年E2025年E2030年E文本生成類51.9%圖像生成類科研文字生成類視頻生成類代碼生成類語音生成類多模態(tài)生成類37.6%文本領(lǐng)域32.4%代碼領(lǐng)域27.6%26.2%圖像領(lǐng)域22.4%視頻/3D/游戲領(lǐng)域17.1%案8Sora的出現(xiàn)意味著視頻生成的DiT技術(shù)路線得到有力驗(yàn)證Sora的發(fā)布,對(duì)Transformer+DiffusionModel(DiT)路線進(jìn)行了成果矚目的驗(yàn)證。視頻生成技術(shù)路線在過去主要有兩條,一條是基于Transformer的路線,以Phenaki為代表,第二條是DiffusionModel(擴(kuò)散模型)路線,該路線在2023年是主流路線,誕生了Meta的Make-A-Video、英偉達(dá)的VideoLDM,RunwaySora的發(fā)布,對(duì)Transformer+DiffusionModel(DiT)路線進(jìn)行了成果矚目的驗(yàn)證。視頻分辨率生成視頻質(zhì)量Transformer+生成視頻質(zhì)量DiffusionModelDiffusionModelDiffusionModelTransformerGAN+VAETransformerGAN+VAETransfor擴(kuò)散模型路線Text2Video-Zero通義千問視頻大模型Text2Video-Zero通義千問視頻大模型VideoGPT最大生成時(shí)長(秒)代表產(chǎn)品:Text2Filter40VideoGPT最大生成時(shí)長(秒)代表產(chǎn)品:Text2Filter400305060030506070時(shí)間www.jazzyear.comSora模型將視頻壓縮到低維空間(latentspace并使用時(shí)空補(bǔ)丁(Spacetimelatentpatches)來表示視頻。這個(gè)過程類似于將文本轉(zhuǎn)換為Token表示,而視頻則轉(zhuǎn)換為patches表示。Sora模型主要在壓縮的低維空間進(jìn)行訓(xùn)練,并使用解碼器將低維空間映射回像素空間,以生成視頻。Sora使用了diffusion模型,給定輸入的噪聲塊+文本prompt,它被訓(xùn)練來預(yù)測(cè)原始的“干凈”分塊。Sora是diffusiontransformer,而transformer在各個(gè)領(lǐng)域都表現(xiàn)出顯著的規(guī)模效應(yīng)。-!CLIP-!CLIPZεRHWTdZTZTεRHWTdZ′εRHWTdDiffusionDiffusionTransformerBlockZZ2024年www.jazzyear.com2024年Sora模型的實(shí)施路徑可拆分為四個(gè)部分?Part1:使用文生圖模型(DALLE3)把文本和圖像對(duì)<text,image>聯(lián)系起來。?Part2:視頻數(shù)據(jù)切分為Patches,通過編碼器壓縮成低維空間表示,解決了時(shí)間和空間兩個(gè)維度的注意力交互(patch化是訓(xùn)練生成式模型的一個(gè)非常scalable和高效的圖?Part3:DiffusionTransformer。?DenoisingDiffusionProbabilisticModels(DDPMs):通過逐步添加噪?LatentDiffusionModels(LDMs):使用變分自編碼器將圖像壓縮到低維表示,然后在低維空間中訓(xùn)練DDPM?Part4:DiT生成的低維空間表示,可通過解碼器恢復(fù)成像素級(jí)的視頻數(shù)據(jù)。GPT-4CLIP!GPT-4CLIP!ZεRHWTZεRHWTdZZZ′εRHWTdZTεRHWTdDiffusionDiffusionTransformerBlock2024年www.jazzyear.com2024年Sora仍存在三大方面局限性,會(huì)短期制約其商業(yè)化、規(guī)模化應(yīng)用技術(shù)局限性數(shù)據(jù)合規(guī)性可能涉及到他人的隱私信息,例如在視頻中出現(xiàn)的人物、場(chǎng)景或個(gè)人數(shù)據(jù)等。未經(jīng)授權(quán)或未經(jīng)允許的情況下,生成和傳播涉及他人隱私的虛假視頻可能導(dǎo)致隱私泄露問題。版權(quán)風(fēng)險(xiǎn)生成的視頻內(nèi)容可能涉及到他人的知識(shí)產(chǎn)權(quán)/版權(quán),如果未經(jīng)授權(quán)使用他人的作品或內(nèi)容進(jìn)行生成,就可能涉嫌侵犯他人的版權(quán)技術(shù)局限性數(shù)據(jù)合規(guī)性可能涉及到他人的隱私信息,例如在視頻中出現(xiàn)的人物、場(chǎng)景或個(gè)人數(shù)據(jù)等。未經(jīng)授權(quán)或未經(jīng)允許的情況下,生成和傳播涉及他人隱私的虛假視頻可能導(dǎo)致隱私泄露問題。版權(quán)風(fēng)險(xiǎn)生成的視頻內(nèi)容可能涉及到他人的知識(shí)產(chǎn)權(quán)/版權(quán),如果未經(jīng)授權(quán)使用他人的作品或內(nèi)容進(jìn)行生成,就可能涉嫌侵犯他人的版權(quán)AI安全問題可能導(dǎo)致深度偽造視頻的增加,即利用技術(shù)手段在視頻中替換現(xiàn)實(shí)中的人物或場(chǎng)景,使得偽造的視頻無法通社會(huì)帶來信任危機(jī)和安全隱患。確保Sora的輸出始終安全且公正是一項(xiàng)主要挑戰(zhàn)。經(jīng)濟(jì)賬與成本問題OpenAI自從推出文本生成大模型再到推出視頻生成大模型,一直沒有解決商業(yè)化問題,大模型的訓(xùn)練需要較高成本投入,如何算好經(jīng)濟(jì)賬是影響規(guī)?;瘧?yīng)用的前提。需要依賴高質(zhì)量、大規(guī)模的視頻數(shù)據(jù)Sora的訓(xùn)練路徑需要依賴龐大規(guī)模的視頻數(shù)據(jù),并需要較高的數(shù)據(jù)標(biāo)注、合成能力,后期的迭代升級(jí)會(huì)受到底層訓(xùn)練數(shù)據(jù)的影響與限制。算力瓶頸問題Sora視頻模型的訓(xùn)練需要很高的算力支撐,如何平衡算力、成本、能源消耗等關(guān)系是值得關(guān)注的制動(dòng)因素,也將是影響Sora大規(guī)模商業(yè)化運(yùn)營的瓶頸。倫理合規(guī)性物理現(xiàn)實(shí)主義的挑戰(zhàn)Sora對(duì)復(fù)雜場(chǎng)景中物理原理的處理不一致,導(dǎo)致果關(guān)系,偶爾會(huì)偏離物理合理性。例如物體的不自然變換雜的動(dòng)作或捕捉微妙的面部表情是模型可以增強(qiáng)的領(lǐng)域。以導(dǎo)致Sora現(xiàn)階段更擅長幽默的結(jié)果而非嚴(yán)肅的內(nèi)容。Sora生成的視頻中可能會(huì)出現(xiàn)物體無緣無故消失或出現(xiàn),Sora有時(shí)會(huì)誤解給定提示中與物體的放置或排列可能會(huì)導(dǎo)致預(yù)期時(shí)間流發(fā)生偏差,影響生成內(nèi)容的可靠性和連貫人機(jī)交互的限制Sora生成視頻的隨機(jī)性很強(qiáng),類似人類的“做夢(mèng)”,用戶可能很難精確指定或調(diào)整視頻中特定元素的呈現(xiàn),這限制了Sora在視頻編輯和增強(qiáng)方面的潛力,也讓Sora在長視www.jazzyear.comwww.jazzyear.com視頻生成處于用戶滿意但不推薦象限,說明現(xiàn)有視頻生成工具雖然驚艷,但尚無法支持實(shí)際工作用戶對(duì)AIGC產(chǎn)品不同應(yīng)用場(chǎng)景的滿意度與NPS值.搜索引擎.搜索引擎挑戰(zhàn)者領(lǐng)導(dǎo)者新勢(shì)力先行者55數(shù)據(jù)來源:甲子光年智庫,N=476,2023年問卷調(diào)研;www.jazzyear.comSora被OpenAI定義為“世界模擬器”,由此引發(fā)了世界模型的實(shí)施路線之爭(zhēng)反方:僅根據(jù)文字提示生成逼真的視頻,并不代表模正方:OpenAI把它定義為一個(gè)“世界模擬器”O(jiān)penAI表示:“Sora是能夠理解和模擬現(xiàn)實(shí)世界模型的基礎(chǔ),我們相信這種能力將成為實(shí)現(xiàn)AGI的重要里程碑?!庇ミ_(dá)高級(jí)研究科學(xué)家JimFan更是直接斷言:“Sora是一個(gè)數(shù)據(jù)驅(qū)動(dòng)的物理引擎,是一個(gè)可學(xué)習(xí)的模擬器,或世界模型。”YannLeCun,圖靈獎(jiǎng)獲得者和Meta首席科學(xué)家,最近表達(dá)了對(duì)Sora的生成式技術(shù)路線的質(zhì)疑,并指出該路線可能面臨失敗的風(fēng)險(xiǎn)。反方:僅根據(jù)文字提示生成逼真的視頻,并不代表模正方:OpenAI把它定義為一個(gè)“世界模擬器”O(jiān)penAI表示:“Sora是能夠理解和模擬現(xiàn)實(shí)世界模型的基礎(chǔ),我們相信這種能力將成為實(shí)現(xiàn)AGI的重要里程碑。”英偉達(dá)高級(jí)研究科學(xué)家JimFan更是直接斷言:“Sora是一個(gè)數(shù)據(jù)驅(qū)動(dòng)的物理引擎,是一個(gè)可學(xué)習(xí)的模擬器,或世界模型?!盰annLeCun,圖靈獎(jiǎng)獲得者和Meta首席科學(xué)家,最近表達(dá)了對(duì)Sora的生成式技術(shù)路線的質(zhì)疑,并指出該路線可能面臨失敗的風(fēng)險(xiǎn)。解物理世界。他指出生成視頻的過程與基于世界模型的因果預(yù)測(cè)完全不同。認(rèn)為這種方法是浪費(fèi),就像被廣泛拋棄的“通過合成來分析”的想有有限數(shù)量的符號(hào)。在這種情況下,處理預(yù)測(cè)中的不確定性相對(duì)容易。而在處理高維連續(xù)的感覺輸入時(shí),基本上不可能處理預(yù)測(cè)的不確定性,這也是為什么針對(duì)感覺輸入的生成模型注定會(huì)失敗的原因。OpenAI是自回歸生成式路線(Auto-regressivemodels),遵循“大數(shù)據(jù)、大模型、大算力”的暴力美學(xué)路線。從ChatGPT到Sora,都是這一思路的代表性產(chǎn)物。ArtificialIntuition的作者沒有真正學(xué)會(huì)物理規(guī)律,只是表面上看起來像學(xué)會(huì)了,就像知名AI學(xué)者、MetaAI研究科學(xué)家田淵棟也表示,關(guān)于Sora什么像“預(yù)測(cè)下一個(gè)token”或“重建”這樣簡(jiǎn)單的思路會(huì)產(chǎn)持有類似觀點(diǎn)。他認(rèn)為僅僅通過讓AI觀看視頻是無法完全學(xué)習(xí)到世界模型的。盡管像Sora這樣的視頻生成模型確實(shí)融入了物理模型,問題在于這些模型的準(zhǔn)確性及其泛化能力——即它們是否能夠適應(yīng)新的、非訓(xùn)練數(shù)據(jù)插值的OpenAI把Scale作為核心價(jià)值觀之一:我們相信規(guī)?!谖覀兊哪P汀⑾到y(tǒng)、自身、過程以及抱負(fù)中——具有魔力。當(dāng)有疑問時(shí),就擴(kuò)大規(guī)模。2024年;數(shù)據(jù)來源:www.jazzyear.com2024年;數(shù)據(jù)來源:Part02AIGC視頻生成推動(dòng)世界走向“Part02AIGC視頻生成推動(dòng)世界走向“AI創(chuàng)生時(shí)代” AIGC視頻生成開啟AI創(chuàng)生時(shí)代,重塑視頻產(chǎn)業(yè)鏈僅僅是第一步L1:AI生產(chǎn)時(shí)代/AI工業(yè)時(shí)代。AIGC引發(fā)內(nèi)容相關(guān)產(chǎn)業(yè)的生產(chǎn)力變革,視頻產(chǎn)業(yè)將是首先被重塑的領(lǐng)域,AI驅(qū)動(dòng)內(nèi)容領(lǐng)域迎來“工業(yè)革命”,大幅提升內(nèi)容生產(chǎn)效率,L2:AI原生時(shí)代。AIGC將進(jìn)一步引發(fā)生產(chǎn)關(guān)系變革,引發(fā)角色與分工的變遷。視頻成為人類信息表達(dá)的第二語言,人類語言將告別“詞不達(dá)意”階段,重塑人、內(nèi)容、機(jī)器與交互關(guān)系。在這一階段,AI滲透率將無限逼近人類在數(shù)字世界的生產(chǎn)活動(dòng)行為邊界——人在數(shù)字世界可以L3:AI創(chuàng)生時(shí)代。AI與物理世界進(jìn)一步融合,逐漸滲透逼近人在物理世界的生產(chǎn)活動(dòng)行為邊界。從AIforscience到生產(chǎn)制造,從人形機(jī)器人到世界模型,AI將逐漸突破人類為主語的創(chuàng)造范疇,世界模型將創(chuàng)造人類智慧之外的“第二智慧體系”。L4:AI文明時(shí)代。AI推動(dòng)人類認(rèn)知重塑,開啟AI文藝復(fù)興。AI會(huì)深度參與人類的物理世界和心靈世界,人類智慧與AI將互相影響、共同進(jìn)化,人類文明進(jìn)入“雙生時(shí)代”技術(shù)成雙生文明熟終極度第二智慧體系?第二語言術(shù)成雙生文明熟終極度第二智慧體系?第二語言——L1:AI生產(chǎn)時(shí)代L2:AI原生 2.2L1-AI生產(chǎn)時(shí)代:“拍扁”視頻制作鏈條,開啟“提示交互式”新范式基于AIGC視頻生成工具的提示交互式視頻制作范式將重塑傳統(tǒng)視頻制作流程AIGC視頻生成工具可對(duì)視頻生產(chǎn)流程進(jìn)行重塑?“拍扁”制作過程:傳統(tǒng)視頻制作流程涉及多個(gè)階段和專業(yè)團(tuán)隊(duì)的合作,耗費(fèi)大量時(shí)間和資源;而AIGC視頻生成可將視頻生成、剪輯、后期等環(huán)節(jié)集于一體,僅需要輸入提示詞即可生成視頻,省去了很多繁瑣步驟,尤其可將攝影、素?提升創(chuàng)意和剪輯自由度:傳統(tǒng)視頻制作通常由制作團(tuán)隊(duì)提出創(chuàng)意、編寫劇本,受人的能力局限;提示交互式視頻生成用更可視化的方式激發(fā)創(chuàng)作者想象力,支持創(chuàng)作者調(diào)用AI模型探索傳統(tǒng)視頻制作執(zhí)行流程?節(jié)省制作成本和時(shí)間:傳統(tǒng)視頻制作流程需要投入較多的人力、物力和時(shí)間,而提示交互式視頻生成的流程成本和時(shí)間較少,可在提示交互的飛輪中迭代生成最終滿足需要的內(nèi)容。傳統(tǒng)視頻制作執(zhí)行流程基于AIGC工具的提示交互式視頻生成制作流程基于AIGC工具的提示交互式視頻生成制作流程15用戶提示1 籌備 策劃?制定視頻內(nèi)容的概念和主題。編寫劇本或提綱,規(guī)劃視頻的情節(jié)和內(nèi)容。確定目標(biāo)受眾和傳達(dá)的信息。確定拍攝地點(diǎn)、演員、道具等資源。制定拍攝計(jì)劃和時(shí)間表。準(zhǔn)備拍攝設(shè)備和技術(shù)團(tuán)隊(duì)。最終生成?15用戶提示1 籌備 策劃?制定視頻內(nèi)容的概念和主題。編寫劇本或提綱,規(guī)劃視頻的情節(jié)和內(nèi)容。確定目標(biāo)受眾和傳達(dá)的信息。確定拍攝地點(diǎn)、演員、道具等資源。制定拍攝計(jì)劃和時(shí)間表。準(zhǔn)備拍攝設(shè)備和技術(shù)團(tuán)隊(duì)。最終生成?用戶提供關(guān)于期望視頻內(nèi)容的提示詞或描述性 ?生成滿足用戶要求的最終視頻內(nèi)容。 4?視頻剪輯和編輯。?添加音效、音樂、特效等元素。 后期?調(diào)整畫面色調(diào)、字幕等。?最終呈現(xiàn)和渲染視頻。32?4戶反饋進(jìn)行調(diào)整,并重新生成視頻32?4戶反饋進(jìn)行調(diào)整,并重新生成視頻提出修改或調(diào)?模型生成視頻內(nèi)容,包括用戶對(duì)生成的www.jazzyear.comwww.jazzyear.com伴隨開源模型的出現(xiàn),AI視頻生成將迎來多元化的入局者徐圖智能氏runway文生視頻領(lǐng)域迫切需要如LLama2的模型,AI+視頻創(chuàng)業(yè)公司以生成式AI技術(shù)為底色,已經(jīng)完成部分技術(shù)積累徐圖智能氏runway文生視頻領(lǐng)域迫切需要如LLama2的模型,AI+視頻創(chuàng)業(yè)公司以生成式AI技術(shù)為底色,已經(jīng)完成部分技術(shù)積累非開源相關(guān)賽道企業(yè)若想具備先發(fā)優(yōu)勢(shì),要么技術(shù)更強(qiáng),建立技術(shù)壁壘,要么產(chǎn)品對(duì)用戶需求的理解更深,建立用戶粘性和數(shù)據(jù)飛輪Sora雖未公測(cè),根據(jù)當(dāng)下的視頻效果,模型及對(duì)應(yīng)的技術(shù)路線與其他公司已經(jīng)拉開差距,但猜測(cè)其模型可能仿照ChatGPT,不提供開源模型非開源相關(guān)賽道企業(yè)若想具備先發(fā)優(yōu)勢(shì),要么技術(shù)更強(qiáng),建立技術(shù)壁壘,要么產(chǎn)品對(duì)用戶需求的理解更深,建立用戶粘性和數(shù)據(jù)飛輪Sora雖未公測(cè),根據(jù)當(dāng)下的視頻效果,模型及對(duì)應(yīng)的技術(shù)路線與其他公司已經(jīng)拉開差距,但猜測(cè)其模型可能仿照ChatGPT,不提供開源模型數(shù)字人本身可以完成部分視頻錄制,雖然暫且無端到端生成(文字直接生成視頻),但可以快速滿LUSTER凌云光對(duì)視頻,尤其是專業(yè)視頻(影視、廣告、動(dòng)畫或游戲具備充分的技術(shù)積累,產(chǎn)品豐富,平臺(tái)用戶量高全民視頻創(chuàng)作的浪潮正蓄勢(shì)而來,未來人人都會(huì)www.jazzyear.www.jazzyear.com2.3L2-AI原生時(shí)代:視頻用戶身份實(shí)現(xiàn)“三位一體”角色變遷:視頻用戶變?yōu)锳I原生居民,實(shí)現(xiàn)生產(chǎn)者、消費(fèi)者、擁有者“三位一體”越來越多視頻用戶將成為AI原生居民:他們同時(shí)是內(nèi)容生產(chǎn)者、消費(fèi)者和擁有者。個(gè)體在視頻內(nèi)容生產(chǎn)、消費(fèi)和擁有方面擁有更大的主動(dòng)權(quán)和自主性。這階段階段內(nèi)容生產(chǎn)形式?PGC?UGC?AIGC?AI原生居民【生產(chǎn)、消費(fèi)、擁有一體】?內(nèi)容消費(fèi)者角色轉(zhuǎn)換?初次內(nèi)容生產(chǎn)者?AI原生居民【生產(chǎn)、消費(fèi)、擁有一體】?內(nèi)容消費(fèi)者用戶核心環(huán)節(jié)演進(jìn)用戶用戶專業(yè)人工專業(yè)設(shè)備設(shè)備用戶AIGC視頻生產(chǎn)用戶專業(yè)人工專業(yè)設(shè)備設(shè)備用戶檢索精準(zhǔn)推送模糊推送主動(dòng)檢索制播一體檢索精準(zhǔn)推送模糊推送主動(dòng)檢索內(nèi)容專業(yè)內(nèi)容內(nèi)容無法自動(dòng)化平臺(tái)平臺(tái)無法自動(dòng)化平臺(tái)平臺(tái)www.jazzyear.com數(shù)據(jù)來源:www.jazzyear.com2.3L2-AI原生時(shí)代:視頻成為“第二語言”視頻成為人類的第二語言,人類語言告別“詞不達(dá)意”階段視頻具有連續(xù)性,視頻表達(dá)將不受限于“詞匯量”,比文字表達(dá)擁有更豐視頻將成為人類的第二語言,大量用戶會(huì)進(jìn)行行為遷移——原本用文字表達(dá)的場(chǎng)景,將用視頻直接表達(dá)。視頻具有連續(xù)性,視頻表達(dá)將不受限于“詞匯量”,比文字表達(dá)擁有更豐文本與視頻的無縫切換,讓人類語言告別“詞不達(dá)意階段>階段>古代媒體時(shí)代網(wǎng)絡(luò)時(shí)代數(shù)字時(shí)代AI原生時(shí)代視頻成為第二語言視頻成為第二語言素進(jìn)行交流表達(dá)的語言形式。牌匾視頻平臺(tái)元宇宙、虛擬世界投放渠道>媒體刊物互聯(lián)網(wǎng)牌匾視頻平臺(tái)元宇宙、虛擬世界投放渠道>媒體刊物互聯(lián)網(wǎng)交互變遷>離線離線在線,單向在線,雙向?qū)崟r(shí)、沉浸過視覺影像來表達(dá)信息,通過圖像、顏色、動(dòng)作交互變遷>離線離線在線,單向在線,雙向?qū)崟r(shí)、沉浸高門檻的內(nèi)容生產(chǎn)、消費(fèi)者高門檻的內(nèi)容生產(chǎn)、消費(fèi)者生產(chǎn)、消費(fèi)、擁有三位一體內(nèi)容生產(chǎn)者角色變遷>內(nèi)容消費(fèi)者高門檻的內(nèi)容生產(chǎn)、消費(fèi)者高門檻的內(nèi)容生產(chǎn)、消費(fèi)者生產(chǎn)、消費(fèi)、擁有三位一體內(nèi)容生產(chǎn)者角色變遷>內(nèi)容消費(fèi)者可交互、可編輯、可定制的視頻文字+圖片+廣告視頻內(nèi)容形態(tài)>文字文字+圖片視頻可交互、可編輯、可定制的視頻文字+圖片+廣告視頻內(nèi)容形態(tài)>文字文字+圖片視頻短視頻、動(dòng)畫等多種形式,適應(yīng)不同場(chǎng)景和需求。數(shù)字人與視頻生成大模型的結(jié)合,推動(dòng)數(shù)字人發(fā)展進(jìn)入L5級(jí)數(shù)字人與AIGC的結(jié)合一直是重要發(fā)展方向。在Sora出現(xiàn)之前,主要是數(shù)字人與文本生成模型(如GPT系列)的結(jié)合,生成虛擬角色的對(duì)AIGC視頻生成技術(shù)的發(fā)展將會(huì)推動(dòng)數(shù)字人進(jìn)入全新階段。數(shù)字人與視頻生成大模型(如Sora)的結(jié)合,提升了數(shù)字人的逼真度和互動(dòng)性,其應(yīng)用場(chǎng)景會(huì)進(jìn)一步拓寬,涵蓋虛擬演員、虛擬未來,數(shù)字人還會(huì)探索與多模態(tài)大模型的融合發(fā)展,繼續(xù)提升仿真度和互動(dòng)性、拓展應(yīng)用場(chǎng)景、“硅基生命”將加速到來,無限逼近人類在數(shù)字世界的生產(chǎn)活動(dòng)行為邊終極:硅基生命數(shù)字人可自主理解世界、形成關(guān)系互動(dòng)L4:Agent語音交互智能化,但在特定場(chǎng)合需要人工接管文本生成大模型終極:硅基生命數(shù)字人可自主理解世界、形成關(guān)系互動(dòng)L4:Agent語音交互智能化,但在特定場(chǎng)合需要人工接管文本生成大模型依賴算法驅(qū)動(dòng)肢體、姿態(tài)、口型、表情等L2:Chatbot依賴外部動(dòng)捕設(shè)備采集肢體、表情和口型信息主要依賴人工制作形象和動(dòng)畫效果智能化水平完全實(shí)現(xiàn)智能交互的數(shù)字人視頻生成大模型www.jazzyear.com數(shù)據(jù)來源:www.jazzyear.com應(yīng)用層與交互層在B端C端都將帶來無窮想象空間由于視頻和C端有天然的聯(lián)系,AIGC視頻生成技術(shù)的快速發(fā)展將推動(dòng)應(yīng)用層和交互層的快速發(fā)展。通過簡(jiǎn)單的操作用戶即因此,在傳統(tǒng)AI技術(shù)棧上,應(yīng)用層和交互層將誕生豐富的創(chuàng)新機(jī)會(huì),在B端和C端都迎來無窮的想象空間。應(yīng)用層政務(wù)泛娛樂虛擬辦公購物教培社交圖:AIGC視頻生成將加速元宇宙世界的內(nèi)容構(gòu)建應(yīng)用層政務(wù)泛娛樂虛擬辦公購物教培社交虛擬人虛擬活動(dòng)人形機(jī)器人工業(yè)制造備XR頭顯/眼鏡腦機(jī)接口備XR頭顯/眼鏡腦機(jī)接口備交互層觸控設(shè)備人機(jī)交互手勢(shì)識(shí)別及控制設(shè)備智能體交互層觸控設(shè)備人機(jī)交互手勢(shì)識(shí)別及控制設(shè)備智能體通用場(chǎng)景游戲社交數(shù)字支付平臺(tái)VR互動(dòng)平臺(tái)通用場(chǎng)景游戲社交數(shù)字支付平臺(tái)VR互動(dòng)平臺(tái)算法層算法層文本數(shù)據(jù)類公司視頻數(shù)據(jù)類公司類公司平臺(tái)層算力層文本數(shù)據(jù)類公司視頻數(shù)據(jù)類公司類公司平臺(tái)層算力層鏈共識(shí)機(jī)制智能合約鏈?zhǔn)酱鎯?chǔ)密碼學(xué)技術(shù)共識(shí)機(jī)制智能合約鏈?zhǔn)酱鎯?chǔ)密碼學(xué)技術(shù)www.jazzyearwww.jazzyear.com22視頻成為機(jī)器理解物理世界的主要媒介,推動(dòng)AI與物理世界進(jìn)一步融合人機(jī)交互進(jìn)入視頻語言時(shí)代。與傳統(tǒng)人機(jī)交互相比,視頻語言在信息表達(dá)形式、視頻等多模態(tài)傳遞信息為主的人機(jī)交互AIGC視頻生成與具身智能、工業(yè)視覺、工業(yè)元宇宙等方向的視頻等多模態(tài)傳遞信息為主的人機(jī)交互文本傳遞信息為主的人機(jī)交互文本具身智能人機(jī)器機(jī)器人人/機(jī)器文本具身智能人機(jī)器機(jī)器人人/機(jī)器圖片視覺數(shù)字物理世界圖片視覺數(shù)字物理世界文本視頻物理世界信息數(shù)字世界信息宙仿真視頻物理世界信息數(shù)字世界信息宙仿真多模態(tài)數(shù)字世界+物理世界多模態(tài)數(shù)字世界+物理世界交互語言:文字為主,傳統(tǒng)人機(jī)交互主要依賴于鍵盤、鼠標(biāo)、觸摸屏等輸入設(shè)備以及文字、圖像、聲音等輸出方式進(jìn)行交流。交互語言:聲音、動(dòng)作、表情、場(chǎng)景……都可以作為機(jī)器理解人的指令的輸入形式,再配以攝像頭等傳感器的機(jī)器將會(huì)主動(dòng)理解世界。交互語言:文字為主,傳統(tǒng)人機(jī)交互主要依賴于鍵盤、鼠標(biāo)、觸摸屏等輸入設(shè)備以及文字、圖像、聲音等輸出方式進(jìn)行交流。信息表達(dá):信息含量大且多樣化。視頻語言時(shí)代的人機(jī)交互更加豐富多樣,信息以視頻為載體,可以包含文字、圖像、聲音、動(dòng)作等多種元素,表達(dá)更加生動(dòng)和直觀。信息表達(dá):信息含量低。傳統(tǒng)人機(jī)交互以文字、圖像、聲音等為主要表信息表達(dá):信息含量大且多樣化。視頻語言時(shí)代的人機(jī)交互更加豐富多樣,信息以視頻為載體,可以包含文字、圖像、聲音、動(dòng)作等多種元素,表達(dá)更加生動(dòng)和直觀。感知能力:視頻語言時(shí)代的人機(jī)交互需要計(jì)算機(jī)具備更強(qiáng)的視頻感知和理解能力,能夠識(shí)別、理解和分析視頻中的內(nèi)容和情境。感知能力:傳統(tǒng)人機(jī)交互主要依賴于計(jì)算機(jī)對(duì)文字、圖像、聲音等信息的理解和處理能力。感知能力:視頻語言時(shí)代的人機(jī)交互需要計(jì)算機(jī)具備更強(qiáng)的視頻感知和理解能力,能夠識(shí)別、理解和分析視頻中的內(nèi)容和情境。交互體驗(yàn):實(shí)時(shí)、沉浸式交互。視頻語言時(shí)代的人機(jī)交互更加動(dòng)態(tài)和生動(dòng),用戶可以通過拍攝、錄制視頻、實(shí)時(shí)互動(dòng)來與計(jì)算機(jī)進(jìn)行交互,交互過程更加自然和直觀。交互體驗(yàn):?jiǎn)蜗蚪换ツP?。傳統(tǒng)人機(jī)交互通常是靜態(tài)的,用戶通過鍵盤、交互體驗(yàn):實(shí)時(shí)、沉浸式交互。視頻語言時(shí)代的人機(jī)交互更加動(dòng)態(tài)和生動(dòng),用戶可以通過拍攝、錄制視頻、實(shí)時(shí)互動(dòng)來與計(jì)算機(jī)進(jìn)行交互,交互過程更加自然和直觀。www.jazzyear.www.jazzyear.com232.4L3-AI創(chuàng)生時(shí)代:數(shù)字科研推動(dòng)新一輪“科學(xué)革命”AIGC生成技術(shù)與數(shù)字孿生、仿真等融合,可驅(qū)動(dòng)科技研發(fā)進(jìn)入全新范式AIGC生成技術(shù)與數(shù)字孿生、仿真等技術(shù)的融合可以探索出一條基于虛擬世界仿真的科技研發(fā)模型。這種模型可以通過在虛擬世界中建立逼真的數(shù)字孿生模型和仿甲子光年智庫將這種基于虛擬世界仿真的科技研發(fā)模型稱之為數(shù)字科研模型,將通過數(shù)字科研模型進(jìn)行研發(fā)的模式稱為“數(shù)字科研”。當(dāng)前,AI已經(jīng)在藥物研發(fā)、合成生物等基礎(chǔ)科學(xué)研究中得到廣泛應(yīng)用。AI的進(jìn)一步發(fā)展,將推動(dòng)數(shù)字科研加快實(shí)現(xiàn)。未來數(shù)字科研模型有望成為第二步第一步第二步第一步QQ建立數(shù)字孿生模型和仿真環(huán)境AIGC生成虛擬世界內(nèi)容建立數(shù)字孿生模型和仿真環(huán)境AIGC生成虛擬世界內(nèi)容在虛擬世界中建立逼真的數(shù)字孿生模型和仿真環(huán)境,包括各種物體、場(chǎng)景、情境等,以模通過AIGC生成技術(shù),可以生成逼真的虛擬世界內(nèi)容,包括各種場(chǎng)景、人物、物體、聲光等,以豐第四步第五步第三步第四步第五步第三步進(jìn)行科技研究和實(shí)驗(yàn)在虛擬世界中進(jìn)行科技研究和實(shí)驗(yàn),利用數(shù)字孿生模型和仿真環(huán)境,模擬各種情況和場(chǎng)景,探索新的科技解決方案和創(chuàng)新物理世界驗(yàn)證和實(shí)踐在虛擬世界中得到的研究成果和解決方案可以在現(xiàn)實(shí)物理世界進(jìn)行驗(yàn)證和實(shí)踐,通過實(shí)驗(yàn)構(gòu)建新型科研范式www.jazzyear.com242.4L3-AI創(chuàng)生時(shí)代:世界模型創(chuàng)造人類智慧之外的“第二智慧體系”兩種世界模型:預(yù)測(cè)式模型和生成式模型世界模型的核心路徑分歧來自于:世界是不是真的需要一個(gè)解析解?人類依靠大腦來理解世界。美國藝術(shù)與科學(xué)學(xué)院院士、加拿大皇家學(xué)會(huì)院士莉莎·費(fèi)德曼·巴瑞特在《認(rèn)識(shí)大腦》一書中提出了人類大腦通過對(duì)外界刺激進(jìn)行預(yù)測(cè)來解釋和理解世界的過程。甲子光年將這個(gè)過程概括為四個(gè)階段:預(yù)測(cè)階段、感知階段、匹配/思考階段、形成認(rèn)知階段,可簡(jiǎn)稱為“預(yù)測(cè)式模型”。是否遵循大腦理解世界的模式構(gòu)成了世界模型的不同思路,將催生不同技術(shù)路線。伴隨AI創(chuàng)生時(shí)代到來,我們將迎來人類大腦智慧之外的“第二智慧體系”。甲子光年將世界模型大體劃分為兩類:?第一智慧體系:預(yù)測(cè)式世界模型,代表是人類大腦,Meta的V-JEPA也屬于預(yù)測(cè)式模型。?第二智慧體系:生成式世界模型,代表是ChatGPT、Sora等深度學(xué)習(xí)的數(shù)據(jù)驅(qū)動(dòng)流派。深度學(xué)習(xí)的數(shù)據(jù)驅(qū)動(dòng)流派的核心思路是:通過大量數(shù)據(jù)模擬世界所得到的結(jié)果可能會(huì)比一個(gè)解析解更能反映世界的真實(shí)物理,更能體現(xiàn)智能??赡艹蔀槔斫馐澜缱罱K奧妙的一把鑰匙,而非追求解析解。人類智慧只是智慧的一種范式,ChatGPT、Sora等范式已能夠通過大量模擬世界學(xué)習(xí)到世界規(guī)律。因此,用一個(gè)物理公式概括現(xiàn)實(shí)世界的思路并不一定正確,可能成為理解世界最終奧妙的一把鑰匙,而非追求解析解。①預(yù)測(cè)預(yù)輸入②③④ 感知匹配/思考——形成認(rèn)知①預(yù)測(cè)預(yù)輸入②③④ 感知匹配/思考——形成認(rèn)知①②③輸入匹配/思考——形成認(rèn)知④預(yù)測(cè)生成感知感知前的預(yù)測(cè)階段,大腦基于內(nèi)部模型、先前經(jīng)驗(yàn)和期望,預(yù)測(cè)可能發(fā)生的情況。對(duì)外界刺激的感知,接受外部刺激,形成感知信號(hào),并進(jìn)行感知輸入。在預(yù)測(cè)與感知的匹配階段,大腦將外界刺激與先前的預(yù)測(cè)進(jìn)行匹配,并調(diào)節(jié)、更新預(yù)測(cè),以使其與感知一致。在意義建構(gòu)和理解階段,大腦解釋、理解感知到的信息,并將其納入更廣泛的認(rèn)知框架中。形成認(rèn)知www.jazzyear.www.jazzyear.com25交互行為、角色、載體形態(tài)的變化推動(dòng)人類認(rèn)知重塑,并形成新文化圈層視頻作為一種生動(dòng)、直觀的傳播媒介,能夠更好地激發(fā)人們的情感信息載體的變化會(huì)重塑人類的認(rèn)知與觀念,并將具有相同認(rèn)知觀念的人群逐步集合到一起,形成新的文化圈層,推動(dòng)文化的變遷,AI文化:基于AI的新文化圈層的形成,具有相似認(rèn)知觀念的人群可能會(huì)因?yàn)楣蚕硐嗨频囊曨l內(nèi)容和信息,逐步形成新的文化圈層,形成共享的文化認(rèn)同和價(jià)值體系,帶來AI文藝復(fù)興。認(rèn)知重塑:隨著信息載體的變遷,人們的認(rèn)知和觀念也會(huì)發(fā)生重塑。通過視頻內(nèi)容的傳播和互動(dòng)交流,人們可能會(huì)形成共享的認(rèn)知觀念,理念和價(jià)值觀的統(tǒng)一性會(huì)得到加強(qiáng)。信息傳遞載體形態(tài)變化:視頻形態(tài)從傳統(tǒng)的不可編輯的單向輸出版式轉(zhuǎn)變?yōu)楦咏换?、可編輯和可定制的形式,使得視頻成為了更加靈活多樣的信息傳遞載體。AI文化:基于AI的新文化圈層的形成,具有相似認(rèn)知觀念的人群可能會(huì)因?yàn)楣蚕硐嗨频囊曨l內(nèi)容和信息,逐步形成新的文化圈層,形成共享的文化認(rèn)同和價(jià)值體系,帶來AI文藝復(fù)興。認(rèn)知重塑:隨著信息載體的變遷,人們的認(rèn)知和觀念也會(huì)發(fā)生重塑。通過視頻內(nèi)容的傳播和互動(dòng)交流,人們可能會(huì)形成共享的認(rèn)知觀念,理念和價(jià)值觀的統(tǒng)一性會(huì)得到加強(qiáng)。信息傳遞載體形態(tài)變化:視頻形態(tài)從傳統(tǒng)的不可編輯的單向輸出版式轉(zhuǎn)變?yōu)楦咏换?、可編輯和可定制的形式,使得視頻成為了更加靈活多樣的信息傳遞載體。行為變遷:AIGC視頻生成技術(shù)若能在視頻領(lǐng)域規(guī)?;瘧?yīng)用,將首先打破視頻生產(chǎn)的固化流程,讓視頻實(shí)現(xiàn)一鍵生成,實(shí)現(xiàn)視頻生產(chǎn)的流程歸一,行為歸一。行為變遷:AIGC視頻生成技術(shù)若能在視頻領(lǐng)域規(guī)?;瘧?yīng)用,將首先打破視頻生產(chǎn)的固化流程,讓視頻實(shí)現(xiàn)一鍵生成,實(shí)現(xiàn)視頻生產(chǎn)的流程歸一,行為歸一。www.jazzyear.www.jazzyear.com文明的演進(jìn):人類文明進(jìn)入與AI共建共生的“雙生時(shí)代”,AI的歸AI,人類的歸人類波普爾的世界三元組是哲學(xué)家卡爾·波普爾提出的最終,AI會(huì)深度參與人類的物理世界和心靈世界,人類智慧與AI將互相影響、共同進(jìn)化,人類文明圖2:人與AI共建共生的“雙生時(shí)代”圖2:人與AI共建共生的“雙生時(shí)代”符號(hào)世界無限的創(chuàng)意和想象無限的創(chuàng)意和想象世界模型世界模型 物理世界心靈世界物理世界心靈世界AI符號(hào)世界符號(hào)世界無限的創(chuàng)意和想象無限的創(chuàng)意和想象世界模型世界模型 物理世界心靈世界物理世界心靈世界AI符號(hào)世界眼耳鼻舌身意眼耳鼻舌身意眼耳鼻舌身意眼耳鼻舌身意備注說明:波普爾的世界三元組第一元:物理世界(World1):指的是客觀存在的實(shí)體世界,包括物質(zhì)和能量等自然現(xiàn)象。物理世界是獨(dú)立于我們的意識(shí)和思想存在的,是客觀存在的。第二元:心靈世界(World2):指的是個(gè)體的主觀意識(shí)和心理活動(dòng)所構(gòu)成的世界,包括思想、感覺、情緒、意識(shí)等心理現(xiàn)象。心靈世界是個(gè)體內(nèi)部的心理體驗(yàn)領(lǐng)域,是主觀存在的。第三元:符號(hào)世界(World3):指的是人類通過語言、符號(hào)和文化制度等共同建構(gòu)的文化世界,包括科學(xué)理論、藝術(shù)作品、社會(huì)制度、文化傳統(tǒng)等。符號(hào)世界是人類共同的文化積累和認(rèn)知產(chǎn)物,是客觀存在的,但是不同于物理世界,是通過人類的創(chuàng)造和交流而存在的。2727Part02AIGC視頻生成推動(dòng)世界走向“Part02AIGC視頻生成推動(dòng)世界走向“AI創(chuàng)生時(shí)代”3.1視頻內(nèi)容的兩大類型:短視頻和長視頻 IP→內(nèi)容→衍生,是視頻內(nèi)容價(jià)值鏈的主要邏輯鏈條,長視頻與短視頻是兩大核心類型綜藝節(jié)目游戲短視頻類新聞資訊微短劇綜藝節(jié)目游戲短視頻類新聞資訊微短劇數(shù)據(jù)來源:甲子光年智庫,2024年;www.jazzyear.com視頻產(chǎn)業(yè)鏈包含七個(gè)關(guān)鍵環(huán)節(jié),制作環(huán)節(jié)是最核心環(huán)節(jié),也是AI視頻生成工具現(xiàn)階段主要策劃/產(chǎn)品鏈>衍生品開發(fā)IP評(píng)估與交易劇本開發(fā)與策劃投資評(píng)估內(nèi)容生產(chǎn)制作主要職責(zé)>制作公司制作公司制作公司制作公司視頻平臺(tái)視頻平臺(tái)衍生品設(shè)計(jì)核心角色>編劇工作室投資公司數(shù)字平臺(tái)衍生品開發(fā)策劃工作室后期公司發(fā)行公司傳統(tǒng)電視臺(tái)海外視頻平臺(tái)策劃/產(chǎn)品鏈>衍生品開發(fā)IP評(píng)估與交易劇本開發(fā)與策劃投資評(píng)估內(nèi)容生產(chǎn)制作主要職責(zé)>制作公司制作公司制作公司制作公司視頻平臺(tái)視頻平臺(tái)衍生品設(shè)計(jì)核心角色>編劇工作室投資公司數(shù)字平臺(tái)衍生品開發(fā)策劃工作室后期公司發(fā)行公司傳統(tǒng)電視臺(tái)海外視頻平臺(tái)內(nèi)容宣傳發(fā)行內(nèi)容播放游戲公司視頻制作工具票務(wù)平臺(tái)游戲公司視頻制作工具票務(wù)平臺(tái)www.jazzyear.comwww.jazzyear.com長視頻需覆蓋完整視頻產(chǎn)業(yè)鏈,短視頻則更注重分發(fā)和變現(xiàn)長視頻與短視頻在產(chǎn)業(yè)鏈中的各自側(cè)重點(diǎn)有顯著性差異。長視頻需要完整覆蓋視頻產(chǎn)業(yè)鏈,并非常注重制作環(huán)節(jié)的投入。短視頻則對(duì)上游IP、策劃、www.jazzyear.comwww.jazzyear.com短視頻正在進(jìn)入AI原生時(shí)代,長視頻正在進(jìn)入AI生產(chǎn)時(shí)代AIGC視頻生成技術(shù)在不同形態(tài)的視頻內(nèi)容領(lǐng)域的應(yīng)用進(jìn)程各不相同。概括而言,長視頻領(lǐng)域AIGC視頻生成技術(shù)仍然處于L1階段,由于現(xiàn)階段AIGC視頻生成技術(shù)的局限性,導(dǎo)致一些具有高度專業(yè)性的領(lǐng)域僅僅將其作為生產(chǎn)工具,例如為電影、劇集等提供素材來源,尚無法帶來顛覆性重塑,但短視頻領(lǐng)域則會(huì)首先面臨AIGC視頻生成技術(shù)的顛覆,甲子光年智庫判斷短視頻領(lǐng)域?qū)?huì)進(jìn)入L2即AI原生時(shí)代,短視頻產(chǎn)業(yè)鏈將不復(fù)存在,而會(huì)誕生AI原生的短視技術(shù)成熟度技術(shù)成熟度長視頻處在L1階段短視頻已邁入L2階段終極?短視頻社交終極?長視頻工業(yè)3232短視頻進(jìn)入AI原生時(shí)代,產(chǎn)業(yè)鏈被壓縮,催生AI原生模式的新型平臺(tái)PC互聯(lián)網(wǎng)時(shí)代催生出了長視頻平臺(tái),移動(dòng)互聯(lián)網(wǎng)催生出了短視頻平臺(tái),雖然短視頻平臺(tái)已經(jīng)在大幅度應(yīng)用AI技術(shù)進(jìn)行賦能,但仍然存在顯著的短視頻生產(chǎn)工作流和短視AIGC視頻生成技術(shù)將會(huì)打破短視頻的原有產(chǎn)業(yè)鏈,大幅度壓縮簡(jiǎn)化生產(chǎn)制作流程和角色分工,浸是指實(shí)現(xiàn)全面體驗(yàn)的沉浸式視頻生產(chǎn)。實(shí)時(shí)是低延時(shí)的視頻快速生成。互動(dòng)是指一邊交互對(duì)話一邊進(jìn)行視頻調(diào)整的個(gè)性化、定制化的互動(dòng)視頻。聚聯(lián)是指去中心化的生產(chǎn)方式。數(shù)字時(shí)代短視頻的工作流數(shù)字時(shí)代短視頻的角色分工數(shù)字時(shí)代短視頻的工作流數(shù)字時(shí)代短視頻的角色分工…AI原生時(shí)代的短視頻平臺(tái)…AI原生時(shí)代的短視頻平臺(tái)…AI原生平臺(tái)AI原生平臺(tái)AI克隆音色數(shù)字人口播視頻生成圖文成片素材生成個(gè)人平臺(tái)AI克隆音色數(shù)字人口播視頻生成圖文成片素材生成個(gè)人平臺(tái)分鏡特效分鏡特效www.jazzyear.www.jazzyear.com333.5短視頻重塑后的產(chǎn)業(yè)鏈新型制播一體的AI原生內(nèi)容平臺(tái),有望顛覆短視頻平臺(tái)格局,每個(gè)用戶既是導(dǎo)演又是平臺(tái)在AIGC視頻生成對(duì)視頻產(chǎn)業(yè)鏈的技術(shù)變革下,有望孵化出新一代的集短視頻制作、分發(fā)、變現(xiàn)為一體的全新型的制播一體的AI原生內(nèi)容平臺(tái)應(yīng)該是融合AI創(chuàng)意工具+AI原在實(shí)現(xiàn)AI原生范式的轉(zhuǎn)換后,過去短視頻平臺(tái)?短視頻平臺(tái):將會(huì)向AI創(chuàng)意工具+AI原生視頻工具+變現(xiàn)平臺(tái)的融合式的平臺(tái)轉(zhuǎn)變,提供AI原生視頻工具和流量分發(fā)平臺(tái)。?用戶平臺(tái):用戶將不僅僅是作為生產(chǎn)者和消費(fèi)者,真正做到人人都是導(dǎo)演型的創(chuàng)作者,并且人人都是一個(gè)小型的平臺(tái)。個(gè)人用戶可以建立個(gè)人平臺(tái),企業(yè)用戶可以建立企業(yè)平臺(tái),直播機(jī)構(gòu)可以建立直播平臺(tái)。內(nèi)容創(chuàng)作者的價(jià)值將更注重創(chuàng)意能力、解決實(shí)際問題的能力、個(gè)人IP影響力等。負(fù)責(zé)創(chuàng)意的生產(chǎn)提供,既可以是B端用戶也可以是C端用戶自行產(chǎn)生。B端用戶C端用戶負(fù)責(zé)視頻的生成制作,以提問交互的方式進(jìn)行視頻生成,平臺(tái)負(fù)責(zé)為用戶提供全套的視頻生成工具。負(fù)責(zé)創(chuàng)意的生產(chǎn)提供,既可以是B端用戶也可以是C端用戶自行產(chǎn)生。B端用戶C端用戶用戶以導(dǎo)演的角色進(jìn)行交互式生成用戶以導(dǎo)演的角色進(jìn)行交互式生成AIGC視頻生成大模型去中心化平臺(tái)AIGC視頻生成大模型去中心化平臺(tái)負(fù)責(zé)生成視頻的流量分發(fā)與內(nèi)容變現(xiàn),將會(huì)催生三大類型的變現(xiàn)平臺(tái):最中心的流量分發(fā)平臺(tái)、外圍的直播平臺(tái)、用戶平臺(tái)。流量分發(fā)www.jazzyear.com343.6長視頻重塑后的產(chǎn)業(yè)鏈制作環(huán)節(jié)難度下降,將會(huì)助推產(chǎn)業(yè)鏈上游的創(chuàng)意環(huán)節(jié)和下游宣發(fā)播映環(huán)節(jié)重要程度上升,好故事、好腳本、好平臺(tái)將成為視頻產(chǎn)業(yè)的核心競(jìng)爭(zhēng)力新核心環(huán)節(jié)>新核心環(huán)節(jié)>注重向下游尋找發(fā)行資源和播映渠道更注重向上游拓展優(yōu)質(zhì)IP和創(chuàng)意能力視頻制作環(huán)節(jié)難度下降,成本降低,將會(huì)推動(dòng)產(chǎn)業(yè)鏈上游和下游發(fā)展注重向下游尋找發(fā)行資源和播映渠道更注重向上游拓展優(yōu)質(zhì)IP和創(chuàng)意能力視頻制作環(huán)節(jié)難度下降,成本降低,將會(huì)推動(dòng)產(chǎn)業(yè)鏈上游和下游發(fā)展35數(shù)據(jù)來源:甲子光年智庫,2024年;www.jazzyear.com35重塑后的視頻產(chǎn)業(yè)鏈將整合簡(jiǎn)化為三大環(huán)節(jié):創(chuàng)意生成—視頻生成—宣發(fā)播映視頻生成應(yīng)用層 視頻生成應(yīng)用層映后開發(fā)策劃/劇本映后開發(fā)策劃/劇本視頻生成文本+劇本視頻+3D視頻+元宇宙文本+小說視頻+人機(jī)交互視頻+剪輯圖片+設(shè)計(jì)圖片+美術(shù)視頻+特效圖片+海報(bào)圖片+設(shè)計(jì)視頻+動(dòng)作文本+創(chuàng)意文本+策劃視頻+渲染視頻+剪輯音頻+配樂音頻+配樂?主要包括宣發(fā)與播映環(huán)節(jié)。?主要負(fù)責(zé)將生成視頻內(nèi)容進(jìn)行宣傳視頻生成基礎(chǔ)層文本生成模型音頻生成音頻生成 圖片生成模型短視頻生成模型和播放。?需要具備短視頻生成、音頻生成和圖片生成模型。圖片生成模型長視頻生成模型?主要包括原視頻生成文本+劇本視頻+3D視頻+元宇宙文本+小說視頻+人機(jī)交互視頻+剪輯圖片+設(shè)計(jì)圖片+美術(shù)視頻+特效圖片+海報(bào)圖片+設(shè)計(jì)視頻+動(dòng)作文本+創(chuàng)意文本+策劃視頻+渲染視頻+剪輯音頻+配樂音頻+配樂?主要包括宣發(fā)與播映環(huán)節(jié)。?主要負(fù)責(zé)將生成視頻內(nèi)容進(jìn)行宣傳視頻生成基礎(chǔ)層文本生成模型音頻生成音頻生成 圖片生成模型短視頻生成模型和播放。?需要具備短視頻生成、音頻生成和圖片生成模型。圖片生成模型長視頻生成模型?主要包括原IP、策劃/劇本和映后開發(fā)環(huán)節(jié)。?主要以講好故事、做好創(chuàng)意策劃為?需要整合文本生成和圖像生成模型。?主要包括制作環(huán)節(jié)。?主要負(fù)責(zé)將故事由文本變?yōu)橐曨l內(nèi)?需要具備長視頻生成和音頻生成模www.jazzyear.comwww.jazzyear.com3.6長視頻重塑后的產(chǎn)業(yè)鏈重塑后的視頻產(chǎn)業(yè)鏈將會(huì)變?yōu)榛谌竽P腕w系的全新產(chǎn)業(yè)鏈,并帶來全新的生產(chǎn)方式重塑后的視頻產(chǎn)業(yè)鏈將基于三大環(huán)節(jié)產(chǎn)生三大產(chǎn)業(yè)體系:基于創(chuàng)意生成模型的產(chǎn)業(yè)體系、基于視頻生成模型的產(chǎn)業(yè)體系、基于宣發(fā)播映模型的產(chǎn)圖:AIGC視頻生成整合重塑后的全新視頻創(chuàng)意生成模型產(chǎn)業(yè)體系視頻生成模型產(chǎn)業(yè)體系宣發(fā)播映模型產(chǎn)業(yè)體系視頻生成應(yīng)用層動(dòng)畫公司教育培訓(xùn)廣告公司傳媒公司音頻生成工具廠商長視頻生成工具廠商長視頻生成+音頻生成的大模型廠商視頻數(shù)據(jù)類公司制作公司經(jīng)紀(jì)公司后期公司視頻制作工具長視頻平臺(tái)營銷公司發(fā)行公司票務(wù)平臺(tái)音頻生成工具廠商圖片生成工具廠商短視頻+音頻+圖片生成的多模態(tài)大模型廠商圖片數(shù)據(jù)類公司短視頻平臺(tái)數(shù)字平臺(tái)傳統(tǒng)電視臺(tái)院線文學(xué)平臺(tái)策劃工作室算法層游戲公司衍生品開發(fā)視頻生成視頻生成基礎(chǔ)層平臺(tái)層數(shù)據(jù)平臺(tái)算力層創(chuàng)意生成模型產(chǎn)業(yè)體系視頻生成模型產(chǎn)業(yè)體系宣發(fā)播映模型產(chǎn)業(yè)體系視頻生成應(yīng)用層動(dòng)畫公司教育培訓(xùn)廣告公司傳媒公司音頻生成工具廠商長視頻生成工具廠商長視頻生成+音頻生成的大模型廠商視頻數(shù)據(jù)類公司制作公司經(jīng)紀(jì)公司后期公司視頻制作工具長視頻平臺(tái)營銷公司發(fā)行公司票務(wù)平臺(tái)音頻生成工具廠商圖片生成工具廠商短視頻+音頻+圖片生成的多模態(tài)大模型廠商圖片數(shù)據(jù)類公司短視頻平臺(tái)數(shù)字平臺(tái)傳統(tǒng)電視臺(tái)院線文學(xué)平臺(tái)策劃工作室算法層游戲公司衍生品開發(fā)視頻生成視頻生成基礎(chǔ)層平臺(tái)層數(shù)據(jù)平臺(tái)算力層制作公司出版社制作公司出版社編劇工作室衍生品設(shè)計(jì)文本生成工具廠商文本生成工具廠商圖片生成工具廠商文本生成+圖片生成的大模型廠商文本數(shù)據(jù)類公司文本數(shù)據(jù)類公司AIDC智算中心AI芯片公司AIDC智算中心AI芯片公司www.jazzyear.www.jazzyear.com37IP版權(quán)生產(chǎn)交易開發(fā)一體化的平臺(tái)有望成為新的發(fā)展機(jī)遇IP版權(quán)生產(chǎn)交易開發(fā)一體化的平臺(tái)IP版權(quán)生產(chǎn)交易開發(fā)一體化的平臺(tái)傳統(tǒng)的版權(quán)生產(chǎn)與交易模式傳統(tǒng)IP版權(quán)的生產(chǎn)非常依賴作家的能力,而在版權(quán)交易環(huán)節(jié)通常是由使用AIGC技術(shù)后,版權(quán)生成環(huán)節(jié)可以直接使用大模型來生成內(nèi)容,并傳統(tǒng)IP版權(quán)的生產(chǎn)非常依賴作家的能力,而在版權(quán)交易環(huán)節(jié)通常是由且可以是文本文章、圖片、音頻剪輯、視頻片段等各種形式的內(nèi)容。版權(quán)交易不再是人與人之間的交易,而是創(chuàng)作者與技術(shù)平臺(tái)之間的交易。因此,IP版權(quán)生產(chǎn)和交易開發(fā)一體化的新型平臺(tái)有望迎來機(jī)遇。普通用戶專業(yè)用戶作者版權(quán)擁有方生產(chǎn)出版發(fā)行用戶消費(fèi)IP版權(quán)生產(chǎn)模式>生產(chǎn)出版發(fā)行用戶消費(fèi)IP版權(quán)生產(chǎn)模式>使用監(jiān)控創(chuàng)作者VS技術(shù)平臺(tái)創(chuàng)作者VS技術(shù)平臺(tái)版權(quán)確認(rèn)再開發(fā)內(nèi)容推廣獲取授權(quán)版權(quán)確認(rèn)再開發(fā)內(nèi)容推廣獲取授權(quán)IP版權(quán)交易模式>數(shù)字簽約版權(quán)代理方影視公司游戲公司數(shù)字簽約版權(quán)代理方影視公司游戲公司動(dòng)漫公司影視公司游戲公司動(dòng)漫公司定價(jià)和許可www.jazzyear.www.jazzyear.com38白金作家群體不再成為稀有資源,未來人人都是小說家,中小型文學(xué)平臺(tái)將可能迎來春天現(xiàn)階段的作家群體分布呈現(xiàn)金字塔狀態(tài)現(xiàn)階段的作家群體分布呈現(xiàn)金字塔狀態(tài)在傳統(tǒng)視頻產(chǎn)業(yè)鏈中,上游的IP環(huán)節(jié)中更注重處于金字塔頂端的白金作家群體的維護(hù)管理與產(chǎn)品設(shè)計(jì),大型文學(xué)平臺(tái)通過壟斷平臺(tái)和作家資源AIGC視頻生成重塑后的產(chǎn)業(yè)鏈體系中,創(chuàng)意生成體系將會(huì)更為注重底層占比90.6%的公眾作家,其將成為很多視頻生成平臺(tái)的創(chuàng)意來源和IP輸出者。整合AIGC技術(shù)、打通AIGC小說生成流程的中小型文學(xué)平臺(tái)有望迎人人都是小說家人人都是小說家使用AIGC模型撰寫小說可以幫助小說作家快速生成大量文本,并為創(chuàng)作提供靈感和創(chuàng)意的啟發(fā),可以顯著降低撰寫小說的門檻,未來小說伴隨內(nèi)容供給的增加,傳統(tǒng)寡頭壟斷型的文學(xué)平臺(tái)有望被打破,中小準(zhǔn)備工作?選擇一個(gè)用于生成文本的AIGC模型,可以是一個(gè)預(yù)訓(xùn)練好的通用語言模型,也可以是經(jīng)過?確定故事基本框架,包括主要人物、情節(jié)發(fā)展、背景設(shè)定等方面的內(nèi)容。這些信息將作為生成文設(shè)定故事框架?基于設(shè)定好的故事框架使用AIGC模型生成文本。通過向模型提供一些關(guān)鍵詞、句子或段落生成文本?生成的文本可能包含不符合故事情節(jié)或風(fēng)格的部分,因此需要進(jìn)行篩選和編輯,刪除不容、調(diào)整語言表達(dá)、補(bǔ)充細(xì)節(jié)等操作,以確保生成的文本符合故篩選和編輯?在使用AIGC模型生成文本的同時(shí),還可以發(fā)揮作家的創(chuàng)意和思維進(jìn)行人工創(chuàng)作和整合,以人工創(chuàng)作與準(zhǔn)備工作?選擇一個(gè)用于生成文本的AIGC模型,可以是一個(gè)預(yù)訓(xùn)練好的通用語言模型,也可以是經(jīng)過?確定故事基本框架,包括主要人物、情節(jié)發(fā)展、背景設(shè)定等方面的內(nèi)容。這些信息將作為生成文設(shè)定故事框架?基于設(shè)定好的故事框架使用AIGC模型生成文本。通過向模型提供一些關(guān)鍵詞、句子或段落生成文本?生成的文本可能包含不符合故事情節(jié)或風(fēng)格的部分,因此需要進(jìn)行篩選和編輯,刪除不容、調(diào)整語言表達(dá)、補(bǔ)充細(xì)節(jié)等操作,以確保生成的文本符合故篩選和編輯?在使用AIGC模型生成文本的同時(shí),還可以發(fā)揮作家的創(chuàng)意和思維進(jìn)行人工創(chuàng)作和整合,以人工創(chuàng)作與整合白金作家大神作家普通作家公眾作家www.jazzyear.comwww.jazzyear.com傳統(tǒng)制播分離模式將被拋棄,沉浸式互動(dòng)點(diǎn)播云影院將成新機(jī)遇沉浸式互動(dòng)點(diǎn)播云影院有望成為第三大發(fā)行體系傳統(tǒng)的宣發(fā)模式是制播分離的沉浸式互動(dòng)點(diǎn)播云影院有望成為第三大發(fā)行體系傳統(tǒng)的宣發(fā)模式是制播分離的在長視頻領(lǐng)域,中國傳統(tǒng)主流視頻宣發(fā)模式僅僅聚焦影院發(fā)行和網(wǎng)絡(luò)視頻平臺(tái)發(fā)行兩種,點(diǎn)播影院模式一直是小眾市場(chǎng)。傳統(tǒng)視頻宣發(fā)模式導(dǎo)致下游宣發(fā)播映環(huán)節(jié)過于依賴影院等傳統(tǒng)平臺(tái)或長視頻平臺(tái)。在長視頻領(lǐng)域,中國傳統(tǒng)主流視頻宣發(fā)模式僅僅聚焦影院發(fā)行和網(wǎng)絡(luò)視頻平臺(tái)發(fā)行兩種,點(diǎn)播影院模式一直是小眾市場(chǎng)。隨著AIGC視頻生成對(duì)視頻產(chǎn)業(yè)鏈的重塑,過去基于固定宣發(fā)流程的發(fā)行模式有望向互動(dòng)點(diǎn)播模式轉(zhuǎn)型,以AI平臺(tái)為核心,讓用戶深度參與電影前期的劇本創(chuàng)作和內(nèi)容生產(chǎn),并圖1:傳統(tǒng)專業(yè)長視頻發(fā)行模式:以美國電影發(fā)在沉浸式互動(dòng)點(diǎn)播云影院上線,滿足不同用戶對(duì)故事走向的不同需求。圖1:傳統(tǒng)專業(yè)長視頻發(fā)行模式:以美國電影發(fā)232345671 影院發(fā)行 圖2:“院網(wǎng)”并行的發(fā)行模式與新型點(diǎn)播云影 影院發(fā)行 家庭娛樂產(chǎn)品發(fā)行線下渠道銷售傳統(tǒng)廠牌制片包月視頻點(diǎn)播服務(wù)院線為主家庭娛樂產(chǎn)品發(fā)行線下渠道銷售傳統(tǒng)廠牌制片包月視頻點(diǎn)播服務(wù)院線為主電視付費(fèi)視頻點(diǎn)播線上渠道帶貨網(wǎng)絡(luò)平臺(tái)深度參與制片電視付費(fèi)視頻點(diǎn)播線上渠道帶貨網(wǎng)絡(luò)平臺(tái)深度參與制片付費(fèi)電視視頻平臺(tái)付費(fèi)電視視頻平臺(tái)不付費(fèi)電視/付費(fèi)有線電視頻道個(gè)性化設(shè)計(jì)生產(chǎn)AI平臺(tái)+用戶深度參與制片不付費(fèi)電視/付費(fèi)有線電視頻道個(gè)性化設(shè)計(jì)生產(chǎn)AI平臺(tái)+用戶深度參與制片www.jazzyear.com www.jazzyear.comPart02Part02AIGC視頻生成推動(dòng)世界走向“AI創(chuàng)生時(shí)代” 4.1當(dāng)經(jīng)濟(jì)體處于下行周期時(shí),文娛產(chǎn)業(yè)迎來發(fā)展視頻是文娛產(chǎn)業(yè)的核心內(nèi)容形態(tài),將會(huì)受到大經(jīng)濟(jì)周期的影響,迎來新的發(fā)展機(jī)遇美國經(jīng)濟(jì)體文娛業(yè)在調(diào)整期后反而成為投資高增長領(lǐng)域美國在經(jīng)濟(jì)調(diào)整期時(shí)增長最快的行業(yè)是文娛業(yè)美國經(jīng)濟(jì)體文娛業(yè)在調(diào)整期后反而成為投資高增長領(lǐng)域美國在經(jīng)濟(jì)調(diào)整期時(shí)增長最快的行業(yè)是文娛業(yè)年復(fù)合增長率提高幅度200%-10% 高增長.年復(fù)合增長率提高幅度200%-10% 高增長.●●文化娛樂●企業(yè)咨詢30%25%20%15%10%5%0%-5% 壓縮批發(fā)業(yè)高擴(kuò)張150%100%0%50%250%300%350%-50%150%100%0%50%250%300%350%收入規(guī)模提高比例備注:2008年金融危機(jī)前和危機(jī)后美國各服務(wù)行業(yè)的企業(yè)盈利能力情 。電影。電視節(jié)目。書籍。音樂。其他金融危機(jī)前金融危機(jī)后42.828.819.815.802030405060708091011121314151617www.jazzyear.com424.2中國文娛領(lǐng)域第一輪投資浪潮:2011-2017年第一輪投資浪潮中,文娛產(chǎn)業(yè)投資聚焦內(nèi)容生態(tài)本身,而忽視了底層技術(shù)領(lǐng)域中國文娛市場(chǎng)在2011-2017年是投在第一輪投資浪潮中,投資機(jī)構(gòu)更多聚焦內(nèi)容生產(chǎn)類,而忽平均投資規(guī)模50●視頻影視音樂新媒體時(shí)尚服飾平均投資規(guī)模50●視頻影視音樂新媒體時(shí)尚服飾美食影音圖像處理藝人經(jīng)紀(jì)重點(diǎn)領(lǐng)域拓展領(lǐng)域試水領(lǐng)域游戲在線電臺(tái)網(wǎng)絡(luò)文學(xué)傳媒體育動(dòng)漫55www.jazzyearwww.jazzyear.com434.2文娛領(lǐng)域第一輪投資浪潮:2011-2017年BAT在第一輪投資浪潮的主投資方向是內(nèi)容制作和播映平臺(tái),對(duì)創(chuàng)意生成、技術(shù)領(lǐng)域缺乏關(guān)注BAT都是先從泛娛樂產(chǎn)業(yè)鏈中游的內(nèi)容制作環(huán)節(jié)介入,即視展上游和下游布局。內(nèi)容制作類企業(yè)是過往投資重點(diǎn),但I(xiàn)P、劇本策劃類氣泡大小代表投資企業(yè)數(shù)量2017氣泡大小代表投資企業(yè)數(shù)量2017201620152015201420132013201220112010在線電臺(tái)圖像處理時(shí)尚服飾在線電臺(tái)圖像處理時(shí)尚服飾新媒體傳媒娛樂營銷體育動(dòng)漫音樂藝人經(jīng)紀(jì)網(wǎng)絡(luò)文學(xué)游戲影視視頻年圖2:2011-2017年BAT企業(yè)影視頻制作和播映環(huán)節(jié)是過往投資重點(diǎn)視頻制作和播映環(huán)節(jié)是過往投資重點(diǎn)宣發(fā)環(huán)節(jié)是過往投資缺失環(huán)節(jié)宣發(fā)環(huán)節(jié)是過往投資缺失環(huán)節(jié)創(chuàng)意生成環(huán)節(jié)是過往投創(chuàng)意生成環(huán)節(jié)是過往投資缺失環(huán)節(jié)IP策劃/劇本投資內(nèi)容制作發(fā)行售票放映衍生品www.jazzyear.com

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論