計(jì)算機(jī)行業(yè)2024年3月國(guó)產(chǎn)大模型Kimi帶動(dòng)產(chǎn)業(yè)鏈革新_第1頁(yè)
計(jì)算機(jī)行業(yè)2024年3月國(guó)產(chǎn)大模型Kimi帶動(dòng)產(chǎn)業(yè)鏈革新_第2頁(yè)
計(jì)算機(jī)行業(yè)2024年3月國(guó)產(chǎn)大模型Kimi帶動(dòng)產(chǎn)業(yè)鏈革新_第3頁(yè)
計(jì)算機(jī)行業(yè)2024年3月國(guó)產(chǎn)大模型Kimi帶動(dòng)產(chǎn)業(yè)鏈革新_第4頁(yè)
計(jì)算機(jī)行業(yè)2024年3月國(guó)產(chǎn)大模型Kimi帶動(dòng)產(chǎn)業(yè)鏈革新_第5頁(yè)
已閱讀5頁(yè),還剩8頁(yè)未讀 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

內(nèi)容目錄TOC\o"1-2"\h\z\u國(guó)產(chǎn)大模型曙光Kimi帶動(dòng)產(chǎn)業(yè)鏈革新 4月之暗面發(fā)布Kimi,成為國(guó)產(chǎn)大模型曙光 4Kimi突破AI應(yīng)用現(xiàn)狀,保持環(huán)比高速增長(zhǎng) 5Kimi打破競(jìng)爭(zhēng)格局,帶動(dòng)產(chǎn)業(yè)鏈發(fā)展 8Sora開(kāi)創(chuàng)AI視頻生成新紀(jì)元 9OpenAI發(fā)布Sora大模型,革新文生視頻技術(shù) 9Sora或可對(duì)影視制作及傳媒游戲等行業(yè)產(chǎn)生深遠(yuǎn)影響 11附:近期AI事件 12投資建議 14風(fēng)險(xiǎn)提示 14圖表目錄圖1:Kimi可以閱讀英文論文并 4圖Kimi可以根據(jù)提示詞生成宣傳文本 4圖近期海外AI應(yīng)用增長(zhǎng)疲軟,大部分應(yīng)用日活、月活增速僅有個(gè)位數(shù) 5圖Kimi保持環(huán)比高增,并有望超越文心一言、通義千問(wèn) 6圖AI開(kāi)發(fā)者通過(guò)精細(xì)化的提示庫(kù)來(lái)指引用戶以更高效、更精準(zhǔn)的方式與AI進(jìn)行交流 7圖目前市場(chǎng)上各種AI大模型在處理長(zhǎng)文本方面的能力還存在限制 7圖Kimi可以兩分鐘讀完500份簡(jiǎn)歷,篩選員工 7圖Kimi可以讀取英偉達(dá)報(bào)告,并分析財(cái)報(bào)歷史 7圖Sora根據(jù)提示詞生成視頻 9圖Sora根據(jù)提示詞生成視頻 9圖將視頻數(shù)據(jù)轉(zhuǎn)換為patches 10圖將Scalingtransformers用于視頻生成 10表期12國(guó)產(chǎn)大模型曙光Kimi帶動(dòng)產(chǎn)業(yè)鏈革新月之暗面發(fā)布Kimi,成為國(guó)產(chǎn)大模型曙光2023年10月,清華大學(xué)楊植麟及其AI團(tuán)隊(duì)“月之暗面”發(fā)布了Kimi,是國(guó)產(chǎn)大模型的代表作之一,擁有優(yōu)秀的長(zhǎng)文本處理能力,可處理20萬(wàn)漢字輸入,得到業(yè)界高度關(guān)注。依賴于優(yōu)秀的長(zhǎng)文本處理能力,用戶可在Kimi上傳各種資料并進(jìn)行,包括word、pdf、txt以及圖片;此外,Kimi也支持訪問(wèn)互聯(lián)網(wǎng)鏈接,讀取文本信息并歸納總結(jié)。2024年3月18日,Kim公布了支持200萬(wàn)文字輸入的內(nèi)測(cè)邀請(qǐng),測(cè)試者可使用Kimi獲得200萬(wàn)字長(zhǎng)度的無(wú)損閱讀能力。Kimi20圖1:Kimi可以閱讀英文論文并 圖2:Kimi可以根據(jù)提示詞生成宣傳文本資料來(lái)源:Kimi, 資料來(lái)源:Kimi,KimiAIscalingScaling:KimiAIscalingScalingCBKimiKimi突破AI應(yīng)用現(xiàn)狀,保持環(huán)比高速增長(zhǎng)AI1AIAIChatGPT16億環(huán)比增長(zhǎng)了1.08;Bing月訪問(wèn)量下降了7.87至13.4億日活Goole的Gemii3.262月份谷歌將BardGeminiGeminiAdvancedGeminiApp國(guó)內(nèi)月份總體訪問(wèn)量環(huán)比下降約20主要是受到春節(jié)假期的影響用戶的互聯(lián)網(wǎng)使用習(xí)慣可能發(fā)生了變化,導(dǎo)致訪問(wèn)量暫時(shí)下降。此外,這也說(shuō)明了當(dāng)前大AI圖3:近期海外AI應(yīng)用增長(zhǎng)疲軟,大部分應(yīng)用日活、月活增速僅有個(gè)位數(shù)資料來(lái)源:SimilarWeb,KimiAIKimi1010300圖4:Kimi保持環(huán)比高增,并有望超越文心一言、通義千問(wèn)資料來(lái)源:,AI長(zhǎng)文本能力是實(shí)現(xiàn)人類與AIAI圖5:長(zhǎng)文本建模是自然語(yǔ)言處理(NLP)領(lǐng)域的一項(xiàng)重要技術(shù)資料來(lái)源:ASurveyonLongTextModelingwithTransformers,Claude3PromptlibraryAIAIAIAIClaude圖AI

圖7:目前市場(chǎng)上各種AI大模型在處理長(zhǎng)文本方面的能力還存在限制資料來(lái)源:Kimi, 資料來(lái)源:Kimi,Kimi1)解決復(fù)雜問(wèn)題:長(zhǎng)文本模型通過(guò)處理大量信息,特別適合執(zhí)行如企業(yè)知識(shí)庫(kù)整合等需要廣泛AI2)AI忠誠(chéng)度與指令遵循:長(zhǎng)文本模型必須準(zhǔn)確保留原文意義(忠誠(chéng)度)并能根據(jù)任務(wù)指令執(zhí)行操作(指令遵循能力用戶體驗(yàn)優(yōu)化和數(shù)圖可以兩分鐘讀完500份簡(jiǎn)歷,篩選員工 圖可以讀取英偉達(dá)報(bào)告,并分析財(cái)報(bào)歷史資料來(lái)源:Kimi, 資料來(lái)源:Kimi,Kimi打破競(jìng)爭(zhēng)格局,帶動(dòng)產(chǎn)業(yè)鏈發(fā)展聯(lián)合技術(shù)壁壘和服務(wù)壁壘,Kimi有望重塑競(jìng)爭(zhēng)格局AIAIKimiKimi通過(guò)以下幾個(gè)核心策略實(shí)現(xiàn)了區(qū)別于市場(chǎng)的獨(dú)特定位和快速增長(zhǎng)。用戶體驗(yàn)中心化:Kimi數(shù)據(jù)驅(qū)動(dòng)的優(yōu)化:利用用戶行為數(shù)據(jù),KimiAIKimi為多個(gè)行業(yè)帶來(lái)了潛在發(fā)展機(jī)遇Kimi優(yōu)秀的性能可以帶動(dòng)多個(gè)產(chǎn)業(yè)的發(fā)展。如:游戲行業(yè)的互動(dòng)升級(jí):Kimi此外,KimiAIAIAIKimiAISora開(kāi)創(chuàng)AI視頻生成新紀(jì)元OpenAI發(fā)布Sora大模型,革新文生視頻技術(shù)2024216OpenAISora1Sora圖根據(jù)提示詞生成視頻 圖根據(jù)提示詞生成視頻資料來(lái)源:OpenAI, 資料來(lái)源:OpenAI,SoraAIGCAISoraGPTSora模型:通過(guò)Patches和ScalingTransformers革新視頻生成技術(shù)PatchesPatchestokenPatchesPatchesOpenAISoraOpenAIPatchesPatches成了TransformerSoraOpenAIPatches,從而有效控制生成視頻的大小和形狀。這一策略同樣適用于圖像處理,因?yàn)榭梢詫D像看作是靜態(tài)的單幀視頻。圖12:將視頻數(shù)據(jù)轉(zhuǎn)換為patches資料來(lái)源:OpenAI,SoraScalingTransformer提升模型效率:OpenAIScalingTransformersScalingTransformersTransformer(種子和輸入數(shù)據(jù)進(jìn)行視頻樣本的訓(xùn)練過(guò)程中,OpenAI圖13:將Scalingtransformers用于視頻生成資料來(lái)源:OpenAI,Sora核心優(yōu)勢(shì):強(qiáng)大的語(yǔ)言理解能力和一致性強(qiáng)大的語(yǔ)言理解:SoraDALL·E3(re-captioning)GPTpromptSoraSoraOpenAI2DALL·E3Sora靈活的視頻擴(kuò)展技術(shù):SoraTransformerSora出色的適應(yīng)能力:Sora率和屏幕比例的需求。無(wú)論是寬屏格式(1920x1080像素)還是豎屏格式(1080x1920),SoraSora場(chǎng)景和物體的一致性和連續(xù)性:SoraSoraSora或可對(duì)影視制作及傳媒游戲等行業(yè)產(chǎn)生深遠(yuǎn)影響SoraSoraSora4)快速原型和迭代:SoraSoraSora3D動(dòng)生產(chǎn)力的進(jìn)一步提升。SoraOpenAI(CTO)穆拉蒂最SoraSora20720PSoraOpenAISoraOpenAI2024OpenAISora附:近期AI事件表1:近期AI事件匯總事件 日期 地區(qū) 領(lǐng)域 簡(jiǎn)述事件 日期 地區(qū) 領(lǐng)域 簡(jiǎn)述GPTS子上線

2.1 國(guó)內(nèi) 文本生成

字節(jié)跳動(dòng)正式推出「CozeAIBotCozeAIMeta第二代自研AI芯片正式投產(chǎn) Meta第二代自研AI芯片正式投產(chǎn) 2.2國(guó)外Meta計(jì)劃今年在數(shù)據(jù)中心部署第二代ArtemisAI芯片,主要性其他 能集中在推理領(lǐng)域,將與Meta購(gòu)買的現(xiàn)成的英偉達(dá)GPU協(xié)同以增強(qiáng)AI算力,共同夯實(shí)該公司的AI基礎(chǔ)設(shè)施能力。阿里通義千問(wèn)Qwen1.5發(fā)布 2.6國(guó)內(nèi)Qwen1.5是通義千問(wèn)系列的最新迭代版本。QWen1.5提供從0.5文本生成 億參數(shù)到720億參數(shù)不等的六個(gè)模型尺寸。性能評(píng)測(cè)結(jié)果顯示,尤其是小模型在某些任務(wù)上的表現(xiàn)優(yōu)于同類產(chǎn)品。谷歌Bard更名為 2.8國(guó)外BardGemini,參數(shù)較低的版本將繼續(xù)免費(fèi)供用(19.99Gemini文本生成 Ultra其性能與GPT-4接近同時(shí)GeminiPro上線移動(dòng)端Gemini GoogleAppGPT-4,GeminiUltraGoogleMeta發(fā)布MetaVoice-1B英偉達(dá)發(fā)布GPURTX2000AdaOpenAI發(fā)布文生視

2.9 國(guó)外 音頻生成2.12 國(guó)外 其他

MetaVoice-1BMetaVoice1.2B(12參1030s英偉達(dá)最低端專業(yè)顯卡,AdaLovelaceRTX4060AD107CUDA281688Tensor核心、22RT12.0TFlops,RT27.7TFlops,Tensor191.9TFlops,號(hào)稱對(duì)AmpereRTX2000VR3625Sora60頻模型Sora 2.16 國(guó)外 視頻生

理世界,能生成具有多個(gè)角色、包含特定運(yùn)動(dòng)的復(fù)雜場(chǎng)景。繼承DALL-E3谷歌發(fā)布Gemini1.5Pro2.16國(guó)外文本生成Gemini1.5ProGemini100tokens(GPT-4Turbo12.8支持跨模態(tài)理解、分析和推理,即支持對(duì)圖片和視頻的分析。StabilityAI2.21國(guó)外圖像生成OpenAISoraDiffusionTransformerSD3800m8B35StableDiffusion3DALLE3Midjourneyv6Ideogramv1谷歌發(fā)布Gemma系列模型2.21國(guó)外文本生成Gemma2b7bGoogleGeminiGemma2b,它的參數(shù)量相對(duì)較小,因手機(jī)等移動(dòng)設(shè)備。目前各個(gè)主流推理框架或工具都已適配完成手機(jī)等移動(dòng)設(shè)備。目前各個(gè)主流推理框架或工具都已適配完成llama.cpp,mlc字節(jié)跳動(dòng)發(fā)布SDXL-Lightning2.23國(guó)內(nèi)圖像生成SDXL-LightningSDXL4-81024分辨率的高質(zhì)量圖像,計(jì)算成本為基礎(chǔ)模型的十分之一。SDXL-Lightning可以作為增速插件無(wú)縫集成到SDXL模型中,目前主流的SDXL都開(kāi)始適配。JuggernautXL-V9-Lighting發(fā)布2.26國(guó)外圖像生成JuggernautXLAISDXLLighting4TurboLCMLighting生成的圖像質(zhì)量更好,速度更快。Phind70B2.23國(guó)外文本生成Phind-70B在HumanEval上得分為83,超越GPT-4,成為最GPT-4,Phind-70B80+token,遠(yuǎn)高于GPT-420+tokenPhind-70BCodeLlama-70B500Token32KMistralAI發(fā)布旗艦?zāi)P蚆istralLarge2.26國(guó)外文本生成81.2,MistralLargeGPT-4MistralLargeAzureAIStudio。微軟提出BitNet1.582.27國(guó)外文本生成1-bitBitNetb1.583Bllama2.71GPUllamaPlayground2.5發(fā)布2.28國(guó)外圖像生成gnd是基于L51000+個(gè)用戶的人工評(píng)測(cè),PlaygroundV2.5是目前最符合人類偏好的文生圖模型。阿里巴巴發(fā)表視頻生成模型EMO2.28國(guó)內(nèi)視頻生成EMOEMO擬角色動(dòng)畫制作提供了新工具。蘋果取消造車,加碼生成AI2.28國(guó)外其他詹南德里亞庫(kù)克AIGCAdobeAIProjectMusicGenAIControl2.29國(guó)外音頻生成無(wú)需專業(yè)的音樂(lè)知識(shí),只需利用文本提示就可以生成和編輯音AdobeAI2美元3.1國(guó)外其他2.21FY24Q426576512.06和蘋果的華爾街第三大價(jià)值公司。Anthropic發(fā)布Claude-33.4國(guó)外文本生成Claude-3GPT4,在推理、數(shù)學(xué)、編碼、多語(yǔ)言理解和視覺(jué)方面樹(shù)立行業(yè)新基準(zhǔn)。ClOpus20/月。從官方發(fā)布的測(cè)試結(jié)果來(lái)看Claude3OpusGPT-4,數(shù)學(xué)能力和邏輯圖表、文檔等非結(jié)構(gòu)化數(shù)據(jù),由AI模型進(jìn)行分析和回答。谷歌發(fā)布最新「讀屏」AI3.4國(guó)外音頻生成ScreenAIQAUIPaLM2-S訓(xùn)練模型回答關(guān)屏幕信息、屏幕導(dǎo)航和屏幕內(nèi)容摘要的問(wèn)題。政府工作報(bào)告首提(人工智能+)3.5國(guó)內(nèi)其他基礎(chǔ)設(shè)施,加快形成全國(guó)一體化算力體系。零一萬(wàn)物發(fā)布Yi-9B3.6國(guó)內(nèi)文本生成Yi90,,,、員提供了前所未有的便利性和強(qiáng)大功能。馬斯克xAI開(kāi)源大模型Grok3.11國(guó)外文本生成Grokx.AI(包括兩個(gè)月的訓(xùn)練上下文長(zhǎng)度為8192,Grok-1GPT-3.5GrokxAIxAI可以選擇開(kāi)放源代碼或保留專有權(quán)。OpenAI開(kāi)源TransformerDebugger3.12國(guó)外文本生成OpenAI機(jī)器學(xué)習(xí)研究員JanLeike宣布,OpenAI要開(kāi)源內(nèi)部一直使用的大殺器——Transformer調(diào)試器,TransformerDebugger是OpenAI對(duì)齊團(tuán)隊(duì)(Superalignment)開(kāi)發(fā)的一種工具,旨在支持對(duì)小體量語(yǔ)言模型的特定行為進(jìn)行檢查,該工具把自動(dòng)可解釋性技術(shù)與稀

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論