2023年認(rèn)知智能技術(shù)與應(yīng)用研究報(bào)告_第1頁(yè)
2023年認(rèn)知智能技術(shù)與應(yīng)用研究報(bào)告_第2頁(yè)
2023年認(rèn)知智能技術(shù)與應(yīng)用研究報(bào)告_第3頁(yè)
2023年認(rèn)知智能技術(shù)與應(yīng)用研究報(bào)告_第4頁(yè)
2023年認(rèn)知智能技術(shù)與應(yīng)用研究報(bào)告_第5頁(yè)
已閱讀5頁(yè),還剩44頁(yè)未讀 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶(hù)提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

I版權(quán)聲明(上海)股份有限公司和中國(guó)信息通信研究院云計(jì)算與大數(shù)據(jù)研究前言 1 2 4 7 8 9 1認(rèn)知智能技術(shù)與應(yīng)用研究報(bào)告(2023年)第一章人工智能邁入“認(rèn)知智能”新階段2認(rèn)知智能技術(shù)與應(yīng)用研究報(bào)告(2023年)估報(bào)告》統(tǒng)計(jì),我國(guó)智能算力繼續(xù)保持快速增長(zhǎng),2023年智能算力規(guī)模預(yù)計(jì)達(dá)到427百億億次/秒(FLOPS)3認(rèn)知智能技術(shù)與應(yīng)用研究報(bào)告(2023年)探討,對(duì)認(rèn)知智能前沿技術(shù)研究具有重要作用。依據(jù)ProQuest公開(kāi)數(shù)據(jù)來(lái)源:ProQuest公開(kāi)數(shù)據(jù)4認(rèn)知智能技術(shù)與應(yīng)用研究報(bào)告(2023年)金融、IT、零售等多個(gè)領(lǐng)域進(jìn)行統(tǒng)計(jì),2022年全球認(rèn)知智能市場(chǎng)規(guī)模達(dá)到326億美元,未來(lái)10年將以22%的復(fù)合年增長(zhǎng)率保持增長(zhǎng),預(yù)計(jì)2032年市場(chǎng)總規(guī)模將達(dá)到2381億美元。從國(guó)內(nèi)范圍來(lái)看,國(guó)5認(rèn)知智能技術(shù)與應(yīng)用研究報(bào)告(2023年)數(shù)據(jù)來(lái)源:PrecedenceResearch統(tǒng)計(jì)數(shù)據(jù)來(lái)源:《2023愛(ài)分析·認(rèn)知智能廠商全景報(bào)告》6認(rèn)知智能技術(shù)與應(yīng)用研究報(bào)告(2023年)手Copilot助力用戶(hù)提高生產(chǎn)力;Google組建GoogleDeepMi究團(tuán)隊(duì),將致力于基于深度學(xué)習(xí)的認(rèn)知智能技術(shù)研究與產(chǎn)品開(kāi)發(fā);SparkCognition推出的基于認(rèn)知的風(fēng)險(xiǎn)預(yù)測(cè)系統(tǒng),在能源、航空航天、國(guó)防和安全等領(lǐng)域?qū)崿F(xiàn)落地;CognitiveScale提供的智能決策平臺(tái)CortexAI,以可視化方式提供模型和業(yè)務(wù)操作,用戶(hù)可自行參竹間智能的基于認(rèn)知智能的知識(shí)工程平臺(tái)Gemini,具備認(rèn)知搜索、7認(rèn)知智能技術(shù)與應(yīng)用研究報(bào)告(2023年)第二章認(rèn)知智能核心技術(shù)日益成熟多模態(tài)學(xué)習(xí)是一種旨在處理和理解多種模態(tài)的數(shù)據(jù)的機(jī)器學(xué)習(xí)能與準(zhǔn)確性[4]。多模態(tài)特征提取需要對(duì)不同的數(shù)據(jù)類(lèi)型 8認(rèn)知智能技術(shù)與應(yīng)用研究報(bào)告(2023年)9認(rèn)知智能技術(shù)與應(yīng)用研究報(bào)告(2023年)的智能應(yīng)用。如利用ATOMIC知識(shí)圖庫(kù)與數(shù)據(jù)模型融合的方式,可打理的表示方式可在不確定性數(shù)據(jù)中尋求更優(yōu)解。知識(shí)圖可形式化地描述現(xiàn)實(shí)世界的事物及其相互關(guān)系。知識(shí)圖體表示具有獨(dú)立存在和特定屬性的對(duì)象,如人、地點(diǎn)、關(guān)系表示實(shí)體之間的聯(lián)系,如出生于、屬于、發(fā)生在等關(guān)系連接,形成包含多個(gè)三元組的復(fù)雜的網(wǎng)絡(luò)結(jié)構(gòu),用《ImprovingEmpatheticDialogueGenerationbyDynamicallyInfusingCommonsenseKnowled認(rèn)知智能技術(shù)與應(yīng)用研究報(bào)告(2023年)的信息存在不確定性。為表征不確定的動(dòng)態(tài)知識(shí),可識(shí)圖譜來(lái)表示更符合真實(shí)世界的知識(shí)屬性。以常識(shí)圖理路徑,合適的推理邏輯可優(yōu)化認(rèn)知能力。知識(shí)推理是依略、利用形式化的知識(shí)、進(jìn)行機(jī)器思維和問(wèn)題求解的過(guò)程,可實(shí)現(xiàn)在已有知識(shí)基礎(chǔ)上推測(cè)出未知知識(shí)。知識(shí)推理可根據(jù)不同進(jìn)行分類(lèi),一是以邏輯表達(dá)式方式推理,邏輯符號(hào)可以表示事實(shí)、規(guī)則和結(jié)論之間的關(guān)系,通過(guò)推理引擎進(jìn)行推理和推斷,新的結(jié)論和知識(shí);二是以知識(shí)圖譜方式推理,知識(shí)圖譜可領(lǐng)域、不同類(lèi)型的知識(shí)進(jìn)行整合和優(yōu)化,以關(guān)系路徑作為特征進(jìn)行推理,預(yù)測(cè)實(shí)體間可能存在的某種特定聯(lián)系;三是以規(guī)則推理,規(guī)則引擎是知識(shí)推理技術(shù)的核心,規(guī)則引擎可以分理和后向推理兩種方式,前向推理是從已知的事實(shí)和規(guī)則推斷新的結(jié)論和知識(shí),后向推理是從已知的結(jié)論和知識(shí)推斷出對(duì)應(yīng)的事實(shí)和理解復(fù)雜認(rèn)知任務(wù),通過(guò)確定最優(yōu)行動(dòng)計(jì)劃以達(dá)到預(yù)期認(rèn)知智能技術(shù)與應(yīng)用研究報(bào)告(2023年)能力和條件等因素構(gòu)建行動(dòng)方案;決策可在不確定性的情況認(rèn)知規(guī)劃和決策可對(duì)復(fù)雜任務(wù)進(jìn)行全局分析,規(guī)劃和決策將復(fù)務(wù)拆解為更小的、可管理的問(wèn)題,分析相關(guān)目標(biāo)、決策因素之間的相互作用關(guān)系,用于理解問(wèn)題的本質(zhì),并為每個(gè)子問(wèn)具體的步驟,通過(guò)逐步解決小的問(wèn)題來(lái)建立全局認(rèn)知,進(jìn)而雜問(wèn)題優(yōu)化求解。認(rèn)知規(guī)劃和決策可以幫助解決復(fù)雜任務(wù)中定性問(wèn)題,一是可以將復(fù)雜問(wèn)題進(jìn)行分解,根據(jù)具體任務(wù)進(jìn)行分配及限制;二是可對(duì)各類(lèi)因素進(jìn)行分析并逐步調(diào)整行動(dòng)計(jì)劃深度學(xué)習(xí)和強(qiáng)化學(xué)習(xí)在機(jī)器解決復(fù)雜規(guī)劃與決策要作用。一方面,深度學(xué)習(xí)可用于處理大量且復(fù)雜的數(shù)據(jù)訓(xùn)練規(guī)劃的預(yù)測(cè)模型和分配資源。深度學(xué)習(xí)具備的深度層次結(jié)構(gòu)可以捕獲數(shù)據(jù)中的復(fù)雜的關(guān)系,用來(lái)訓(xùn)練預(yù)測(cè)模型處理無(wú)序、非線(xiàn)性和復(fù)雜數(shù)據(jù)的規(guī)劃問(wèn)題,以便預(yù)測(cè)一組決策的結(jié)果并確定可行解,避免搜索所有決策空間。另一方面,強(qiáng)化學(xué)習(xí)可用于規(guī)劃實(shí)時(shí)性、不確定性任務(wù)類(lèi)型,幫助模型自適應(yīng)調(diào)整策略。強(qiáng)化學(xué)習(xí)的核心是獎(jiǎng)勵(lì)和反饋,強(qiáng)調(diào)的是如何在不完全了解問(wèn)題的情況下,通過(guò)與環(huán)境交互來(lái)學(xué)習(xí)行動(dòng)策略,收集環(huán)境反饋并根據(jù)反饋調(diào)整其行為。在認(rèn)知規(guī)劃決策中,強(qiáng)化學(xué)習(xí)可以幫助模型學(xué)習(xí)最優(yōu)決策方案并讓模型逐漸掌握整個(gè)規(guī)劃問(wèn)題的策略,被廣泛應(yīng)用于解決智能交通和機(jī)認(rèn)知智能技術(shù)與應(yīng)用研究報(bào)告(2023年)還可以?xún)?yōu)勢(shì)互補(bǔ),為機(jī)器解決復(fù)雜規(guī)劃與決策問(wèn)題提供了新與方向,例如谷歌大腦發(fā)布的深度強(qiáng)化學(xué)習(xí)(DeepReinforcement針對(duì)因數(shù)據(jù)偏態(tài)分布導(dǎo)致的規(guī)劃和決策結(jié)果偏差問(wèn)題,樣本量少、樣本含噪聲等原因,數(shù)據(jù)偏態(tài)分布是非常常見(jiàn)的問(wèn)題。例如在金融領(lǐng)域中,欺詐交易的樣本數(shù)量往本數(shù)量,因此導(dǎo)致模型對(duì)欺詐交易的識(shí)別能比經(jīng)典算法提升50%,在得分方面分別比經(jīng)典算法提升5%—10%4。4《M2DQN:ARobustMethodforAcceleratingDeepQ-learningNetwork》認(rèn)知智能技術(shù)與應(yīng)用研究報(bào)告(2023年)情感識(shí)別可挖掘出有關(guān)情感的特征數(shù)據(jù)與內(nèi)在情緒狀態(tài)的映射信號(hào)和文本信號(hào)分別構(gòu)建專(zhuān)家模型,提取面部表情特征、聲音特續(xù)擴(kuò)充大模型的數(shù)據(jù)源,進(jìn)而提升魯棒性和域泛化能力[5]。認(rèn)知智能技術(shù)與應(yīng)用研究報(bào)告(2023年)基于規(guī)則的方法,使用基于規(guī)則的形式化語(yǔ)言來(lái)描述情感表達(dá)方式,認(rèn)知智能技術(shù)與應(yīng)用研究報(bào)告(2023年)要作用,如StableDiffusion在圖像生成、視頻生成等領(lǐng)認(rèn)知智能技術(shù)與應(yīng)用研究報(bào)告(2023年)第三章認(rèn)知智能場(chǎng)景化應(yīng)用逐漸深化認(rèn)知智能技術(shù)與應(yīng)用研究報(bào)告(2023年)人群預(yù)測(cè)1~6年患肺癌的風(fēng)險(xiǎn);IBMWatsonforOncology可以通的融合應(yīng)用新場(chǎng)景,如智能營(yíng)銷(xiāo)、智能風(fēng)控、智能理賠、詐欺分析、構(gòu)建金融行業(yè)知識(shí)圖譜,滿(mǎn)足金融機(jī)構(gòu)當(dāng)前面臨的海量化、碎片化、認(rèn)知智能技術(shù)與應(yīng)用研究報(bào)告(2023年)認(rèn)知智能技術(shù)與應(yīng)用研究報(bào)告(2023年)在生產(chǎn)規(guī)劃環(huán)節(jié),認(rèn)知智能可將專(zhuān)家經(jīng)驗(yàn)與投產(chǎn)數(shù)據(jù)融合分析,優(yōu)化。如華院“智能化配煤系統(tǒng)”,以偏20認(rèn)知智能技術(shù)與應(yīng)用研究報(bào)告(2023年)21認(rèn)知智能技術(shù)與應(yīng)用研究報(bào)告(2023年)22認(rèn)知智能技術(shù)與應(yīng)用研究報(bào)告(2023年)第四章認(rèn)知智能技術(shù)與應(yīng)用方向展望多模態(tài)大模型基于自有的微調(diào)屬性和多模態(tài)數(shù)據(jù)理解融合能力認(rèn)知智能不是人工智能應(yīng)用的最終階段,人工智能將向更具“意識(shí)”23認(rèn)知智能技術(shù)與應(yīng)用研究報(bào)告(2023年)24認(rèn)知智能技術(shù)與應(yīng)用研究報(bào)告(2023年)人腦能夠自組織地協(xié)同數(shù)百項(xiàng)認(rèn)知功能,靈活適應(yīng)復(fù)雜多變的環(huán)境,

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶(hù)所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶(hù)上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶(hù)上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶(hù)因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論