自然語言處理基礎(chǔ)知到課后答案智慧樹章節(jié)測試答案2025年春江西師范大學(xué)_第1頁
自然語言處理基礎(chǔ)知到課后答案智慧樹章節(jié)測試答案2025年春江西師范大學(xué)_第2頁
自然語言處理基礎(chǔ)知到課后答案智慧樹章節(jié)測試答案2025年春江西師范大學(xué)_第3頁
自然語言處理基礎(chǔ)知到課后答案智慧樹章節(jié)測試答案2025年春江西師范大學(xué)_第4頁
自然語言處理基礎(chǔ)知到課后答案智慧樹章節(jié)測試答案2025年春江西師范大學(xué)_第5頁
免費(fèi)預(yù)覽已結(jié)束,剩余7頁可下載查看

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡介

自然語言處理基礎(chǔ)知到課后答案智慧樹章節(jié)測試答案2025年春江西師范大學(xué)緒論單元測試

語言智能是人工智能皇冠上的明珠

A:錯B:對

答案:對

第一章單元測試

自然語言處理任務(wù)層級包含哪些?()

A:應(yīng)用系統(tǒng)(NLP+)B:資源建設(shè)C:基礎(chǔ)任務(wù)D:應(yīng)用任務(wù)

答案:應(yīng)用系統(tǒng)(NLP+)###資源建設(shè)###基礎(chǔ)任務(wù)###應(yīng)用任務(wù)經(jīng)驗(yàn)主義范式包含哪些?()

A:大規(guī)模預(yù)訓(xùn)練語言模型B:小規(guī)模專家知識C:大規(guī)模語料庫深度學(xué)習(xí)D:大規(guī)模語料庫統(tǒng)計(jì)模型

答案:大規(guī)模預(yù)訓(xùn)練語言模型###大規(guī)模語料庫深度學(xué)習(xí)###大規(guī)模語料庫統(tǒng)計(jì)模型自然語言處理主要研究用計(jì)算機(jī)理解和生成自然語言的各種理論和方法,屬于人工智能領(lǐng)域的一個重要甚至核心分支,是計(jì)算機(jī)科學(xué)與語言學(xué)的交叉學(xué)科,又常被稱為計(jì)算語言學(xué)。()

A:錯B:對

答案:對自然語言處理的歧義性主要是由于語言的形式和語義之間存在多對多的對應(yīng)關(guān)系導(dǎo)致的。()

A:錯B:對

答案:對對應(yīng)語言符號的研究對象是什么?()

A:實(shí)B:知C:境D:名

答案:名

第二章單元測試

隨機(jī)事件有哪些特點(diǎn)?()。

A:每個試驗(yàn)的可能結(jié)果不止一個,并且能事先預(yù)測試驗(yàn)的所有可能結(jié)果;B:進(jìn)行一次試驗(yàn)之前不能確定哪一個結(jié)果會出現(xiàn)。C:可以在相同的條件下重復(fù)進(jìn)行;D:在相同的條件下不能重復(fù)進(jìn)行;

答案:每個試驗(yàn)的可能結(jié)果不止一個,并且能事先預(yù)測試驗(yàn)的所有可能結(jié)果;###進(jìn)行一次試驗(yàn)之前不能確定哪一個結(jié)果會出現(xiàn)。###可以在相同的條件下重復(fù)進(jìn)行;若A為一個m×n的矩陣,且B為一個n×r的矩陣,則AB=C為一個m×r的矩陣。()。

A:對B:錯

答案:對所有矩陣都存在逆矩陣。()

A:錯B:對

答案:錯隨機(jī)變量的兩個重要的數(shù)字特征是什么?()

A:期望B:方差C:矩D:相關(guān)系數(shù)

答案:期望###方差隱馬爾可夫過程三個問題是什么?()。

A:由觀察序列確定隱狀態(tài)序列(解碼問題)B:狀態(tài)更新C:求解觀察序列的概率(計(jì)算問題)D:參數(shù)估計(jì)(學(xué)習(xí)問題)

答案:由觀察序列確定隱狀態(tài)序列(解碼問題)###求解觀察序列的概率(計(jì)算問題)###參數(shù)估計(jì)(學(xué)習(xí)問題)方陣A的行列式(determinant)是一個將方陣映射到標(biāo)量的函數(shù),記作det(A)。()

A:對B:錯

答案:對如果一組向量中的任意一個向量都不能表示成其他向量的線性組合,那么稱這組向量為線性無關(guān)。()

A:錯B:對

答案:對

第三章單元測試

判斷題:SentiWordNet是基于WrodNet標(biāo)注的詞語情感傾向性詞典,標(biāo)注了三個情感值(褒義、貶義和中性)。()

A:錯B:對

答案:對LTP4.0基于哪些技術(shù)?()

A:基于傳統(tǒng)模型B:多任務(wù)學(xué)習(xí)機(jī)制C:基于預(yù)訓(xùn)練模型D:單任務(wù)學(xué)習(xí)機(jī)制

答案:多任務(wù)學(xué)習(xí)機(jī)制###基于預(yù)訓(xùn)練模型PyTorch的優(yōu)勢有哪些?()。

A:支持動態(tài)神經(jīng)網(wǎng)絡(luò)構(gòu)建B:入門簡單,容易上手C:框架簡潔D:與Python語言無縫結(jié)合且Debug方便

答案:支持動態(tài)神經(jīng)網(wǎng)絡(luò)構(gòu)建###入門簡單,容易上手###框架簡潔###與Python語言無縫結(jié)合且Debug方便詞性標(biāo)注是根據(jù)詞語所處的上下文,確定其具體的詞性。()

A:對B:錯

答案:對torch.nn模塊提供了靈活的神經(jīng)網(wǎng)絡(luò)庫,提供多種神經(jīng)網(wǎng)絡(luò)層。()

A:對B:錯

答案:對torch的升維是什么函數(shù)?()

A:squeeze函數(shù)B:transpose函數(shù)C:unsqueeze函數(shù)D:reshape函數(shù)

答案:unsqueeze函數(shù)

第四章單元測試

基于符號(字符串)表示的專家知識缺點(diǎn)是哪些?()

A:知識完備性不足B:不符合人類的直覺,可解釋和可干預(yù)性不好C:不便于計(jì)算D:需要專家構(gòu)建和維護(hù)

答案:知識完備性不足###不便于計(jì)算###需要專家構(gòu)建和維護(hù)自然語言處理基礎(chǔ)任務(wù)包含哪些?()

A:分詞B:句法分析C:語義分析D:詞性標(biāo)注

答案:分詞###句法分析###語義分析###詞性標(biāo)注分布語義假設(shè)認(rèn)為詞的含義可由其上下文詞的分布進(jìn)行表示。()

A:對B:錯

答案:對根據(jù)數(shù)據(jù)來源的不同,問答系統(tǒng)可以分為哪些主要的類型?()。

A:檢索式問答系統(tǒng)B:常問問題集問答系統(tǒng)C:閱讀理解式問答系統(tǒng)D:知識庫問答系統(tǒng)

答案:檢索式問答系統(tǒng)###常問問題集問答系統(tǒng)###閱讀理解式問答系統(tǒng)###知識庫問答系統(tǒng)典型的結(jié)構(gòu)預(yù)測問題包含哪些?()

A:文本分類B:圖結(jié)構(gòu)生成C:序列標(biāo)注D:序列分割

答案:圖結(jié)構(gòu)生成###序列標(biāo)注###序列分割

第五章單元測試

Sigmoid型函數(shù)包含哪些種類?()

A:ELU函數(shù)B:ReLU函數(shù)C:Logistic函數(shù)D:Tanh函數(shù)

答案:Logistic函數(shù)###Tanh函數(shù)GRU模型的特點(diǎn)有哪些?()

A:模型精簡B:擬合能力相對比較弱C:參數(shù)少D:適用于小規(guī)模不是很復(fù)雜的數(shù)據(jù)集

答案:模型精簡###擬合能力相對比較弱###參數(shù)少###適用于小規(guī)模不是很復(fù)雜的數(shù)據(jù)集關(guān)于Hardattention和Softattention,敘述正確的是()

A:Hardattention通常借助強(qiáng)化學(xué)習(xí)手段訓(xùn)練B:Hardattention不可微,無法進(jìn)行反向傳播C:Softattention當(dāng)source序列較長時,其法效果有所下降D:Softattention解碼時需計(jì)算所有編碼器隱藏層狀態(tài)向量,導(dǎo)致計(jì)算復(fù)雜度較高

答案:Hardattention通常借助強(qiáng)化學(xué)習(xí)手段訓(xùn)練###Hardattention不可微,無法進(jìn)行反向傳播###Softattention當(dāng)source序列較長時,其法效果有所下降###Softattention解碼時需計(jì)算所有編碼器隱藏層狀態(tài)向量,導(dǎo)致計(jì)算復(fù)雜度較高Transformer架構(gòu)正確的是?()

A:由12層編碼器和12層解碼器構(gòu)成B:解碼器由self-Attention、Encoder-DecoderAttention和FeedForwardNeuralNetwork構(gòu)成C:由6層編碼器和6層解碼器構(gòu)成D:編碼器由self-Attention和FeedForwardNeuralNetwork構(gòu)成

答案:解碼器由self-Attention、Encoder-DecoderAttention和FeedForwardNeuralNetwork構(gòu)成###由6層編碼器和6層解碼器構(gòu)成###編碼器由self-Attention和FeedForwardNeuralNetwork構(gòu)成對于每個特征圖譜沿著“寬”、“高”的維度進(jìn)行降采樣。()

A:對B:錯

答案:對

第六章單元測試

實(shí)義詞能表達(dá)具體的意義,主要包含名詞、動詞、形容詞等;而功能詞主要是為了滿足語法功能需求。()

A:對B:錯

答案:對在不同的語料集中所采用的劃分粒度和標(biāo)記符號也都不盡相同。()

A:錯B:對

答案:對詞最主要的語素是什么?()

A:前綴B:詞根C:中綴D:后綴

答案:詞根切分歧義包含哪些類型?()。

A:未登錄詞B:真歧義C:交集型切分歧義D:組合型切分歧義

答案:真歧義###交集型切分歧義###組合型切分歧義基于規(guī)則的詞性標(biāo)注是利用詞典和搭配規(guī)則針對詞語和上下文進(jìn)行分析,從而確定每個詞語的詞性。()

A:對B:錯

答案:對

第七章單元測試

句法范疇包含哪些類型?()。

A:依存范疇B:短語范疇C:功能范疇D:詞匯范疇

答案:短語范疇###功能范疇###詞匯范疇依存語法理論需要解決哪些問題?()

A:單詞之間誰處于支配地位?B:建立這些詞與詞之間關(guān)系的依據(jù)是什么?C:兩個單詞之間是否存在依存關(guān)系?D:誰處于從屬地位?

答案:單詞之間誰處于支配地位?###建立這些詞與詞之間關(guān)系的依據(jù)是什么?###兩個單詞之間是否存在依存關(guān)系?###誰處于從屬地位?根據(jù)依存語法理論,兩個成分之間的依存關(guān)系是二元的非對稱關(guān)系,具有方向性,一個成分是中心語,另外一個成分是依附于中心語存在。()

A:對B:錯

答案:對移進(jìn)-歸約成分句法分析算法包含哪些操作?()

A:接受B:移進(jìn)C:規(guī)約D:拒絕

答案:接受###移進(jìn)###規(guī)約###拒絕PCFG句法分析樹概率計(jì)算需要遵循哪些獨(dú)立假設(shè)?()

A:祖先無關(guān)性B:上下文無關(guān)性C:上下文相關(guān)性D:位置不變性

答案:祖先無關(guān)性###上下文無關(guān)性###位置不變性

第八章單元測試

義元理論核心思想是自然語言中包含非常少部分的詞語,這些詞語可以用于解釋絕大部分詞匯的意義。()

A:錯B:對

答案:對“有機(jī)器人都是紅色的”對應(yīng)的謂詞公式是(?X)[ROBOT(X)∧COLOR(X,RED)]。()

A:對B:錯

答案:對詞頻-逆文檔頻率(TF-IDF)和fastText是篇章表示模型。()

A:錯B:對

答案:對詞匯語義理論包含哪些?()。

A:框架語義學(xué)B:義元理論C:語義成分分析D:語義場理論

答案:框架語義學(xué)###義元理論###語義成分分析###語義場理論句子之間存在哪些語義關(guān)系?()。

A:預(yù)設(shè)關(guān)系B:反義關(guān)系C:蘊(yùn)含關(guān)系D:同義關(guān)系

答案:預(yù)設(shè)關(guān)系###反義關(guān)系###蘊(yùn)含關(guān)系###同義關(guān)系常用的語義表示法包含哪些?()。

A:測設(shè)已知高程B:測設(shè)已知水平距離C:測設(shè)已知水平角度D:測設(shè)已知坡度E:測設(shè)平面點(diǎn)位

答案:測設(shè)已知水平距離###測設(shè)已知水平角度###測設(shè)平面點(diǎn)位

第九章單元測試

語法銜接手段包含哪些?()

A:省略(Ellipsis)B:替代(Substitution)C:連接(Conjunction)D:照應(yīng)(Reference)

答案:省略(Ellipsis)###替代(Substitution)###連接(Conjunction)###照應(yīng)(Reference)篇章同時具有線性結(jié)構(gòu)和等級結(jié)構(gòu)。()

A:錯B:對

答案:對隱式篇章關(guān)系是除顯式篇章關(guān)系以外,需要靠讀者通過推斷判斷的篇章關(guān)系。()

A:錯B:對

答案:對在PDTB顯式關(guān)系中,Arg1一般為句法上關(guān)聯(lián)的論據(jù),Arg2則為另一個論據(jù)。()

A:對B:錯

答案:錯基于表述對的指代消解核心思想是將該任務(wù)轉(zhuǎn)換為二分類問題,分別對每個表述與其所有先行詞所構(gòu)成的表述對是否構(gòu)成指代關(guān)系進(jìn)行分類。()

A:對B:錯

答案:對

第十章單元測試

常見的數(shù)據(jù)平滑方法包含哪些?()

A:Witten-Bell平滑B:Katz平滑C:古德-圖靈估計(jì)法D:加法平滑

答案:Witten-Bell平滑###Katz平滑###古德-圖靈估計(jì)法###加法平滑語言模型是計(jì)算給定的詞序列w1w2...wm作為一個句子出現(xiàn)的可能性大小。()

A:對B:錯

答案:對循環(huán)神經(jīng)網(wǎng)絡(luò)語言模型沿用了馬爾可夫假設(shè)。()

A:對B:錯

答案:錯前饋神經(jīng)網(wǎng)絡(luò)語言模型不再基于馬爾可夫假設(shè)。()

A:錯B:對

答案:錯交叉熵和困惑度越小,語言模型性能就越好。()

A:對B:錯

答案:對

第十一章單元測試

分布式表示直接使用低維、稠密、連續(xù)的向量表示詞,通過“自監(jiān)督”的方法直接學(xué)習(xí)詞向量。()

A:錯B:對

答案:對Word2Vec中的Skip-Gram模型是根據(jù)中間詞獨(dú)立地預(yù)測周圍詞(上下文)。()

A:錯B:對

答案:對分布式表示有哪些缺點(diǎn)?()

A:訓(xùn)練速度慢B:增加新語料庫困難C:不易擴(kuò)展到短語表示D:不易擴(kuò)展到句子表示

答案:訓(xùn)練速度慢###增加新語料庫困難###不易擴(kuò)展到短語表示###不易擴(kuò)展到句子表示關(guān)于Word2vec和GloVe,說法正確的是?()

A:Word2Vec利用詞向量對“詞-上下文”共現(xiàn)矩陣進(jìn)行預(yù)測(或回歸)B:GloVe關(guān)注局部共現(xiàn)C:Word2Vec關(guān)注局部共現(xiàn)D:GloVe利用詞向量對“詞-上下文”共現(xiàn)矩陣進(jìn)行預(yù)測(或回歸)

答案:Word2Vec關(guān)注局部共現(xiàn)###GloVe利用詞向量對“詞-上下文”共現(xiàn)矩陣進(jìn)行預(yù)測(或回歸)ELMo有哪些特點(diǎn)?()

A:魯棒B:動態(tài)(上下文相關(guān))C:靜態(tài)(上下文無關(guān))D:層次

答案:魯棒###動態(tài)(上下文相關(guān))###層次

第十二章單元測試

預(yù)訓(xùn)練模型包含哪些要素?()

A:大數(shù)據(jù)B:大算力C:小模型D:大模型

答案:大數(shù)據(jù)###大算力###大模型BigBird使用的注意力模式,正確的是?()

A:局部注意力B:全局注意力C:滑動窗口注意力D:隨機(jī)注意力

答案:全局注意力###滑動窗口注意力###隨機(jī)注意力BERTBase版本包含多少層Transformer模型?()

A:36B:72C:12D:24

答案:12BERT的輸入表示不包含哪項(xiàng)?()

A:詞向量B:塊向量C:句子向量D:位置向量

答案:句子向量TextBrewer工具包提供了方便、快捷、易用的知識蒸餾框架,通過少量性能損失換取大幅速度提升。()

A:錯B:對

答案:對

第十三章單元測試

多模態(tài)摘要包含哪些?()

A:多模態(tài)商品摘要B:多模態(tài)新聞?wù)狢:教學(xué)視頻摘要D:視頻會議摘要

答案:多模態(tài)商品摘要###多模態(tài)新聞?wù)?##教學(xué)視頻摘要###視頻會議摘要多模態(tài)對話與視覺對話的差異包含哪些?()

A:模型可能需要查詢外部領(lǐng)域知識庫才能回答用戶的問題B:用戶問題和模型的回答可能是文本的、圖像的或圖文結(jié)合的C:多模態(tài)對話給定的輸入圖像可能是多幅的D:隨著對話的推進(jìn),圖像是不斷更新的

答案:模型可能需要查詢外部領(lǐng)域知識庫才能回答用戶的問題###用戶問題和模型的回答可能是文本的、圖像的或圖文結(jié)合的###多模態(tài)對話給定的輸入圖像可能是多幅的###隨著對話的推進(jìn),圖

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論