人工智能自然語言技術(shù)練習(xí)(習(xí)題卷13)_第1頁
人工智能自然語言技術(shù)練習(xí)(習(xí)題卷13)_第2頁
人工智能自然語言技術(shù)練習(xí)(習(xí)題卷13)_第3頁
人工智能自然語言技術(shù)練習(xí)(習(xí)題卷13)_第4頁
人工智能自然語言技術(shù)練習(xí)(習(xí)題卷13)_第5頁
已閱讀5頁,還剩16頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡介

試卷科目:人工智能自然語言技術(shù)練習(xí)人工智能自然語言技術(shù)練習(xí)(習(xí)題卷13)PAGE"pagenumber"pagenumber/SECTIONPAGES"numberofpages"numberofpages人工智能自然語言技術(shù)練習(xí)第1部分:單項(xiàng)選擇題,共45題,每題只有一個正確答案,多選或少選均不得分。[單選題]1.以下哪個是激活函數(shù)呢?A)sigmodeB)tanhC)EELUD)PLU答案:B解析:[單選題]2.關(guān)于HMM的解碼問題,用什么算法處理A)前向算法B)后向算法C)Viterbi算法D)Baum-Welch算法答案:C解析:[單選題]3.概率圖模型中的有向圖模型和無向圖模型有什么相同的地方A)都是轉(zhuǎn)換成了概率相加的形式B)將復(fù)雜的聯(lián)合分布分解為多個因子相加C)將復(fù)雜的聯(lián)合分布分解為多個因子的乘積D)以上所有答案:C解析:[單選題]4.下面哪一個說法更能解釋隨機(jī)梯度下降的原理A)隨機(jī)賦值,祈禱它們是正確的B)搜索所有權(quán)重和偏差的組合,直到得到最佳值C)賦予一個初始值,通過檢查跟最佳值的差值,然后迭代更新權(quán)重D)以上都不正確答案:C解析:[單選題]5.以下哪個不屬于無監(jiān)督學(xué)習(xí)A)聚類B)降維C)回歸算法D)PCA答案:C解析:[單選題]6.tf.Graph.get_operations()的作用是什么A)返回圖中的操作節(jié)點(diǎn)列表B)為節(jié)點(diǎn)創(chuàng)建層次化的名稱,并返回一個上下文管理器C)返回圖中的操作節(jié)點(diǎn)列表D)完成圖的構(gòu)建,即將其設(shè)置為只讀模式答案:C解析:[單選題]7.提取關(guān)鍵詞的常見方法是()A)詞頻B)標(biāo)簽C)分詞D)關(guān)鍵字答案:A解析:[單選題]8.()函數(shù)用于搜索搭配詞語。A)concordanceB)common_contextsC)collocationsD)Sorted答案:C解析:[單選題]9.KS檢驗(yàn)與卡方檢驗(yàn)的相同點(diǎn)A)處理方式相同B)得到的效果相同C)二者都用于類別數(shù)據(jù)D)都采用實(shí)際頻數(shù)和期望頻數(shù)只差進(jìn)行檢驗(yàn)答案:D解析:[單選題]10.relu是常用的激活函數(shù),它可以將小于()的數(shù)輸出為0A)-1B)0C)1D)x答案:B解析:[單選題]11.能通過對過去和現(xiàn)在已知狀況的分析,推斷未來可能發(fā)生的情況的專家系統(tǒng)是()A)修理專家系統(tǒng)B)預(yù)測專家系統(tǒng)C)調(diào)試專家系統(tǒng)D)規(guī)劃專家系統(tǒng)答案:B解析:[單選題]12.通過(1,3)(2,5)(3,7)(4,9)這些數(shù)據(jù)可以構(gòu)建怎樣的線性函數(shù)A)Y=W*X+bB)Y=lnXC)Y=X2D)Y=K*X2答案:A解析:[單選題]13.One-Hot是怎樣的一種向量化表達(dá)方式A)分布式表示B)基于矩陣的表示C)基于神經(jīng)網(wǎng)絡(luò)的表示D)離散型表示答案:D解析:[單選題]14.評估回歸模型的指標(biāo),用哪個?A)A:FR2B)B:MFFEC)C:MSED)D:ABC全錯答案:C解析:[單選題]15.深度學(xué)習(xí)中的?超參數(shù)?指哪個?A)隱藏層的大小B)激活值C)權(quán)重D)偏置答案:A解析:[單選題]16.tf開始執(zhí)行每個變量里的初始化操作的函數(shù)是哪個A)variables_initializer()B)global_variables_initializer()C)sess.runD)global_initializer()答案:B解析:[單選題]17.什么情況下神經(jīng)網(wǎng)絡(luò)模型被稱為深度學(xué)習(xí)模型?A)加入更多層,使神經(jīng)網(wǎng)絡(luò)的深度增加B)有維度更高的數(shù)據(jù)C)當(dāng)這是一個圖形識別的問題時D)以上都不正確答案:A解析:[單選題]18.以下哪個函數(shù)表示雙曲正切激活函數(shù)?A)ReluB)sigmoidC)tanhD)sin答案:C解析:[單選題]19.以下幾個網(wǎng)絡(luò)在NLP中最為常用的是哪個?A)CNNB)NNC)RNND)SVM答案:C解析:[單選題]20.以下選項(xiàng)關(guān)于神經(jīng)網(wǎng)絡(luò)中,在對超參數(shù)的選擇和調(diào)試中,其中最重要的參數(shù)應(yīng)該是什么?A)mini-Batch的大小B)動量梯度下降的參數(shù)βC)學(xué)習(xí)率αD)隱藏層數(shù)目答案:C解析:[單選題]21.tensoflow中的函數(shù)Graph.get_operations()的作用是什么A)返回圖中的操作節(jié)點(diǎn)列表B)為節(jié)點(diǎn)創(chuàng)建層次化的名稱,并返回一個上下文管理器C)完成圖的構(gòu)建,即將其設(shè)置為只讀模式D)返回圖中的操作節(jié)點(diǎn)列表答案:D解析:[單選題]22.什么是決策樹,如何去理解決策樹?A)一種樹形結(jié)構(gòu),其中每個內(nèi)部節(jié)點(diǎn)表示一個屬性上的測試,每個分支代表一個測試輸出,每個葉節(jié)點(diǎn)代表一種類別B)兩個變量之間的關(guān)系是二次函數(shù)的關(guān)系,圖像是條拋物線C)兩個變量之間的關(guān)系是一次函數(shù)關(guān)系的關(guān)系D)兩個變量之間的關(guān)系是指數(shù)函數(shù)的關(guān)系答案:A解析:[單選題]23.關(guān)于損失函數(shù)的意義說法正確的是A)損失函數(shù)越小,模型魯棒性越好B)損失函數(shù)越小,模型魯棒性越差C)損失函數(shù)越大,模型魯棒性越好D)不確定答案:A解析:[單選題]24.ELMO中使用的特征提取器是什么A)單向LSTMB)TransformerC)雙向LSTMD)CNN答案:C解析:[單選題]25.自然語言處理主要是關(guān)于()的技術(shù)。A)機(jī)械學(xué)B)通信學(xué)C)物理學(xué)D)邏輯學(xué)答案:D解析:[單選題]26.對于超參數(shù)隨機(jī)取值指的是?A)隨機(jī)選擇標(biāo)尺取值B)隨機(jī)取值就是有效范圍內(nèi)隨機(jī)均勻取值C)選擇合適的標(biāo)尺進(jìn)行取值D)隨機(jī)的進(jìn)行均勻的取值答案:C解析:[單選題]27.Word2Vec的訓(xùn)練方式屬于__?A)無監(jiān)督B)有監(jiān)督C)半監(jiān)督D)自主學(xué)習(xí)答案:A解析:[單選題]28.不屬于中文的實(shí)體邊界識別變得更加有挑戰(zhàn)性原因的是)。A)中文詞數(shù)量繁多B)中文詞靈活多變C)中文詞的嵌套情況復(fù)雜D)中文詞存在簡化表達(dá)現(xiàn)象答案:A解析:[單選題]29.以下幾個關(guān)于LightGBM說法正確的是A)基于Histogram的決策樹算法B)不支持并行C)不支持分布式D)效率高但是精度低答案:A解析:[單選題]30.零均值歸一化是怎么做的A)原始數(shù)據(jù)進(jìn)行線性變換B)使結(jié)果映射到[0,1]的范圍C)實(shí)現(xiàn)對原始數(shù)據(jù)的等比縮放D)將原始數(shù)據(jù)映射到均值為0、標(biāo)準(zhǔn)差為1的分布上答案:D解析:[單選題]31.以下關(guān)于GBDT說的是它的優(yōu)點(diǎn),并且說法正確的是A)GBDT在高維稀疏的數(shù)據(jù)集上,表現(xiàn)不如支持向量機(jī)或者神經(jīng)網(wǎng)絡(luò)。B)GBDT在處理文本分類特征問題上,相對其他模型的優(yōu)勢不如它在處理數(shù)值特征時明顯。C)訓(xùn)練過程需要串行訓(xùn)練,只能在決策樹內(nèi)部采用一些局部并行的手段提高訓(xùn)練速度。D)預(yù)測階段的計(jì)算速度快,樹與樹之間可并行化計(jì)算。答案:D解析:[單選題]32.以下幾個描述中,關(guān)于優(yōu)化算法減小學(xué)習(xí)率的原因,說法正確的是?A)一種默認(rèn)定式B)減少內(nèi)存容量C)避免在最優(yōu)解附近大幅度擺動D)減少迭代次數(shù)答案:C解析:[單選題]33.哪些是產(chǎn)生式模型A)HMMB)SVMC)CRFD)MEMM答案:A解析:[單選題]34.線性整流函數(shù)(RectifiedLinearUnit,ReLU),又稱修正線性單元A)Sigmoid函數(shù)B)tanh函數(shù)C)ReLUD)leakyReLU答案:C解析:[單選題]35.造成RNN梯度消失與下面哪個因素有關(guān)A)激活函數(shù)求導(dǎo)B)學(xué)習(xí)率C)批處理數(shù)D)網(wǎng)絡(luò)層數(shù)答案:A解析:[單選題]36.Fasttext做分類,會有以下哪個優(yōu)點(diǎn)A)網(wǎng)絡(luò)層數(shù)較多B)復(fù)雜度高C)精度高D)快速答案:D解析:[單選題]37.以下四個選項(xiàng)中,BP算法屬于以下哪一類A)梯度上升問題B)梯度優(yōu)化C)梯度消失問題D)梯度下降法答案:D解析:[單選題]38.特征工程本質(zhì)上是一個什么樣的過程A)特征工程是一個表示和展現(xiàn)數(shù)據(jù)的過程B)特征工程是一個文本分類的過程C)特征工程是一個回歸過程D)特征工程是一個聚類過程答案:A解析:[單選題]39.下列哪個不是體現(xiàn)出的隨機(jī)森林的隨機(jī)性A)樣本的隨機(jī)性(Bagging):在Bagging時,隨機(jī)選擇樣本B)特征的隨機(jī)性(Randomsubspace)C)隨機(jī)特征組合(Randomcombination)D)隨機(jī)代價函數(shù)答案:D解析:[單選題]40.以下哪個操作可以停止樹的循環(huán)A)加入L2正則B)加入L1正則C)設(shè)置樹的最大深度D)以上都可以答案:C解析:[單選題]41.熵表示的是什么A)自變量和因變量之間的關(guān)系B)表示數(shù)據(jù)的多少C)表示數(shù)據(jù)中心包含信息量的大小D)不確定答案:C解析:[單選題]42.使用以下哪種方式編碼的詞向量包含語義信息A)one-hotB)bagofwordsC)word2vecD)TF-IDF答案:C解析:[單選題]43.tf.Variable(tf.random_normal([20,10,5,16])),在該操作中,關(guān)于定義的卷積核高度是多少?A)10B)6C)16D)20答案:D解析:第2部分:多項(xiàng)選擇題,共21題,每題至少兩個正確答案,多選或少選均不得分。[多選題]44.下述相似度公式正確的是?A)漢明距離相似度:1-漢明距離/關(guān)鍵詞長度B)歐幾里得距離相似度:1/(1+歐幾里得距離)C)曼哈頓距離相似度:1/(1+曼哈頓距離)D)編輯距離相似度:(1-編輯距離/兩者之間長度)答案:BC解析:[多選題]45.關(guān)于KNN算法,以下哪些描述沒有問題?A)A:當(dāng)樣本不平衡時,如一個類的樣本容量很大,而其他類樣本容量很小時,有可能導(dǎo)致當(dāng)輸入一個新樣本時,該樣本的K個鄰居中大容量類的樣本占多數(shù)。B)B:計(jì)算量較大,因?yàn)閷γ恳粋€待分類的文本都要計(jì)算它到全體已知樣本的距離,才能求得它的K個最近鄰點(diǎn)。C)C:使用KDTree可以加快k近鄰的搜索效率D)D:可理解性差,無法給出像決策樹那樣的規(guī)則。答案:ABC解析:[多選題]46.以下四個選項(xiàng)中屬于Bert家族成員的有哪些A)albertB)RoBertaC)Sentence-BertD)SpanBert答案:ABCD解析:[多選題]47.以下哪些屬于長短期記憶網(wǎng)絡(luò)A)輸入門B)輸出門C)遺忘門D)重置門答案:ABC解析:[多選題]48.HMM和CRF在工業(yè)應(yīng)用中都很常見,那么他們的區(qū)別是什么A)前者描述的是P(X,Y)=P(X|Y)*P(Y),是generativemodelB)后者描述的是P(Y|X),是discriminativemodelC)前者你要加入對狀態(tài)概率分布的先驗(yàn)知識,而后者完全是datadriven.D)沒有什么區(qū)別答案:ABCD解析:[多選題]49.常用的dropout函數(shù),有哪些特性?下列描述正確的是?A)具有正則化功能B)具有激活函數(shù)功能C)常用于圖像處理D)機(jī)器學(xué)習(xí)算法答案:ABC解析:[多選題]50.自然語言處理應(yīng)用?A)客服系統(tǒng)B)查找同義詞C)道標(biāo)識別D)文本挖掘答案:ABD解析:[多選題]51.目前較常用的無監(jiān)督關(guān)鍵詞提取算法有()A)TF-IDF算法B)TextRank算法C)主題模型算法D)以上都不對答案:ABC解析:[多選題]52.關(guān)于LightGBM的優(yōu)點(diǎn),說法正確的是A)更快的訓(xùn)練速度B)更低的內(nèi)存消耗C)更好的準(zhǔn)確率D)分布式支持,可以快速處理海量數(shù)據(jù)答案:ABCD解析:[多選題]53.對模型進(jìn)行調(diào)優(yōu)是可以使用以下哪種方法A)調(diào)整學(xué)習(xí)率B)選擇合適的算法模型C)良好的文本表示D)不確定答案:ABC解析:[多選題]54.聚類的相似度計(jì)算方法A)SVMB)余弦相似度C)歐氏距離D)Ligist答案:BC解析:[多選題]55.以下關(guān)于NNLM的幾種說法正確的有哪些A)從語言模型出發(fā),將模型最優(yōu)化的過程轉(zhuǎn)換為求詞向量表示的過程B)使用了非對稱的前項(xiàng)窗口C)滑動窗口便利整個語料庫D)計(jì)算量正比語料庫的大小答案:ABCD解析:[多選題]56.卷積神經(jīng)網(wǎng)絡(luò)中的卷積操作分別都是有哪些部分構(gòu)成的A)卷積層B)RELUC)POOLING層D)pedding答案:ABC解析:[多選題]57.如果要預(yù)處理的特征是多個特征的時候,可以怎么進(jìn)行A)PCA降維B)LDA降維C)特征選擇D)衍生變量(生成更有意義的特征)答案:ABCD解析:[多選題]58.GBDT中如果按照高維的ID特征做分裂時都有什么缺點(diǎn)A)計(jì)算量大B)子樹的泛化能力弱C)容易過擬合D)以上都正確答案:ABCD解析:[多選題]59.DSSM的核心優(yōu)勢有哪些A)可以很好的把握語義焦點(diǎn)B)可以對上下文語義進(jìn)行很好地建模C)可以通過語義很好的計(jì)算出相似度D)不確定答案:ABC解析:[多選題]60.以下哪些方法可以解決過擬合問題A)增加數(shù)據(jù)量B)加入正則化C)降低模型復(fù)雜度D)收斂之前迭代答案:ABCD解析:[多選題]61.關(guān)于集成學(xué)習(xí)算法,下面是Boosting的算法都有哪些??A)A:RandomForestClassifierB)B:AdaboostC)C:XgboostD)D:RandomForestRegressor答案:BC解析:[多選題]62.常用的優(yōu)化器包括哪些A)AdamB)SGDC)momentumD)Ridge答案:ABC解析:[多選題]63.為什么要必須進(jìn)行降維A)多重共線性和預(yù)測變量之間相互關(guān)聯(lián)。多重共線性會導(dǎo)致解空間的不穩(wěn)定,從而可能導(dǎo)致結(jié)果的不連貫。B)高維空間本身具有稀疏性。一維正態(tài)分布有68%的值落于正負(fù)標(biāo)準(zhǔn)差之間,而在十維空間上只有2%。C)過多的變量,對查找規(guī)律造成冗余麻煩。D)僅在變量層面上分析可能會忽略變量之間的潛在聯(lián)系。例如幾個預(yù)測變量可能落入僅反映數(shù)據(jù)某一方面特征的一個組內(nèi)。答案:ABCD解析:[多選題]64.生成式模型在統(tǒng)計(jì)學(xué)角度與判別式模型相比有什么優(yōu)點(diǎn)A)適用較多類別的識別B)能更充分利用先驗(yàn)知識C)分類邊界更靈活D)研究單類問題靈活性強(qiáng)答案:BD解析:第3部分:判斷題,共24題,請判斷題目是否正確。[判斷題]65.隱馬爾科夫模型的優(yōu)點(diǎn)是該方法對過程的狀態(tài)預(yù)測效果良好,可考慮用于生產(chǎn)現(xiàn)場危險(xiǎn)狀態(tài)的預(yù)測。缺點(diǎn)是不適宜用于系統(tǒng)中長期預(yù)測A)正確B)錯誤答案:對解析:[判斷題]66.tanh函數(shù)是sigmoid的向下平移和伸縮后的結(jié)果A)正確B)錯誤答案:對解析:[判斷題]67.語句fromnltkimportword_tokenize是用于導(dǎo)入nltk中的英文詞性標(biāo)注模塊。錯A)正確B)錯誤答案:錯解析:[判斷題]68.感知機(jī)利用誤分類最小策略,求得分離超平面,不過此時的解有無窮多個。A)正確B)錯誤答案:對解析:[判斷題]69.將隱馬爾科夫模型表示成五元組的形式,其中V為發(fā)射概率集合。A)正確B)錯誤答案:錯解析:[判斷題]70.擴(kuò)展庫jieba的函數(shù)cut可以用來對中文文本進(jìn)行分詞并返回包含分詞結(jié)果的列表。對A)正確B)錯誤答案:對解析:[判斷題]71.HMM的參數(shù)估計(jì)可使用最大似然估計(jì)方法。A)正確B)錯誤答案:錯解析:[判斷題]72.刪除插值和katz回退都使用低階分布的信息來確定計(jì)數(shù)為0的n元語法的概率A)正確B)錯誤答案:對解析:[判斷題]73.英語BNP可以分成以下兩類:由序數(shù)詞,基數(shù)詞和限定詞修飾的名詞短語;由形容詞和名詞修飾的名詞短語A)正確B)錯誤答案:對解析:[判斷題]74.深度學(xué)習(xí)屬于連接主義學(xué)派的A)正確B)錯誤答案:對解析:[判斷題]75.反向傳播是指對神經(jīng)網(wǎng)絡(luò)沿著從輸入層到輸出層的順序,依次計(jì)算并存儲模型的中間變量(包括輸出)A)正確B)錯誤答案:錯解析:[判斷題]76.在做NLP任務(wù)的時候,可以直接把漢字作為模型輸入A)正確B)錯誤答案:錯解析:[判斷題]77.RNN是NLP的核心網(wǎng)絡(luò)之一A)正確B)錯誤答案:對解析:[判斷題]78.如果訓(xùn)練集較小,直接使用batch梯度下降法A)正確B)錯誤答案:對解析:[判斷題]79.相比單層的神經(jīng)網(wǎng)絡(luò),引入多層的神經(jīng)網(wǎng)絡(luò)就可以使線性模型變成非線性模型,來擬合非線性的結(jié)構(gòu)A)正確B)錯誤答案:對解析:[判斷題]80.概率圖模型包括了樸素貝葉斯模型、最大熵模型、隱馬爾可夫模型、條件隨機(jī)場、主題模型等,在機(jī)器學(xué)習(xí)的諸多場景中都有著廣泛的應(yīng)用。A)正確B)錯誤答案:對解析:[判斷題]81.文本校對系統(tǒng)的任務(wù)是檢查文本中的語法、詞匯和文字方面可能存在的錯誤,報(bào)告給用戶并提出修改建議A)正確B)錯誤答案:對解析:[判斷題]82.LSTM網(wǎng)絡(luò)可應(yīng)用于文本分類任務(wù)。對A)正確B)錯誤答案:對解析:[判斷題]83.自然語言處理是一門融語言學(xué)、計(jì)算機(jī)科學(xué)、數(shù)學(xué)、心理學(xué)、邏輯學(xué)、聲學(xué)于一體的科學(xué),而以聲學(xué)為基礎(chǔ)。()A)正確B)錯誤答案:錯解析:[判斷題]84.感知器分類器最早由Rosenblatt提出(Rosenblatt,1962),其又被稱作正確驅(qū)動的方法。A)正確B)錯誤答案:錯解析:[判斷題]85.EM中的M步,結(jié)合E步求出的隱含變量條件概率,求出似然函數(shù)下界函數(shù)的最大值A(chǔ))正確B)錯誤答案:對解析:[判斷題]86.CBOW中是使用中心詞預(yù)測上下文單詞的A)正確B)錯誤答案:錯解析:[判斷題]87.機(jī)器學(xué)習(xí)一般指深度神經(jīng)網(wǎng)絡(luò),端到端的學(xué)習(xí)A)正確B)錯誤答案:錯解析:[判斷題]88.用任何一個漢字在語料中出現(xiàn)的次數(shù),除以所有漢字出現(xiàn)的總次數(shù),就可以得到這個漢字的頻率。A)正確B)錯誤答案:對解析:第4部分:問答題,共10題,請

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論