人工智能自然語言技術(shù)練習(xí)(習(xí)題卷7)_第1頁
人工智能自然語言技術(shù)練習(xí)(習(xí)題卷7)_第2頁
人工智能自然語言技術(shù)練習(xí)(習(xí)題卷7)_第3頁
人工智能自然語言技術(shù)練習(xí)(習(xí)題卷7)_第4頁
人工智能自然語言技術(shù)練習(xí)(習(xí)題卷7)_第5頁
已閱讀5頁,還剩49頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡介

試卷科目:人工智能自然語言技術(shù)練習(xí)人工智能自然語言技術(shù)練習(xí)(習(xí)題卷7)PAGE"pagenumber"pagenumber/SECTIONPAGES"numberofpages"numberofpages人工智能自然語言技術(shù)練習(xí)第1部分:單項(xiàng)選擇題,共116題,每題只有一個(gè)正確答案,多選或少選均不得分。[單選題]1.sigmoid激活函數(shù)在反向傳播是可能會(huì)造成梯度消失,那么以下哪個(gè)激活函數(shù)可以對(duì)其進(jìn)行改進(jìn)A)coshB)sinC)tanhD)sigmoid答案:C解析:[單選題]2.BERT中遮蔽了多少詞A)10%B)12%C)15%D)20%答案:C解析:[單選題]3.()函數(shù)用于搜索搭配詞語。A)concordanceB)common_contextsC)collocationsD)Sorted答案:C解析:[單選題]4.什么是SVM,如何去理解SVMA)一種樹形結(jié)構(gòu),其中每個(gè)內(nèi)部節(jié)點(diǎn)表示一個(gè)屬性上的測試,每個(gè)分支代表一個(gè)測試輸出,每個(gè)葉節(jié)點(diǎn)代表一種類別B)兩個(gè)變量之間的關(guān)系是二次函數(shù)的關(guān)系,圖像是條拋物線C)兩個(gè)變量之間的關(guān)系是一次函數(shù)關(guān)系的關(guān)系D)它是一種二類分類模型,其基本模型定義為特征空間上的間隔最大的線性分類器,其學(xué)習(xí)策略便是間隔最大化,最終可轉(zhuǎn)化為一個(gè)凸二次規(guī)劃問題的求解答案:D解析:[單選題]5.以下幾種說法當(dāng)中,關(guān)于隨機(jī)森林的說法錯(cuò)誤的是A)隨機(jī)森林的結(jié)果是多數(shù)表決表決的B)隨機(jī)森林對(duì)異常值不敏感C)隨機(jī)森林是減少模型的方差D)組成隨機(jī)森林的樹可以串行生成答案:D解析:[單選題]6.怎樣解決梯度消失A)對(duì)于RNN,可以通過梯度截?cái)?,避免梯度消失B)可以通過添加正則項(xiàng),避免梯度爆炸C)使用LSTM等自循環(huán)和門控制機(jī)制,避免梯度爆炸D)優(yōu)化激活函數(shù),譬如將sigmold改為relu,避免梯度消失答案:D解析:[單選題]7.Transformer的編碼層是總共是有幾層構(gòu)成的A)1B)2C)3D)4答案:B解析:[單選題]8.小概率事件怎么理解?()A)發(fā)生可能性不大的事件B)發(fā)生可能性大的事件C)發(fā)生可能性不去確定的事件D)以上都正確答案:A解析:[單選題]9.SVM中的泛化誤差代表什么?A)分類超平面與支持向量的距離B)SVM對(duì)新數(shù)據(jù)的預(yù)測準(zhǔn)確度C)SVM中的誤差閾值D)不確定答案:B解析:[單選題]10.大五碼非漢字區(qū)第一字節(jié)ASCII碼的范圍()A)161-163B)64-126C)164-249D)161-254答案:A解析:[單選題]11.基于()的n-gram模型參數(shù)空間最小,可以構(gòu)造高元模型,用于描述長距離的語言約束關(guān)系A(chǔ))詞性B)詞C)詞自動(dòng)聚類D)其余三項(xiàng)都可以答案:A解析:[單選題]12.以下哪種模型是自然語言處理后Bert時(shí)代的預(yù)訓(xùn)練模型A)Word2VecB)RNNC)XLNetD)LSTM答案:C解析:[單選題]13.樸素貝葉斯分類的思想A)使用訓(xùn)練數(shù)據(jù)構(gòu)造決策樹進(jìn)行分類B)利用先驗(yàn)知識(shí)層層迭代,窮舉所有的可能C)利用貝葉斯定理,使用先驗(yàn)概率求后驗(yàn)概率D)相似的對(duì)象分到一類中答案:C解析:[單選題]14.詞法分析器的輸出結(jié)果就是()A)記號(hào)B)相應(yīng)條目在符號(hào)表中的位置相應(yīng)條目在符號(hào)表中的位置C)記號(hào)與屬性二元組D)屬性值答案:C解析:[單選題]15.關(guān)系抽取中通過實(shí)體去尋找句子中的幾元組模型A)1B)2C)3D)4答案:C解析:[單選題]16.下列幾個(gè)說法表示K-NN的優(yōu)點(diǎn)?A)對(duì)內(nèi)存要求較高,因?yàn)樵撍惴ù鎯?chǔ)了所有訓(xùn)練數(shù)據(jù)B)簡單易用,相比其他算法,KNN算是比較簡潔明了的算法。即使沒有很高的數(shù)學(xué)基礎(chǔ)也能搞清楚它的原理。C)預(yù)測階段可能很慢D)對(duì)異常值敏感答案:B解析:[單選題]17.步長strides=[1,3,3,1]能是張量縱向移動(dòng)()A)1像素B)4像素C)3像素D)2像素答案:C解析:[單選題]18.LSTM可以做特征提取,在以下的幾個(gè)模型當(dāng)中,哪個(gè)模型中使用到了A)bertB)GPTC)GPT-2D)ELMO答案:D解析:[單選題]19.softmax是多分類中常用的函數(shù),它又叫什么函數(shù)A)概率B)歸一化C)損失函數(shù)D)空間答案:B解析:[單選題]20.屬于特征提取方法的是()。A)BOW模型B)數(shù)據(jù)標(biāo)準(zhǔn)化C)訓(xùn)練模型D)模型融合答案:A解析:[單選題]21.線性回歸一般形式為Y=W*X+b,值域在[-∞,+∞],那么可以通過以下哪種方式進(jìn)行分類呢A)加入非線性變換sigmoidB)再加入一個(gè)線性變化C)加入一個(gè)正則化D)使用均方誤差作為損失答案:A解析:[單選題]22.tensorflow里的函數(shù)con1d是進(jìn)行什么操作A)二維卷積B)一維卷積C)GRU操作D)lstm操作答案:B解析:[單選題]23.什么是特征工程,如何去理解特征工程A)特征工程就是對(duì)原始的數(shù)據(jù)做一系列的處理B)特征工程就是使用各種算法實(shí)現(xiàn)結(jié)果C)特征工程就是聚類和降維D)特征工程就是回歸和分類答案:A解析:[單選題]24.以下關(guān)于LDA和PCA兩個(gè)模型的相同點(diǎn)描述正確的是?A)兩者均可以對(duì)數(shù)據(jù)進(jìn)行降維B)都屬于無監(jiān)督學(xué)習(xí)C)都屬于有監(jiān)督學(xué)習(xí)D)都可以即做分類又做回歸答案:A解析:[單選題]25.以下四個(gè)選項(xiàng)中描述的是PCA缺點(diǎn)的是哪個(gè)?A)僅僅需要以方差衡量信息量,不受數(shù)據(jù)集以外的因素影響B(tài))各主成分之間正交,可消除原始數(shù)據(jù)成分間的相互影響的因素。C)主成分各個(gè)特征維度的含義具有一定的模糊性,不如原始樣本特征的解釋性強(qiáng)。D)計(jì)算方法簡單,主要運(yùn)算是特征值分解,易于實(shí)現(xiàn)。答案:C解析:[單選題]26.tf.Graph.finalize()的作用是什么A)返回圖中的操作節(jié)點(diǎn)列表B)為節(jié)點(diǎn)創(chuàng)建層次化的名稱,并返回一個(gè)上下文管理器C)返回圖中的操作節(jié)點(diǎn)列表D)完成圖的構(gòu)建,即將其設(shè)置為只讀模式答案:D解析:[單選題]27.在調(diào)整NNLM的權(quán)重時(shí),使用的方法是什么A)BP+SGDB)BPC)SGDD)BP+BGD答案:A解析:[單選題]28.掃描器所完成的任務(wù)就是從字符串形式的源程序中識(shí)別出一個(gè)個(gè)具有獨(dú)立含義的最小語法單位即()A)字符B)單詞C)句子D)句型答案:B解析:[單選題]29.sigmoid激活函數(shù)的模型曲線是()?A)X型B)S型C)U型D)L型答案:B解析:[單選題]30.謂詞相關(guān)特征之一()A)動(dòng)詞原形B)語態(tài)C)父類框架D)謂語動(dòng)詞答案:B解析:[單選題]31.對(duì)于k-NN分類器,以下哪個(gè)陳述是正確的?A)k值越大,分類精度越好B)k值越小,決策邊界越光滑C)決策邊界是線性的D)k-NN不需要顯式的訓(xùn)練步驟答案:D解析:[單選題]32.XGBoost雖然也是個(gè)算法,但是這個(gè)算法的本質(zhì)其實(shí)是很么算法A)隨機(jī)森林B)GBDTC)線性回歸D)邏輯回歸答案:B解析:[單選題]33.使用了mini-batch后,可以得到怎樣的下降效果?A)損失函數(shù)值一直下降B)損失函數(shù)值總體趨勢下降C)比梯度下降速度快D)梯度下降不明顯答案:B解析:[單選題]34.現(xiàn)有一份大小為n的數(shù)據(jù)集,如果采用mini-batch的方式,那么它的大小應(yīng)該是多少A)1B)mC)0D)大于2,小于m答案:A解析:[單選題]35.交叉檢驗(yàn)的方法不包括以下幾項(xiàng)A)口頭信息、書面信息與實(shí)際狀況之間的驗(yàn)證B)不同數(shù)據(jù)和信息之間的關(guān)系的合理性驗(yàn)證C)不同時(shí)間的關(guān)聯(lián)數(shù)據(jù)之間的合理性驗(yàn)證D)同一個(gè)人對(duì)不同問題提供的信息的驗(yàn)證答案:D解析:[單選題]36.Word2Vec常用到中文同義詞替換,以下說法錯(cuò)誤的是A)Word2Vec基于概率統(tǒng)計(jì)B)Word2Vec結(jié)果符合當(dāng)前預(yù)料環(huán)境C)Word2Vec得到的都是語義上的同義詞D)Word2Vec受限于訓(xùn)練語料的數(shù)量和質(zhì)量答案:C解析:[單選題]37.多分類問題的最后一層一般用什么激活函數(shù)A)sigmoidB)tanhC)softmaxD)relu答案:C解析:[單選題]38.()根據(jù)文本的不同特征劃分為不同的類A)文本概括B)文本分類C)文本聚類D)都可以答案:C解析:[單選題]39.以下四個(gè)選項(xiàng)當(dāng)中,關(guān)于帶有深度限制的按葉子生長(leaf-wise)算法,主要做了什么事情,描述正確的是?A)增加了一個(gè)最大深度的限制,在保證高效率的同時(shí)防止過擬合B)先把連續(xù)的浮點(diǎn)特征值離散化成k個(gè)整數(shù),同時(shí)構(gòu)造一個(gè)寬度為k的直方圖C)不確定D)以上都正確答案:A解析:[單選題]40.決策樹算法的缺點(diǎn)是()。A)學(xué)習(xí)時(shí)間長,且效果不可保證B)易出現(xiàn)過擬合,易忽略數(shù)據(jù)集屬性的相關(guān)性C)時(shí)空復(fù)雜度高,樣本容量較小或數(shù)據(jù)集偏斜時(shí)容易誤分D)對(duì)非線性問題沒有通用解決方案答案:B解析:[單選題]41.概率圖中的有向邊表示的是什么A)表示單向的依賴B)表述互相依賴關(guān)系C)表示無依賴關(guān)系D)不確定答案:A解析:[單選題]42.決策樹有很多的優(yōu)點(diǎn),但是它也有缺點(diǎn)那么,構(gòu)建決策樹時(shí)有可能會(huì)造成什么缺點(diǎn)A)可能會(huì)對(duì)缺失值很敏感B)無法處理不相關(guān)的數(shù)據(jù)C)可能產(chǎn)生過渡匹配問題D)計(jì)算的復(fù)雜度很高答案:C解析:[單選題]43.LSTM的輸出有兩個(gè):當(dāng)前時(shí)刻LSTM輸出值、和()A)輸入門B)遺忘門C)當(dāng)前時(shí)刻的單元狀態(tài)D)更新門答案:C解析:[單選題]44.詞性標(biāo)注最困難的是:()A)兼類詞B)外來詞C)新詞D)未登錄詞答案:A解析:[單選題]45.神經(jīng)網(wǎng)絡(luò)的訓(xùn)練過程,經(jīng)常要做數(shù)據(jù)劃分,以下說法正確的是?A)可以不設(shè)置訓(xùn)練集B)可以不設(shè)置測試集C)可以不設(shè)置驗(yàn)證集D)不確定答案:C解析:[單選題]46.下列關(guān)于doc2vec算法的描述錯(cuò)誤的是?()A)DM模型在給定上下文和文檔向量的情況下預(yù)測單詞的概率B)DM模型在訓(xùn)練時(shí),首先將每個(gè)文檔的ID和語料庫中的所有詞初始化一個(gè)K維的向量C)DBOW模型的訓(xùn)練方法是忽略輸入的上下文,讓模型去預(yù)測段落中的隨機(jī)一個(gè)單詞D)在預(yù)測單詞的概率時(shí),利用了部分文檔的語義。答案:D解析:[單選題]47.SVM的應(yīng)用也很廣泛,支持向量機(jī)(SVM)是一個(gè)什么算法A)分類B)回歸C)聚類D)降維答案:A解析:[單選題]48.在決策樹的可視化中可以用以下哪個(gè)獲取決策樹葉子節(jié)點(diǎn)的個(gè)數(shù)A)plotTreeB)plotNodeC)getTreeDepthD)getNumLeafs答案:D解析:[單選題]49.異質(zhì)集成(系統(tǒng)中個(gè)體學(xué)習(xí)器的類型不同)中,個(gè)體學(xué)習(xí)器又被稱為?組建學(xué)習(xí)(componentlearner)?A)基學(xué)習(xí)器B)組建學(xué)習(xí)C)不能判斷D)以上都正確答案:B解析:[單選題]50.tanh的取值范圍是多少?A)+1和-1B)+0和-1C)+1和0D)+2和-2答案:A解析:[單選題]51.在自然語言中,主要應(yīng)用到的是深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)是以下哪個(gè)A)ANNB)CNNC)RNND)XNN答案:C解析:[單選題]52.在優(yōu)化算法中,學(xué)習(xí)率會(huì):A)保持不變B)持續(xù)減小C)持續(xù)增大D)不變答案:B解析:[單選題]53.NiLTK的安裝步驟為()。A)安裝NLP虛擬環(huán)境→安裝NLTK一→檢查是否存在NLTK→下載NLTK數(shù)據(jù)包B)安裝NLTK→安裝NLP虛擬環(huán)境→檢查是否存在NLTK→下載NLTK數(shù)據(jù)包C)安裝NLP虛擬環(huán)境一安裝NLTK一下載NLTK數(shù)據(jù)包一檢查是否存在NLTKD)下載NLTK數(shù)據(jù)包→安裝NLP虛擬環(huán)境→安裝NLTK→檢查是否存在NLTK答案:A解析:[單選題]54.關(guān)于機(jī)器學(xué)習(xí)的聚類中的肘部法則是指()A)就是從K值和代價(jià)函數(shù)J的二維圖中找出J下降變平滑的拐點(diǎn)對(duì)應(yīng)的K值。B)最大K值C)最小K值D)隨機(jī)K值答案:A解析:[單選題]55.常用的激活函數(shù),修正線性單元指的是以下哪個(gè)選項(xiàng)?A)sigmoidB)tanhC)reluD)leakyrelu答案:C解析:[單選題]56.可以實(shí)現(xiàn)關(guān)鍵詞歸一化的技術(shù)是__?A)詞形還原(Lemmatization)B)探測法(Soundex)C)余弦相似度(CosineSimilarity)D)N-grams答案:A解析:詞形還原有助于得到一個(gè)詞的基本形式,例如:playing->play,eating->eat等;其他選項(xiàng)的技術(shù)都有其他使用目的。[單選題]57.不屬于情感分析應(yīng)用的是()。A)信息檢索B)遠(yuǎn)程通信C)機(jī)器翻譯D)語音識(shí)別答案:B解析:[單選題]58.以下哪種方法中,模型參數(shù)不是根據(jù)在某個(gè)語料庫上通過統(tǒng)計(jì)計(jì)數(shù)得到。A)Witten-Bell算法B)Good-Turing估計(jì)C)扣留估計(jì)D)線性折扣算法答案:C解析:[單選題]59.NLP任務(wù)的標(biāo)準(zhǔn)流程中第一步是做什么A)預(yù)處理B)特征提取C)特征工程D)wordembedding答案:A解析:[單選題]60.下列哪個(gè)不屬于常用的文本分類的特征選擇算法?()A)卡方檢驗(yàn)值B)互信息C)信息增益D)主成分分析答案:D解析:[單選題]61.BeamSearch(集束搜索)的作用A)增加在空間的消耗B)增加搜索的時(shí)間C)減少準(zhǔn)確率D)減少搜索所占用的空間和時(shí)間答案:D解析:[單選題]62.處理文本詞的時(shí)候,經(jīng)常會(huì)遇到衡量詞不全面,那么TF-IDF可以怎么解決A)使用one-hotB)使用bagofwordC)使用Word2VecD)不確定答案:C解析:[單選題]63.Adam算法的核心是A)強(qiáng)化了RMSprop算法B)強(qiáng)化了動(dòng)量梯度算法C)同時(shí)使用Momentum和RMSprop算法D)沒有核心答案:C解析:[單選題]64.以下哪個(gè)算法,既可以做分類又可以做降維A)PCAB)LDAC)K-MeansD)SVM答案:D解析:[單選題]65.導(dǎo)出數(shù)據(jù)Data到微軟的Excel文件,pandas用到的方法是A)A:df.to_csv()B)B:df.to_excel()C)C:df.to_sql()D)D:df.to_json()答案:B解析:[單選題]66.tf.Graph.get_operations()的作用是什么A)返回圖中的操作節(jié)點(diǎn)列表B)為節(jié)點(diǎn)創(chuàng)建層次化的名稱,并返回一個(gè)上下文管理器C)返回圖中的操作節(jié)點(diǎn)列表D)完成圖的構(gòu)建,即將其設(shè)置為只讀模式答案:C解析:[單選題]67.在應(yīng)用高斯核SVM之前,通常都會(huì)對(duì)數(shù)據(jù)做正態(tài)化(normalization),下面對(duì)特征正態(tài)化的說法哪個(gè)是正確的?1.對(duì)特征做正態(tài)化處理后,新的特征將主導(dǎo)輸出結(jié)果2.正態(tài)化不適用于類別特征3.對(duì)于高斯核SVM,正態(tài)化總是有用A)1B)1和2C)1和3D)2和3答案:B解析:[單選題]68.專家系統(tǒng)是一個(gè)復(fù)雜的智能軟件,它處理的對(duì)象是用符號(hào)表示的知識(shí),處理的過程是()的過程。A)思考B)回溯C)推理D)遞歸答案:C解析:[單選題]69.語料庫的加工方式不包括A)人工方式B)半自動(dòng)方式C)自動(dòng)方式D)干預(yù)方式答案:D解析:[單選題]70.下列哪項(xiàng)不是文本分析的過程步驟?()A)詞法分析B)句法分析C)文本分析D)語義分析答案:C解析:馬鈴薯是是蔬菜。[單選題]71.在NLP任務(wù)當(dāng)中機(jī)器翻譯任務(wù)所使用的的模型屬于什么模型A)基于統(tǒng)計(jì)的語言模型B)基于神經(jīng)網(wǎng)絡(luò)的語言模型C)預(yù)訓(xùn)練模型D)編解碼模型答案:A解析:[單選題]72.關(guān)于k-NN算法的應(yīng)用,以下說法正確的是?A)可用于分類B)可用于回歸C)可用于分類和回歸D)聚類答案:C解析:[單選題]73.下面哪個(gè)網(wǎng)絡(luò)常用于NLP任務(wù)中A)ANNB)CNNC)RNND)XNN答案:C解析:[單選題]74.下列關(guān)于基尼系數(shù)和熵說法正確的是A)基尼系數(shù)更偏向于連續(xù)值B)熵更偏向于離散值C)基尼系數(shù)的計(jì)算需要對(duì)數(shù)的運(yùn)算D)熵運(yùn)算起來更加的高效答案:A解析:[單選題]75.不同于通常涉及大量的規(guī)則編碼的早期嘗試語言處理,現(xiàn)代NLP算法是基于()A)自動(dòng)識(shí)別B)機(jī)器學(xué)習(xí)C)模式識(shí)別D)算法輔助答案:B解析:[單選題]76.以下哪個(gè)選項(xiàng)的框架對(duì)Cache命中率優(yōu)化A)XGBoostB)隨機(jī)森林C)GBDTD)LightGBM答案:D解析:[單選題]77.在反向傳播中,會(huì)出現(xiàn)誤差逐漸變小,使得網(wǎng)絡(luò)層的學(xué)習(xí)速率越來越低,這種現(xiàn)象被稱為什么A)梯度上升問題B)梯度優(yōu)化C)梯度消失問題D)梯度下降法答案:C解析:[單選題]78.歸一化的公式方式為:A)通過中值和均值進(jìn)行確定B)通過平均值和最小值確定C)通過方差和均值確定D)通過標(biāo)準(zhǔn)差和均值確定答案:C解析:[單選題]79.以下四個(gè)選項(xiàng)中代表的隨機(jī)森林縮寫的是哪個(gè)?A)RFB)GBDTC)XGBoostD)LightGBM答案:A解析:[單選題]80.以下幾個(gè)模型中哪個(gè)模型在建模的時(shí)候與詞的位置無關(guān)A)OpenAIGPTB)ELMoC)BERTD)ULMFit答案:C解析:BERTTransformer架構(gòu)將句子中每個(gè)詞和所有其他詞之間的關(guān)系建模,以生成注意力分?jǐn)?shù)。這些注意力分?jǐn)?shù)隨后被用作所有詞表示的加權(quán)平均值的權(quán)重,它們被輸入到完全連接的網(wǎng)絡(luò)中以生成新的表示。[單選題]81.預(yù)訓(xùn)練模型的思路說法正確的是__?A)特征提取的地層差異性比較大B)所有的任務(wù)都是一樣的C)在做特征提取的時(shí)候,底層的特征的提取往往是極其相似的D)以上都正確答案:A解析:[單選題]82.下面哪個(gè)不是常用的分類器A)lassoB)SVCC)HMMD)CRF答案:A解析:[單選題]83.怎么去理解?非線性?A)兩個(gè)變量之間的關(guān)系是一次函數(shù)的關(guān)系B)圖像是條直線C)兩個(gè)變量之間的關(guān)系不是是一次函數(shù)的關(guān)系D)不確定答案:C解析:[單選題]84.下面哪個(gè)函數(shù)的現(xiàn)狀是S曲線型的A)Sigmoid函數(shù)B)tanh函數(shù)C)ReLUD)cosh答案:C解析:[單選題]85.下列幾個(gè)選項(xiàng)中,關(guān)于RMSprop算法的特點(diǎn)描述正確的優(yōu)哪些?A)指數(shù)加權(quán)平均數(shù)求和B)指數(shù)加權(quán)平均數(shù)先平方再開方C)指數(shù)加權(quán)平均數(shù)求微分D)指數(shù)加權(quán)平均數(shù)求均方誤差答案:B解析:[單選題]86.以下四個(gè)選項(xiàng)中能實(shí)現(xiàn)對(duì)比兩個(gè)矩陣是否相等的是哪個(gè)函數(shù)?A)c=tf.greater(a,b)B)a=tf.subtract(a,b)C)b=tf.equal(a,b)D)d=tf.matmul(a,b)答案:C解析:[單選題]87.關(guān)于NLP中常用的Glove說法錯(cuò)誤的是A)可以學(xué)習(xí)的到詞向量B)學(xué)習(xí)得到的詞向量可以區(qū)分一詞多意C)通過局部數(shù)據(jù)來訓(xùn)練計(jì)算的D)通過全局?jǐn)?shù)據(jù)來統(tǒng)計(jì)共現(xiàn)概率答案:C解析:[單選題]88.什么是正則表達(dá)式?()A)正確表達(dá)式B)程序員經(jīng)常使用的編程語言表達(dá)式的集合C)一種排序算法D)用來匹配文本字符串(如特定字符、單詞或字符模式)的一種工具答案:D解析:[單選題]89.常用的特征縮放方法是()A)原始特征減去其平均值,然后除于其標(biāo)準(zhǔn)差B)同時(shí)除于一個(gè)極大值C)同時(shí)除于一個(gè)極小值D)原始特征減去平均值答案:A解析:[單選題]90.馬爾可夫模型的基本特征不包括A)無后效性B)遍歷性C)吸收性D)相關(guān)性答案:D解析:[單選題]91.在語義網(wǎng)絡(luò)中,用()來標(biāo)明類與子類之間的關(guān)系。A)實(shí)例聯(lián)系B)泛化聯(lián)系C)聚集聯(lián)系D)屬性聯(lián)系答案:B解析:[單選題]92.馬爾可夫模型的三個(gè)基本問題不包括A)估值問題B)尋找狀態(tài)序列C)學(xué)習(xí)模型參數(shù)D)學(xué)習(xí)模型參數(shù)答案:D解析:[單選題]93.以下四個(gè)選項(xiàng)中,找出一個(gè)與其他三個(gè)不相同的模型A)ELMoB)GPTC)BERTD)Nltk答案:D解析:[單選題]94.關(guān)于K-Means以下說法正確的是?A)是無監(jiān)督學(xué)習(xí)B)是有監(jiān)督學(xué)習(xí)C)是半監(jiān)督學(xué)習(xí)D)是強(qiáng)化學(xué)習(xí)答案:A解析:[單選題]95.提取關(guān)鍵詞的常見方法是()A)詞頻B)標(biāo)簽C)分詞D)關(guān)鍵字答案:A解析:[單選題]96.以下哪些方法不可以直接來對(duì)文本分類?A)KmeansB)決策樹C)支持向量機(jī)D)KNN答案:A解析:[單選題]97.假如經(jīng)過測試后發(fā)現(xiàn)模型欠擬合了,以下哪種做法是不正確的A)增加新特征B)減少正則化參數(shù)C)選擇更好的模型D)加入Dropout答案:D解析:[單選題]98.下列是對(duì)于Batch歸一化的描述,其中它的流程步驟不包括下列哪個(gè)選項(xiàng)?A)求每個(gè)訓(xùn)練批次數(shù)據(jù)的均值B)求每個(gè)訓(xùn)練批次數(shù)據(jù)的方差C)使用求得的均值和方差對(duì)該批次的訓(xùn)練數(shù)據(jù)做歸一化,獲得0-1分布D)求每個(gè)訓(xùn)練批次的和答案:D解析:[單選題]99.在RNN循環(huán)神經(jīng)網(wǎng)絡(luò)中,在反向傳播過程中很容易發(fā)生梯度消失現(xiàn)象,它與什么因素相關(guān)A)激活函數(shù)求導(dǎo)B)學(xué)習(xí)率C)批處理數(shù)D)網(wǎng)絡(luò)層數(shù)答案:A解析:[單選題]100.K-NN中的K可以代表什么意思A)代價(jià)B)學(xué)習(xí)率C)不確定D)K個(gè)最近的鄰居答案:D解析:[單選題]101.通過以下哪種方式可以得到加權(quán)平均值A(chǔ))局部平均值B)局部方差C)全局平均值D)全局方差答案:A解析:[單選題]102.tf.cast函數(shù)的返回值數(shù)據(jù)類型是什么A)整數(shù)型B)布爾型C)浮點(diǎn)型D)字符串答案:C解析:[單選題]103.神經(jīng)網(wǎng)絡(luò)中常用的dropout函數(shù),下列選項(xiàng)中關(guān)于它的描述正確的是?A)屬于正則處理B)一個(gè)激活函數(shù)C)用于分割數(shù)據(jù)集D)用于將數(shù)據(jù)樣本多樣化答案:A解析:[單選題]104.基于轉(zhuǎn)換的錯(cuò)誤驅(qū)動(dòng)的學(xué)習(xí)算法如下:(1)初始標(biāo)注;(2)獲取規(guī)則;(3)生成候選規(guī)則集;它們是按照什么順序進(jìn)行的?A)(1)(2)(3)B)(1)(3)(2)C)(2)(1)(3)D)(2)(3)(1)答案:B解析:[單選題]105.知識(shí)圖譜中的邊稱為?A)連接邊B)關(guān)系C)屬性D)特征答案:B解析:[單選題]106.在處理文本是,關(guān)于NLP中句法結(jié)構(gòu)分析的說法正確的是A)神經(jīng)網(wǎng)絡(luò)可以準(zhǔn)確地確定句子的句法結(jié)構(gòu)B)機(jī)器學(xué)習(xí)的KNN算法就可以獲取到句子的句法結(jié)構(gòu)C)機(jī)器學(xué)習(xí)的K-Means算法就可以獲取到句子的句法結(jié)構(gòu)D)不確定答案:A解析:[單選題]107.算法經(jīng)常出現(xiàn)過擬合,以下四個(gè)選項(xiàng)中,哪個(gè)不容易陷入過擬合A)未剪枝的決策樹B)隨機(jī)森林C)不加正則的線性回歸D)不加正則的邏輯回歸答案:B解析:[單選題]108.tf.Variable(tf.random_normal([20,10,5,16])),在該操作中,關(guān)于定義的卷積核高度是多少?A)10B)6C)16D)20答案:D解析:[單選題]109.如果文法中的每一條產(chǎn)生式A→β的形式,其中A是一個(gè)非終結(jié)符,β是終結(jié)符和/或非終結(jié)符組合(例如,Y→y),那么這種文法就稱為A)0型文法B)1型文法C)2型文法D)左線性文法答案:C解析:[單選題]110.以下哪個(gè)方法可以在文本當(dāng)中提取到人名,地名等A)詞干提?。⊿temming)B)詞形還原(Lemmatization)C)停用詞消除(StopWordRemoval)D)命名實(shí)體識(shí)別(NamedEntityRecognition)答案:D解析:[單選題]111.在工業(yè)應(yīng)用中經(jīng)常會(huì)碰到NLP中的文本分類,文本分類屬于以下哪種任務(wù)?A)分類B)回歸C)聚類D)降維答案:A解析:[單選題]112.對(duì)于超參數(shù)隨機(jī)取值指的是?A)隨機(jī)選擇標(biāo)尺取值B)隨機(jī)取值就是有效范圍內(nèi)隨機(jī)均勻取值C)選擇合適的標(biāo)尺進(jìn)行取值D)隨機(jī)的進(jìn)行均勻的取值答案:C解析:[單選題]113.在執(zhí)行了以下的文本清理步驟之后,可從下面的語句中生成多少三元組短語(trigram):停用詞移除使用單一空格替換標(biāo)點(diǎn)符號(hào)「#Analytics-vidhyaisagreatsourcetolearn@data_science.」A)3B)4C)5D)6答案:C解析:在執(zhí)行了停用詞移除和標(biāo)點(diǎn)符號(hào)替換之后,文本變成:「Analyticsvidhyagreatsourcelearndatascience」,三元組短語--Analyticsvidhyagreat,vidhyagreatsource,greatsourcelearn,sourcelearndata,learndatascience[單選題]114.線性回歸使用的目標(biāo)函數(shù)是以下哪個(gè)A)信息增益B)信息熵C)交叉熵D)均方誤差答案:D解析:[單選題]115.通常的語義角色標(biāo)注分為()個(gè)步驟:①識(shí)別、②分類、③剪枝、④后處理A)①②③④B)①③④C)①②④D)①④答案:A解析:[單選題]116.如何去理解牛頓法?A)實(shí)現(xiàn)簡單,當(dāng)目標(biāo)函數(shù)是凸函數(shù)時(shí),梯度下降法的解是全局解。一般情況下,其解不保證是全局最優(yōu)解,梯度下降法的速度也未必是最快的B)是一種在實(shí)數(shù)域和復(fù)數(shù)域上近似求解方程的方法C)改善每次需要求解復(fù)雜的Hessian矩陣的逆矩陣的缺陷,它使用正定矩陣來近似Hessian矩陣的逆,從而簡化了運(yùn)算的復(fù)雜度D)不確定答案:B解析:第2部分:多項(xiàng)選擇題,共57題,每題至少兩個(gè)正確答案,多選或少選均不得分。[多選題]117.網(wǎng)絡(luò)結(jié)構(gòu)分別都有哪些形式,以下選項(xiàng)中正確是?A)星形結(jié)構(gòu):具有一個(gè)中心結(jié)點(diǎn),所有通訊都通過它。B)環(huán)形結(jié)構(gòu):網(wǎng)絡(luò)結(jié)點(diǎn)連成一個(gè)封閉的環(huán)形。C)總線結(jié)構(gòu):具有一個(gè)共享總線,所有結(jié)點(diǎn)掛在上面,又稱樹形結(jié)構(gòu)D)以上都正確答案:ABCD解析:[多選題]118.關(guān)于激活函數(shù)sigmoid的說法,以下正確的有哪些?A)將負(fù)的權(quán)值映射到正值B)將輸出數(shù)據(jù)壓縮到[0,1]集合范圍C)能解決非線性分類問題D)將正權(quán)值映射到負(fù)數(shù)答案:ABC解析:[多選題]119.語言模型分為哪幾類A)統(tǒng)計(jì)的語言模型B)機(jī)器學(xué)習(xí)的語言模型C)神經(jīng)網(wǎng)絡(luò)的語言模型D)不確定答案:AC解析:[多選題]120.關(guān)于數(shù)據(jù)集DataSet的一般特性有哪些():A)連續(xù)性B)維度C)稀疏性D)分辨率答案:BCD解析:[多選題]121.seq2seq可以做機(jī)器翻譯等之類的NLP任務(wù),那么在編碼器中可以用以下哪些模型做特征提???A)CNNB)RNNC)LSTMD)SVM答案:ABC解析:[多選題]122.如果使用到了mini-batch,那么每次選擇的批量大小為多少是比較合適的?A)16B)32C)64D)128答案:ABCD解析:[多選題]123.關(guān)于KNN算法,下列說法正確的是()A)無需參數(shù)估計(jì),無需訓(xùn)練B)既能解決分類問題也能解決回歸問題C)對(duì)變量之間的共線性比較敏感D)可解釋性較差,無法給出像決策樹那樣的規(guī)則答案:ABCD解析:[多選題]124.以下四個(gè)選項(xiàng)當(dāng)中,關(guān)于LDA說法正確的是A)可以通過經(jīng)驗(yàn)主觀判斷、不斷調(diào)試、操作性強(qiáng)、最為常用,的方式確定LDA中Topic的個(gè)數(shù)B)包含線性判別分析,概率主題模型,兩種含義C)LDA中包含一個(gè)gamma函數(shù)D)以上都正確答案:ABCD解析:[多選題]125.人工智能中有三大主義,其中連接主義中,以下描述正確的是哪些?A)基礎(chǔ)理論是神經(jīng)網(wǎng)絡(luò)B)深度學(xué)習(xí)屬于連接主義C)又稱仿生學(xué)派D)產(chǎn)生在20世紀(jì)50年代產(chǎn)生答案:ABCD解析:[多選題]126.數(shù)據(jù)切分階段中,下列關(guān)于數(shù)據(jù)的訓(xùn)練集和驗(yàn)證集的劃分,描述正確的有哪些?A)不一定需要驗(yàn)證集B)數(shù)據(jù)集數(shù)量較少時(shí),訓(xùn)練集和測試集比例可以是7:3C)任何數(shù)量的數(shù)據(jù)集,都應(yīng)遵守訓(xùn)練集和測試集比例7:3的原則D)大數(shù)據(jù)量的驗(yàn)證集,可以不遵循訓(xùn)練集和測試集比例7:3的原則答案:ABD解析:[多選題]127.NLP在工業(yè)中的應(yīng)用A)語音識(shí)別B)自動(dòng)翻譯C)控制裝置D)人臉識(shí)別答案:ABC解析:[多選題]128.文本表示分類(基于表示方法)A)短文本表示B)One-hot表示C)詞表示D)CBOW答案:BD解析:[多選題]129.LightGBM為什么在Leaf-wise之上增加一個(gè)最大深度的限制A)高效率B)低效率C)防止過擬合D)防止欠擬合答案:AC解析:[多選題]130.SVM在工業(yè)中有廣泛的應(yīng)用,以下說法正確的是A)文本分類B)圖片分類C)新聞聚類D)以上都對(duì)答案:ABCD解析:[多選題]131.以下幾種網(wǎng)絡(luò)中,哪些屬于神經(jīng)網(wǎng)絡(luò)A)NN(標(biāo)準(zhǔn)神經(jīng)網(wǎng)絡(luò))B)CNN(卷積神經(jīng)網(wǎng)絡(luò))C)RNN(循環(huán)神經(jīng)網(wǎng)絡(luò))D)以上都是答案:ABCD解析:[多選題]132.模型評(píng)估方法有哪些?A)Holdout檢驗(yàn)B)不確定C)自助法D)交叉檢驗(yàn)答案:ACD解析:[多選題]133.以下選項(xiàng)中,哪些是自然語言處理的應(yīng)用?A)輿情分析B)文本分類C)自動(dòng)文摘D)問答系統(tǒng)答案:ABCD解析:[多選題]134.概率圖模型中的邊可以分為哪幾種A)有向邊B)不確定C)無向邊D)以上都正確答案:AB解析:[多選題]135.下列選項(xiàng)中關(guān)于高維數(shù)據(jù)處理描述正確的是?A)為了提高復(fù)雜關(guān)系的擬合能力B)在特征工程中經(jīng)常會(huì)把一階離散特征兩兩組合C)構(gòu)成高階組合特征D)以上都正確答案:ABCD解析:[多選題]136.LightGBM中使用了直方圖操作,這樣的好處是什么A)最明顯就是內(nèi)存消耗的升高B)直方圖算法不僅不需要額外存儲(chǔ)預(yù)排序的結(jié)果C)可以只保存特征離散化后的值D)以上都正確答案:BC解析:[多選題]137.自然語言處理的主要難點(diǎn)不包括以下哪兩項(xiàng)A)語言獨(dú)立性B)語言歧義性C)多國語言D)語境答案:AC解析:[多選題]138.以下選項(xiàng)中關(guān)于集合外一個(gè)點(diǎn),到該集合的距離,描述正確的是哪些選項(xiàng)A)是該點(diǎn)到集合邊界點(diǎn)的最短距離B)是該點(diǎn)到集合內(nèi)所有點(diǎn)的最短距離C)是該點(diǎn)到集合內(nèi)任意一點(diǎn)的距離D)是該點(diǎn)到集合內(nèi)非邊界點(diǎn)的某點(diǎn)的距離答案:AB解析:[多選題]139.ELMO的優(yōu)缺點(diǎn)分別都有哪些A)解決了一詞多意B)適用范圍廣C)LSTM特征提取能力比Transformer若D)拼接的方式雙向融合能力偏弱答案:ABC解析:[多選題]140.以下()是NLP的應(yīng)用場景。A)百度翻譯B)圖靈機(jī)器人C)微信語音轉(zhuǎn)文字D)新聞分類答案:ABCD解析:[多選題]141.下列關(guān)于LightGBM有什么優(yōu)點(diǎn),說法正確的是A)更快的訓(xùn)練速度B)更低的內(nèi)存消耗C)更好的準(zhǔn)確率D)分布式支持,可以快速處理海量數(shù)據(jù)答案:ABCD解析:[多選題]142.深度學(xué)習(xí)文本分類方法有哪些A)特征工程B)TextCNNC)分類器D)FastText答案:BD解析:[多選題]143.以下算法,屬于分類器都有哪些??A)樸素貝葉斯B)最大熵C)SVMD)神經(jīng)網(wǎng)絡(luò)答案:ABCD解析:[多選題]144.BP算法中最重要的兩個(gè)環(huán)節(jié),分別是什么?A)激勵(lì)傳播B)權(quán)重更新C)信息傳播D)激活函數(shù)答案:AB解析:[多選題]145.過擬合既然是不好的現(xiàn)象,我們應(yīng)該如何解決A)增加樣本數(shù)量B)加入正則化C)Dropout降低模型復(fù)雜度D)減少迭代次數(shù)答案:ABCD解析:[多選題]146.聚類算法中應(yīng)該注意的問題有哪些A)C值如何確定B)初始質(zhì)心的選取C)質(zhì)心的計(jì)算D)算法停止的條件答案:ABCD解析:[多選題]147.循環(huán)神經(jīng)網(wǎng)絡(luò)包含以下哪幾種A)RNNB)CNNC)LSTMD)GRU答案:ACD解析:[多選題]148.下列四個(gè)選項(xiàng)中,哪些選項(xiàng)屬于激活函數(shù)A)reluB)dropoutC)sigmoidD)softmax答案:ABCD解析:[多選題]149.在預(yù)處理階段,我們一般將數(shù)據(jù)集分為哪幾個(gè)類別A)訓(xùn)練集B)驗(yàn)證集C)測試集D)批處理集答案:ABC解析:[多選題]150.常用的聚類方法有()A)KMeansB)感知機(jī)C)NBMD)DBSCAN答案:AD解析:[多選題]151.無監(jiān)督學(xué)習(xí)是機(jī)器學(xué)習(xí)算法中一個(gè)大分支,那么以下幾個(gè)選項(xiàng)中屬于無監(jiān)督學(xué)習(xí)的是A)聚類B)降維C)分類D)回歸答案:AB解析:[多選題]152.以下四個(gè)選項(xiàng)中,經(jīng)典的概率模型有哪些?A)不確定B)古典概型C)幾何概型D)以上都正確答案:BC解析:[多選題]153.類別特征處理,可以使用以下哪些方式A)序列編號(hào)B)線性回歸C)獨(dú)熱編碼D)SVM答案:AC解析:[多選題]154.以下關(guān)于概率圖模型的表述正確的是A)有向圖:貝葉斯網(wǎng)絡(luò)B)有向圖:馬爾可夫隨機(jī)場C)無向圖:貝葉斯網(wǎng)絡(luò)D)無向圖:馬爾可夫隨機(jī)場答案:AD解析:[多選題]155.以下四個(gè)算法中,有哪些算法是屬于決策樹算法的A)SVMB)ID3C)C4.5D)CART答案:BCD解析:[多選題]156.以下哪幾個(gè)?門?屬于LSTMA)輸入門B)遺忘門C)輸出門D)更新門答案:ABC解析:[多選題]157.在神經(jīng)網(wǎng)絡(luò)中,如果單個(gè)神經(jīng)元能解決什么問題A)與B)或C)非D)異或答案:ABC解析:[多選題]158.神經(jīng)風(fēng)格遷移也有非常廣泛的應(yīng)用,其中神經(jīng)風(fēng)格遷移過程包括?A)創(chuàng)建網(wǎng)絡(luò)B)損失函數(shù)最小化C)梯度下降過程LOSS最小化D)數(shù)據(jù)清洗答案:ABC解析:[多選題]159.下列關(guān)于網(wǎng)絡(luò)模型訓(xùn)練中的梯度消失問題,描述錯(cuò)誤的都有哪些選項(xiàng)?A)梯度下降會(huì)增加學(xué)習(xí)次數(shù)B)多使用梯度爆炸,增加計(jì)算效率提升模型準(zhǔn)確率C)梯度下降可以減少計(jì)算量,建議使用D)梯度爆炸會(huì)增大計(jì)算量,編寫代碼時(shí)避免梯度爆炸答案:BC解析:[多選題]160.以下四個(gè)選項(xiàng)中,可以把關(guān)鍵詞轉(zhuǎn)化為其基本形式的方法有哪些A)詞形還原(Lemmatization)B)LevenshteinC)詞干提?。⊿temming)D)探測法(Soundex)答案:AC解析:[多選題]161.常用分類器有哪些A)樸素貝葉斯B)最大熵C)SVMD)神經(jīng)網(wǎng)絡(luò)答案:ABCD解析:[多選題]162.文本向量化的兩種表示方法是。()A)獨(dú)熱編碼B)Z-ScoreC)歸一化D)詞嵌入答案:AD解析:[多選題]163.概率圖模型中的生成式模型與判別式模型在統(tǒng)計(jì)學(xué)角度與相比,有什么優(yōu)點(diǎn)?A)適用較多類別的識(shí)別B)能更充分利用先驗(yàn)知識(shí)C)分類邊界更靈活D)研究單類問題靈活性強(qiáng)答案:BD解析:[多選題]164.谷歌開源出來的BERT,一般可以用于下列哪些任務(wù)A)情感分析B)垃圾郵件過濾C)命名實(shí)體識(shí)別D)問答系統(tǒng)答案:ABCD解析:[多選題]165.以下是針對(duì)k-NN算法給出的兩條陳述,其中哪一條是真的?A)我們可以借助交叉驗(yàn)證來選擇k的最優(yōu)值B)不能判斷C)歐氏距離對(duì)每個(gè)特征一視同仁D)以上都正確答案:AC解析:[多選題]166.智能問答系統(tǒng)主要依靠的關(guān)鍵基礎(chǔ)和技術(shù)包括以下哪些選項(xiàng)?()A)大量高質(zhì)量的數(shù)據(jù)和知識(shí)B)強(qiáng)大的自然語言處理技術(shù)C)強(qiáng)大的機(jī)械語言處理技術(shù)D)需要大量的標(biāo)準(zhǔn)訓(xùn)練語料答案:ABD解析:[多選題]167.搜索是常見的NLP應(yīng)用,那么以下幾個(gè)選項(xiàng)中,哪些可能是實(shí)現(xiàn)搜索的一部分A)用協(xié)同過濾模型(CollaborativeFilteringmodel)來檢測相似用戶表現(xiàn)(查詢)B)在術(shù)語中檢查Levenshtein距離的模型C)將句子譯成多種語言D)不確定答案:AB解析:[多選題]168.所有主題模型都基于以下()基本假設(shè)。A)每個(gè)文檔包含多個(gè)主題B)每個(gè)主題包含多個(gè)詞C)詞由主題構(gòu)成D)主題與詞無關(guān)答案:AB解析:[多選題]169.自然語言處理應(yīng)用?A)客服系統(tǒng)B)查找同義詞C)道標(biāo)識(shí)別D)文本挖掘答案:ABD解析:[多選題]170.下列哪些選項(xiàng)對(duì)于搜索參數(shù)的方式,是正確的?A)沒有足夠計(jì)算資源,通過每天觀察,不斷調(diào)整參數(shù)B)同時(shí)試驗(yàn)多種模型,獲得學(xué)習(xí)曲線C)沒有足夠計(jì)算資源,通過試驗(yàn)多種模型,獲得學(xué)習(xí)曲線D)擁有足夠資源時(shí),通過每天觀察一個(gè)參數(shù),來進(jìn)行調(diào)整答案:AB解析:[多選題]171.當(dāng)然樸素貝葉斯也有很多的缺點(diǎn),以下關(guān)于它缺點(diǎn)描述正確的是?A)對(duì)缺失數(shù)據(jù)不太敏感B)分類效果不穩(wěn)定C)先驗(yàn)?zāi)P涂赡軐?dǎo)致結(jié)果不佳D)不適合增量式訓(xùn)練答案:AC解析:[多選題]172.以下是兩個(gè)陳述。以下兩個(gè)陳述中哪一項(xiàng)是正確的?A)k-NN是一種基于記憶的方法,即分類器會(huì)在我們收集新的訓(xùn)練數(shù)據(jù)時(shí)立即進(jìn)行調(diào)整。B)不確定C)在最壞的情況下,新樣本分類的計(jì)算復(fù)雜度隨著訓(xùn)練數(shù)據(jù)集中樣本數(shù)量的增加而線性增加D)以上都正確答案:AC解析:[多選題]173.ELMO分為哪兩個(gè)階段A)Pre-training(預(yù)訓(xùn)練)B)word-embedding(詞嵌入)C)Feature-based(微調(diào))D)不確定答案:AC解析:第3部分:判斷題,共66題,請(qǐng)判斷題目是否正確。[判斷題]174.神經(jīng)機(jī)器翻譯是通過一個(gè)稱為遞歸神經(jīng)網(wǎng)絡(luò)(RNN)的大型人工神經(jīng)網(wǎng)絡(luò)對(duì)整個(gè)過程進(jìn)行建模的方法。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]175.隨著批量數(shù)目增大,處理相同數(shù)據(jù)量的速度越快。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]176.one-hot表示的結(jié)果能保留詞語在句子中的位置信息。錯(cuò)A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]177.離散型的表示方式只有one-hotA)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]178.在做NLP任務(wù)時(shí),數(shù)據(jù)處理是不可缺少的部分A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]179.CrossEntropyLoss是tensorflow中動(dòng)態(tài)優(yōu)化器A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]180.命名實(shí)體識(shí)別不是序列標(biāo)注問題。錯(cuò)A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]181.機(jī)器學(xué)習(xí)算法=模型表征+模型評(píng)估+優(yōu)化算法。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]182.Relu激活函數(shù),整個(gè)過程的計(jì)算量小A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]183.BP算法和神經(jīng)網(wǎng)絡(luò)是相同的A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]184.混淆矩陣也稱誤差矩陣A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]185.上下文有關(guān)文法(1型)的分析算法過于復(fù)雜,不便于實(shí)際應(yīng)用A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]186.要確定最優(yōu)狀態(tài)序列,一種方法是把所有可能的狀態(tài)序列的概率求出來,從中選出概率最大的序列。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]187.神經(jīng)網(wǎng)絡(luò)中非線性變換叫做傳遞函數(shù)或者激活函數(shù)A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]188.在GRU中sigmoid激活函數(shù)的作用是作為一個(gè)"門"A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]189.在簡單的插值模型中,權(quán)值僅僅是一個(gè)常數(shù)。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]190.深度學(xué)習(xí)需要逐層的分析,而機(jī)器學(xué)習(xí)是端到端的學(xué)習(xí)A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]191.laplace法則計(jì)算公式中T為訓(xùn)練實(shí)例的種類數(shù)A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]192.語料庫構(gòu)建不包括結(jié)構(gòu)性A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]193.seq2seq和Transformer的模型結(jié)構(gòu)是完全不相同A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]194.s.startswith(t),測試是否以t開頭A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]195.通俗來講,所謂因子圖就是對(duì)函數(shù)進(jìn)行因子分解得到的一種概率圖A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]196.NNLM和N-Gram是完全相同的A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]197.為了進(jìn)行中文的分詞或者詞性標(biāo)注等處理,可以使用的導(dǎo)入模塊語句為importjieba。對(duì)A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]198.將隱馬爾科夫模型表示成五元組的形式,其中V為發(fā)射概率集合。A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]199.CBOW中是使用中心詞預(yù)測上下文單詞的A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]200.GPT中最大的缺點(diǎn)就是不能解決一詞多意問題A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]201.深度學(xué)習(xí)省去了人工的提取特征,可以自動(dòng)提取特征A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]202.語料庫是為某一個(gè)或多個(gè)應(yīng)用而專門收集的、有一定結(jié)構(gòu)的、有代表性的、可以被計(jì)算機(jī)程序檢索的、具有一定規(guī)模的語料的集合。對(duì)A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]203.LightGBM犧牲了一定的精度,但是提升了速度A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]204.LightGBM占用的內(nèi)存變大了A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]205.特征歸一化可以用到SVM,邏輯回歸,線性回歸等模型中A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]206.RNN的多對(duì)一結(jié)構(gòu)通常用于處理序列分類問題。對(duì)A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]207.機(jī)器翻譯是自然語言處理中最為人所熟知的場景,國內(nèi)外有很多比較成熟的機(jī)器翻譯產(chǎn)品,如百度翻譯等。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]208.RNN是NLP的核心網(wǎng)絡(luò)之一A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]209.樸素貝葉斯分類是基于類條件獨(dú)立假設(shè)A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]210.XGBoost的本質(zhì)其實(shí)就是一個(gè)隨機(jī)森林A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]211.交叉檢驗(yàn)的缺點(diǎn)是:最初的訓(xùn)練數(shù)據(jù)比較少,所以得到的概率估計(jì)也不會(huì)太可靠A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]212.支持向量是最靠近決策表面的數(shù)據(jù)點(diǎn)A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]213.在LSTM中常用的激活函數(shù)有sigmoid和tanhA)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]214.Boosting方法(Schapire,1990)是一種用來提高弱(Weak)分類算法準(zhǔn)確度的方法,識(shí)別錯(cuò)誤率小于1/2,也即準(zhǔn)確率僅比隨機(jī)猜測略高。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]215.NLTK的nltk.corpus模塊可用于語料庫的獲取。對(duì)A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]216.感知機(jī)利用誤分類最小策略,求得分離超平面,不過此時(shí)的解有無窮多個(gè)。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]217.在模型輸入的時(shí)候,我們并不需要對(duì)文本進(jìn)行處理A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]218.LightGBM支持分布式和并行計(jì)算A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]219.文本情感傾向性分析就是對(duì)網(wǎng)頁進(jìn)行輿情分析。錯(cuò)A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]220.在自然語言領(lǐng)域RNN的特征提取效果不如CNN,因?yàn)镃NN有卷積操作A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]221.Excel支持正則表達(dá)式。對(duì)A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]222.基于實(shí)例的學(xué)習(xí)的核心是兩個(gè)實(shí)例間的相似度或成距離的度量A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]223.XGBoost對(duì)GBDT的速度上和效率上做了很大的提升A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]224.平行語料庫的目的側(cè)重于特定語言現(xiàn)象的對(duì)比A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]225.好的初始估計(jì)對(duì)于發(fā)射概率是非常重要的。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]226.CNN卷積核(窗口)的大小是一個(gè)參數(shù),可以自己選定A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]227.決策樹的學(xué)習(xí)目標(biāo)是:根據(jù)給定的訓(xùn)練數(shù)據(jù)集合構(gòu)建一個(gè)決策樹模型,使它能夠?qū)?shí)例進(jìn)行正確的分類A)正確B

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論