人工智能自然語(yǔ)言技術(shù)練習(xí)(習(xí)題卷4)_第1頁(yè)
人工智能自然語(yǔ)言技術(shù)練習(xí)(習(xí)題卷4)_第2頁(yè)
人工智能自然語(yǔ)言技術(shù)練習(xí)(習(xí)題卷4)_第3頁(yè)
人工智能自然語(yǔ)言技術(shù)練習(xí)(習(xí)題卷4)_第4頁(yè)
人工智能自然語(yǔ)言技術(shù)練習(xí)(習(xí)題卷4)_第5頁(yè)
已閱讀5頁(yè),還剩49頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

試卷科目:人工智能自然語(yǔ)言技術(shù)練習(xí)人工智能自然語(yǔ)言技術(shù)練習(xí)(習(xí)題卷4)PAGE"pagenumber"pagenumber/SECTIONPAGES"numberofpages"numberofpages人工智能自然語(yǔ)言技術(shù)練習(xí)第1部分:?jiǎn)雾?xiàng)選擇題,共116題,每題只有一個(gè)正確答案,多選或少選均不得分。[單選題]1.常用的馬爾科夫假設(shè)中,當(dāng)前詞(n)出現(xiàn)的概率依賴于哪些詞A)n-3B)n-2C)nD)n-1答案:D解析:[單選題]2.以下關(guān)于分析說(shuō)法不正確的是?A)基于規(guī)則的分詞簡(jiǎn)單高效,但是詞典維護(hù)困難B)在實(shí)際工程應(yīng)用中,分詞一般只采用一種分詞方法C)中文不同于英文自然分詞,中文分詞是文本處理的一個(gè)基礎(chǔ)步驟,分詞性能的好壞直接影響比如詞性,句法等其他模塊的性能D)統(tǒng)計(jì)分詞的目的就是對(duì)分詞結(jié)果進(jìn)行概率計(jì)算,獲得概率最大的分詞方式答案:B解析:[單選題]3.下列關(guān)于Word2Vec模型說(shuō)法正確的是()。A)得到的訓(xùn)練結(jié)果不能度量詞與詞之間的相似性B)當(dāng)這個(gè)模型訓(xùn)練好以后,需要用這個(gè)訓(xùn)練好的模型處理新的任務(wù)C)真正需要的是這個(gè)模型通過(guò)訓(xùn)練數(shù)據(jù)所得的參數(shù)D)Word2Vec模型其實(shí)就是簡(jiǎn)化的遺傳算法模型答案:C解析:[單選題]4.貝葉斯網(wǎng)絡(luò)的節(jié)點(diǎn)代表什么A)隨機(jī)過(guò)程B)樹(shù)的根C)樹(shù)的葉子D)不確定答案:A解析:[單選題]5.最大正向匹配法可以用于()A)文本分類(lèi)B)文本特征獲取C)分詞D)情感分析答案:C解析:[單選題]6.下列屬于西文字符編碼的是()A)ASCII碼B)國(guó)標(biāo)碼C)GB13000D)GBK答案:A解析:[單選題]7.L1正則化表示為A)A:各個(gè)參數(shù)的平方和B)B:是模型參數(shù)中非零參數(shù)的個(gè)數(shù)C)C:各個(gè)參數(shù)絕對(duì)值之和D)D:以上都不對(duì)答案:C解析:[單選題]8.ID3,C4.5,他們有什么,相同的地方?A)將信息增益比作為了選擇特征的標(biāo)準(zhǔn)B)將信息增益作為了選擇特征的標(biāo)準(zhǔn)C)將基尼系數(shù)作為了選擇特征的標(biāo)準(zhǔn)D)都屬于決策樹(shù)算法答案:D解析:[單選題]9.以下四個(gè)任務(wù)當(dāng)中LDA可以很好的完成哪個(gè)任務(wù)?A)對(duì)圖像進(jìn)行文本B)對(duì)圖像進(jìn)行特征提取C)對(duì)文檔的主題進(jìn)行分類(lèi)或聚類(lèi)D)以上都正確答案:C解析:[單選題]10.以下哪些是神經(jīng)網(wǎng)絡(luò)中的?超參數(shù)??A)隱藏層的大小B)激活值C)權(quán)重D)偏置答案:A解析:[單選題]11.下列幾個(gè)選項(xiàng)中對(duì)于卡方檢驗(yàn),描述正確的是A)卡方檢驗(yàn)主要用于類(lèi)別數(shù)據(jù)B)卡方檢驗(yàn)不可以用于定量數(shù)據(jù)C)用于類(lèi)別數(shù)據(jù)時(shí)必須先將數(shù)據(jù)分組才能獲得實(shí)際的觀測(cè)頻數(shù)D)和KS檢驗(yàn)相同答案:A解析:[單選題]12.以下___不是預(yù)訓(xùn)練模型?A)ELMOB)Word2VecC)BERTD)GPT-2答案:B解析:[單選題]13.適當(dāng)?shù)臏p少正則化的系數(shù),可以預(yù)防什么情況A)防止過(guò)擬合B)防止欠擬合C)防止完美擬合D)不確定答案:B解析:[單選題]14.常用的softmax函數(shù),下列選項(xiàng)中描述正確得是哪個(gè)?A)主要用于二分類(lèi)B)算出來(lái)為概率值C)將最小的概率值所對(duì)應(yīng)的類(lèi)別作為輸入樣本的輸出類(lèi)別D)所有的概率相加大于1答案:B解析:[單選題]15.反向傳播過(guò)程中傳遞的參數(shù)是什么?A)學(xué)習(xí)率B)迭代次數(shù)C)誤差D)網(wǎng)絡(luò)層數(shù)答案:C解析:[單選題]16.LSTM可以通過(guò)()來(lái)進(jìn)行長(zhǎng)短期記憶A)RNN控制B)前饋控制C)BP控制D)門(mén)控制答案:D解析:[單選題]17.下列哪個(gè)激活函數(shù),處理梯度消失問(wèn)題效果最好?A)sigmoidB)LeakyreluC)reluD)tanh答案:B解析:[單選題]18.關(guān)于距離空間,其基本目的,以下描述正確的是?A)求相關(guān)性B)構(gòu)成線性空間C)度量后比較D)求信息熵答案:C解析:[單選題]19.雙向的Transformer在以下哪個(gè)模型中有使用A)GPTB)BERTC)ELMOD)GPT-2答案:C解析:[單選題]20.m階馬爾可夫心愿的狀態(tài)是指A)某個(gè)信源符號(hào)B)m個(gè)隨機(jī)狀態(tài)的某個(gè)具體消息C)某一轉(zhuǎn)移概率D)狀態(tài)轉(zhuǎn)移圖答案:D解析:[單選題]21.在NLP自然語(yǔ)言處理中,不可以做以下選項(xiàng)中的那個(gè)任務(wù)A)會(huì)話機(jī)器人B)人臉檢測(cè)C)推薦系統(tǒng)D)文本糾錯(cuò)答案:B解析:[單選題]22.實(shí)際的應(yīng)用中會(huì)有很多的數(shù)據(jù),下列關(guān)于數(shù)據(jù)劃分后的訓(xùn)練,測(cè)試以及驗(yàn)證說(shuō)法錯(cuò)誤的是哪個(gè)?A)可以直接使用訓(xùn)練集來(lái)驗(yàn)證算子的準(zhǔn)確率B)訓(xùn)練集用于算子的擬合C)驗(yàn)證集和測(cè)試集用來(lái)評(píng)判算子的準(zhǔn)確度D)可以不配置驗(yàn)證集答案:A解析:[單選題]23.下面哪個(gè)尺寸一般被用于設(shè)置batch_size大小A)125B)126C)127D)128答案:D解析:[單選題]24.XGBoost中用到了和哪個(gè)樹(shù)相同的想法,去尋找最優(yōu)A)隨機(jī)森林B)CART回歸樹(shù)C)ID3D)C4.5答案:B解析:[單選題]25.支持向量機(jī)(SVM)是一個(gè)什么算法A)分類(lèi)B)回歸C)聚類(lèi)D)降維答案:A解析:[單選題]26.從概率論的角度來(lái)說(shuō),概率圖中的節(jié)點(diǎn)代表什么A)隨機(jī)變量B)關(guān)系C)代價(jià)D)學(xué)習(xí)率答案:A解析:[單選題]27.下列說(shuō)法錯(cuò)誤的是A)淺層句法分析的方法基本上可以分成兩類(lèi):基于統(tǒng)計(jì)的方法和基于規(guī)則的方法B)淺層句法分析是與完全句法分析相似的C)英語(yǔ)基本名詞短語(yǔ)分為:由序數(shù)詞、基數(shù)詞和限定詞修飾的名詞短語(yǔ);由形容詞和名詞修飾的名詞短語(yǔ)D)自頂向下的分析,優(yōu)點(diǎn)是節(jié)約空間,它自始至終只需存儲(chǔ)一棵樹(shù)的結(jié)構(gòu)答案:B解析:[單選題]28.對(duì)一個(gè)概率空間,進(jìn)行多種劃分,其信息熵是A)一定相等B)一定不等C)不確定無(wú)關(guān)聯(lián)D)互有關(guān)聯(lián)答案:C解析:[單選題]29.L1正則的特點(diǎn)是:A)A:各個(gè)參數(shù)的平方和B)B:是模型參數(shù)中非零參數(shù)的個(gè)數(shù)C)C:各個(gè)參數(shù)絕對(duì)值之和D)D:以上都不對(duì)答案:C解析:[單選題]30.TF-IDF和詞的那些因素相關(guān)A)不確定B)詞意C)詞序D)詞權(quán)重答案:D解析:[單選題]31.CRF模型思想主要來(lái)源于()。A)無(wú)向圖模型B)最大熵模型C)馬爾可夫隨機(jī)場(chǎng)D)統(tǒng)計(jì)方法答案:B解析:[單選題]32.如何使用tensorflow定義常量?A)tf.constantB)tf.placeholderC)tf.VariableD)tf.split答案:A解析:[單選題]33.MSE代表什么意思A)信息熵B)均方誤差C)交叉熵D)信息增益答案:B解析:[單選題]34.若參數(shù)C(costparameter)被設(shè)為無(wú)窮,下面哪種說(shuō)法是正確的?A)只要最佳分類(lèi)超平面存在,它就能將所有數(shù)據(jù)全部正確分類(lèi)B)軟間隔SVM分類(lèi)器將正確分類(lèi)數(shù)據(jù)C)二者都不對(duì)D)不確定答案:A解析:[單選題]35.One-Hot是怎樣的一種向量化表達(dá)方式A)分布式表示B)基于矩陣的表示C)基于神經(jīng)網(wǎng)絡(luò)的表示D)離散型表示答案:D解析:[單選題]36.在NLP中,不可以做以下選項(xiàng)中的那個(gè)任務(wù)A)聊天機(jī)器人B)車(chē)牌檢測(cè)C)推薦系統(tǒng)D)文本糾錯(cuò)答案:B解析:[單選題]37.以下關(guān)于數(shù)據(jù)粒度,下面說(shuō)法不正確的是:A)粒度是指數(shù)據(jù)倉(cāng)庫(kù)小數(shù)據(jù)單元的詳細(xì)程度和級(jí)別;B)數(shù)據(jù)越詳細(xì),粒度就越小,級(jí)別也就越高;C)數(shù)據(jù)綜合度越高,粒度也就越大,級(jí)別也就越高;D)粒度的具體劃分將直接影響數(shù)據(jù)倉(cāng)庫(kù)中的數(shù)據(jù)量以及查詢質(zhì)量.答案:C解析:[單選題]38.ELMO中是為什么使用雙向的LSTMA)從前往后,從后往前雙向的更好的提取特征B)為了增加模型的復(fù)雜度C)為了舍棄句子當(dāng)中的語(yǔ)義信息D)以上都不正確答案:A解析:[單選題]39.tensoflow中的函數(shù)Graph.get_operations()的作用是什么A)返回圖中的操作節(jié)點(diǎn)列表B)為節(jié)點(diǎn)創(chuàng)建層次化的名稱,并返回一個(gè)上下文管理器C)完成圖的構(gòu)建,即將其設(shè)置為只讀模式D)返回圖中的操作節(jié)點(diǎn)列表答案:D解析:[單選題]40.樸素貝葉斯有著廣泛的應(yīng)用,那么樸素貝葉斯分類(lèi)是基于()假設(shè)。A)條件獨(dú)立B)條件不獨(dú)立C)聯(lián)合概率D)不確定答案:A解析:[單選題]41.深入挖掘Transformer,在其輸入階段如何做的位置向量A)使用sin,cos函數(shù)B)使用one-hotC)隨機(jī)初始D)不確定答案:A解析:[單選題]42.使用的TensorFlow中的一個(gè)方法進(jìn)行數(shù)據(jù)的計(jì)算tf.subtract,最終會(huì)返回什么類(lèi)型的數(shù)據(jù)A)TensorB)數(shù)組C)矢量D)范數(shù)答案:A解析:[單選題]43.建立了一個(gè)kNN分類(lèi)器,該分類(lèi)器在訓(xùn)練數(shù)據(jù)上獲得100%的準(zhǔn)確性。當(dāng)他們?cè)诳蛻舳松喜渴鸫四P蜁r(shí),發(fā)現(xiàn)該模型根本不準(zhǔn)確。以下哪項(xiàng)可能出錯(cuò)了?A)可能是模型過(guò)擬合B)可能是模型未擬合C)不能判斷D)這些都不是答案:A解析:[單選題]44.X.dat中字段含義錯(cuò)誤的是A)ss_type:詞性標(biāo)注B)w_cont:詞語(yǔ)個(gè)數(shù)C)word:詞語(yǔ)D)lex_id:2位16進(jìn)制數(shù)表示的一個(gè)詞語(yǔ)編號(hào)答案:D解析:[單選題]45.什么情況下神經(jīng)網(wǎng)絡(luò)模型被稱為深度學(xué)習(xí)模型?A)加入更多層,使神經(jīng)網(wǎng)絡(luò)的深度增加B)有維度更高的數(shù)據(jù)C)當(dāng)這是一個(gè)圖形識(shí)別的問(wèn)題時(shí)D)以上都不正確答案:A解析:[單選題]46.下列選項(xiàng)當(dāng)中,XGBoost對(duì)樹(shù)的復(fù)雜度描述正確的是哪個(gè)選項(xiàng)?A)一個(gè)是樹(shù)里面根節(jié)點(diǎn)的個(gè)數(shù)TB)一個(gè)是樹(shù)里面葉子節(jié)點(diǎn)的個(gè)數(shù)TC)不確定D)以上都正確答案:B解析:[單選題]47.,Transformer是很常用的特征提取器,那么Transformer架構(gòu)首先是由下列哪項(xiàng)引入的?A)GloVeB)BERTC)OpenAI?sGPTD)ULMFit答案:C解析:ULMFit擁有基于LSTM的語(yǔ)言建模架構(gòu);這之后被OpenAI的GPT的Transformer架構(gòu)所取代。[單選題]48.Batch歸一化操作用于網(wǎng)絡(luò)的什么層?A)輸出層B)輸入層C)無(wú)法在隱藏層起作用D)用于輸入層,甚至深度隱藏層的歸一化過(guò)程答案:D解析:[單選題]49.tanh的輸出范圍是多少A)[0,1]B)[-1,1]C)[-1,0]D)[-0.5,0.5]答案:B解析:[單選題]50.以下__使用LSTM做特征提取器A)ELMOB)BERTC)GPTD)GPT-2答案:A解析:[單選題]51.以下哪個(gè)激活函數(shù)常用于解決類(lèi)似文本分類(lèi)的多分類(lèi)任務(wù)A)tanhB)sigmoidC)reluD)softmax答案:D解析:[單選題]52.向量空間的別稱是:A)線性空間B)內(nèi)積空間C)賦范空間D)希爾伯特空間答案:A解析:[單選題]53.語(yǔ)言模型的用途主要有A)已知若干個(gè)詞,預(yù)測(cè)下一個(gè)詞B)決定哪一個(gè)詞序列的可能性更大C)統(tǒng)計(jì)詞組D)A和B答案:D解析:[單選題]54.串行地訓(xùn)練一系列前后依賴的同類(lèi)模型,即后一個(gè)模型用來(lái)對(duì)前一個(gè)模型的輸出結(jié)果進(jìn)行糾正屬于什么思想A)BaggingB)BoostingC)StackingD)以上都正確答案:B解析:[單選題]55.在文檔中加入詞的權(quán)重也是必要的,那么以下哪個(gè)可以計(jì)算的出詞權(quán)重A)詞頻(TF)B)逆文檔頻率(IDF)C)Word2VecD)隱狄利克雷分布(LatentDirichletAllocation)答案:B解析:[單選題]56.為模型選擇超參數(shù),選擇了不同的取值,不可以_____?A)選擇對(duì)訓(xùn)練集目標(biāo)而言的最優(yōu)解B)對(duì)于開(kāi)發(fā)集而言的最優(yōu)解C)超參搜索過(guò)程中最想優(yōu)化的東西D)簡(jiǎn)化參數(shù)調(diào)試答案:D解析:[單選題]57.線性回歸在工業(yè)中有著廣泛的應(yīng)用,以下幾個(gè)選項(xiàng)中,屬于線性回歸應(yīng)用的是A)數(shù)據(jù)降維B)垃圾郵件分類(lèi)C)癌癥良性惡性分類(lèi)D)房?jī)r(jià)預(yù)測(cè)答案:D解析:[單選題]58.情感分析屬于什么算法A)分類(lèi)B)回歸C)聚類(lèi)D)降維答案:A解析:[單選題]59.以下哪個(gè)函數(shù)常用于解決多分類(lèi)問(wèn)題A)tanhB)sigmoidC)softmaxD)relu答案:C解析:[單選題]60.RNN的中文全稱是什么?A)循環(huán)神經(jīng)網(wǎng)絡(luò)B)標(biāo)準(zhǔn)神經(jīng)網(wǎng)絡(luò)C)卷積神經(jīng)網(wǎng)絡(luò)D)自注意力機(jī)制答案:A解析:[單選題]61.關(guān)于Batch歸一化的描述,說(shuō)法正確的是?A)批量歸一化B)僅對(duì)輸入數(shù)據(jù)進(jìn)行歸一化C)僅對(duì)隱藏層進(jìn)行歸一化D)提升了參數(shù)搜索難度答案:A解析:[單選題]62.以下哪個(gè)領(lǐng)域包含命名實(shí)體識(shí)別任務(wù)A)圖像識(shí)別B)數(shù)據(jù)挖掘C)自然語(yǔ)言D)不確定答案:C解析:[單選題]63.以下四個(gè)現(xiàn)象中,那個(gè)是關(guān)鍵詞提取的方法A)基于主題模型B)基于概率模型C)基于信息D)以上沒(méi)有答案:A解析:[單選題]64.doc2vec是一種什么類(lèi)型的算法?()A)非監(jiān)督式算法B)監(jiān)督式算法C)神經(jīng)網(wǎng)絡(luò)算法D)感知機(jī)算法答案:A解析:[單選題]65.DM模型與CBOW模型的區(qū)別為()。A)DM模型的輸入包括上下文B)DM模型預(yù)測(cè)目標(biāo)詞出現(xiàn)的概率C)DM模型輸入不僅包括上下文,而且還包括相應(yīng)的段落D)CBOW模型輸入包括上下文答案:C解析:[單選題]66.EM最大期望算法的第一步是做什么A)求代價(jià)B)最大化C)計(jì)算期望D)不確定答案:C解析:[單選題]67.在tf中常用的Add函數(shù)它的用途是做什么?A)維度轉(zhuǎn)化B)相加C)相乘D)相減答案:B解析:[單選題]68.下列說(shuō)法中關(guān)于Batch歸一化的描述,說(shuō)法正確的是?A)批量歸一化B)僅對(duì)輸入數(shù)據(jù)進(jìn)行歸一化C)僅對(duì)隱藏層進(jìn)行歸一化D)提升了參數(shù)搜索難度答案:A解析:[單選題]69.為什么要使用激活函數(shù),有什么意義和用途A)進(jìn)行非線性變換,增強(qiáng)表達(dá)能力B)進(jìn)行線性變換,增強(qiáng)表達(dá)能力C)進(jìn)行線性變換,減少表達(dá)能力D)進(jìn)行非線性變換,減少表達(dá)能力答案:A解析:[單選題]70.Adam動(dòng)態(tài)優(yōu)化器,下列關(guān)于它的說(shuō)法正確的是?A)強(qiáng)化了RMSprop算法B)強(qiáng)化了動(dòng)量梯度算法C)同時(shí)使用Momentum和RMSprop算法D)沒(méi)有核心答案:C解析:[單選題]71.以下幾個(gè)描述中,關(guān)于優(yōu)化算法減小學(xué)習(xí)率的原因,說(shuō)法正確的是?A)一種默認(rèn)定式B)減少內(nèi)存容量C)避免在最優(yōu)解附近大幅度擺動(dòng)D)減少迭代次數(shù)答案:C解析:[單選題]72.真正正確的占所有預(yù)測(cè)為正的比例,這個(gè)計(jì)算方式可以計(jì)算出來(lái)什么?A)精確率B)召回率C)F1D)ROC答案:A解析:[單選題]73.以下哪個(gè)技術(shù)支持雙向的上下文A)Word2VecB)BERTC)GloVeD)以上所有答案:B解析:[單選題]74.一個(gè)家用電器制造商雇傭你幫助其分析社交媒體數(shù)據(jù)來(lái)決定它們的哪個(gè)冰箱質(zhì)量是最可靠的。你會(huì)用以下哪一個(gè)工具來(lái)分析?()A)文本挖掘工具B)情感分析軟件C)網(wǎng)頁(yè)挖掘技術(shù)D)數(shù)據(jù)挖掘軟件答案:B解析:[單選題]75.LSA是如何得到文本的詞向量的?A)SVDB)PCAC)KNND)K-Means答案:A解析:[單選題]76.集成學(xué)習(xí)中的隨機(jī)森林和GBDT有很多異同點(diǎn),關(guān)于他們相同點(diǎn)說(shuō)法正確的是A)都是由多棵樹(shù)組成,最終的結(jié)果都是由多棵樹(shù)一起決定。B)組成隨機(jī)森林的樹(shù)可以并行生成,而GBDT是串行生成C)隨機(jī)森林的結(jié)果是多數(shù)表決表決的,而GBDT則是多棵樹(shù)累加之和D)隨機(jī)森林對(duì)異常值不敏感,而GBDT對(duì)異常值比較敏感答案:A解析:[單選題]77.符號(hào)主義是()A)是人工智能的主流B)是人工智能的基礎(chǔ)C)是人工智能的全部D)不是人工智能答案:A解析:[單選題]78.GBDT和隨機(jī)森林都屬于集成學(xué)習(xí),因此他們有相似的地方,下列描述正確的是A)組成隨機(jī)森林的樹(shù)可以并行生成,而GBDT是串行生成B)隨機(jī)森林的結(jié)果是多數(shù)表決表決的,而GBDT則是多棵樹(shù)累加之和C)都是由多棵樹(shù)組成,最終的結(jié)果都是由多棵樹(shù)一起決定。D)隨機(jī)森林對(duì)異常值不敏感,而GBDT對(duì)異常值比較敏感答案:C解析:[單選題]79.語(yǔ)料庫(kù)研究屬于()A)實(shí)驗(yàn)研究B)非實(shí)驗(yàn)研究C)田野研究D)化學(xué)研究答案:B解析:[單選題]80.如何理解線性回歸中的?線性?A)兩個(gè)變量之間的關(guān)系是一次函數(shù)的關(guān)系,圖像是條直線B)兩個(gè)變量之間的關(guān)系是二次函數(shù)的關(guān)系,圖像是條拋物線C)兩個(gè)變量之間的關(guān)系是對(duì)數(shù)的關(guān)系D)兩個(gè)變量之間的關(guān)系是指數(shù)函數(shù)的關(guān)系答案:A解析:[單選題]81.最簡(jiǎn)單常用的sigmoid激活函數(shù)的輸出值的范圍是在以下哪個(gè)區(qū)間中?A)0~1B)0~2C)-1~0D)-1~1答案:A解析:[單選題]82.零均值歸一化是怎么做的A)原始數(shù)據(jù)進(jìn)行線性變換B)使結(jié)果映射到[0,1]的范圍C)實(shí)現(xiàn)對(duì)原始數(shù)據(jù)的等比縮放D)將原始數(shù)據(jù)映射到均值為0、標(biāo)準(zhǔn)差為1的分布上答案:D解析:[單選題]83.以下四個(gè)選項(xiàng)中,和K-means一樣都屬于無(wú)監(jiān)督算法的是?A)KNNB)SVMC)邏輯回歸D)PCA答案:D解析:[單選題]84.在訓(xùn)練模型的時(shí)候,經(jīng)常會(huì)加入正則項(xiàng),那么加入了正則項(xiàng)之后,會(huì)有什么效果A)正常擬合B)過(guò)擬合C)欠擬合D)不確定答案:B解析:[單選題]85.雖然隨機(jī)森林和GBDT都屬于集成學(xué)習(xí),他們有什么不同之處A)都是由多棵樹(shù)組成,最終的結(jié)果都是由多棵樹(shù)一起決定。B)組成隨機(jī)森林的樹(shù)可以并行生成,而GBDT是串行生成C)RF和GBDT在使用CART樹(shù)時(shí),可以是分類(lèi)樹(shù)或者回歸樹(shù)。D)不確定答案:B解析:[單選題]86.以下哪種情況會(huì)造成過(guò)擬合A)數(shù)據(jù)樣本中的噪聲太大B)模型復(fù)雜度太低C)模型過(guò)于簡(jiǎn)單D)數(shù)據(jù)特征太少答案:A解析:[單選題]87.LSTM網(wǎng)絡(luò)通過(guò)精妙的()將短期記憶與長(zhǎng)期記憶結(jié)合起來(lái),并且一定程度上解決了梯度消失的問(wèn)題A)RNN控制B)前饋控制C)BP控制D)門(mén)控制答案:D解析:[單選題]88.多層長(zhǎng)短期記憶人工神經(jīng)網(wǎng)絡(luò)LSTM,組合成多層網(wǎng)絡(luò)結(jié)構(gòu)后,可以處理更大范圍的()A)不穩(wěn)定性B)靜態(tài)性C)動(dòng)態(tài)性D)魯棒性答案:C解析:[單選題]89.樸素貝葉斯分類(lèi)器的樸素之處在于A)只能處理低維度屬性B)只能處理離散屬性C)分類(lèi)效果一般D)屬性之間的條件獨(dú)立性假設(shè)答案:D解析:[單選題]90.自然語(yǔ)言處理主要是關(guān)于()的技術(shù)。A)機(jī)械學(xué)B)通信學(xué)C)物理學(xué)D)邏輯學(xué)答案:D解析:[單選題]91.哪個(gè)激活函數(shù)的用于表示LSTM的?門(mén)?的概念A(yù))reluB)tanhC)LeakyReluD)sigmoid答案:D解析:[單選題]92.奇異值分解的缺點(diǎn)。A)A:轉(zhuǎn)換后的數(shù)據(jù)比較難理解。B)B:簡(jiǎn)化數(shù)據(jù)C)C:降低模型計(jì)算性能D)D:壓縮維度答案:A解析:[單選題]93.語(yǔ)料庫(kù)研究屬于()A)實(shí)驗(yàn)研究B)非實(shí)驗(yàn)研究C)田野研究D)化學(xué)研究答案:B解析:[單選題]94.如說(shuō)使用到了N-gram模型,如果N越大,會(huì)造成什么后果A)效果越差B)訓(xùn)練時(shí)間越短C)復(fù)雜度越低D)效果越好但是訓(xùn)練時(shí)間更長(zhǎng)答案:D解析:[單選題]95.GBDT有很多的局限性,在以下說(shuō)法中關(guān)于它的局限性描述正確的是A)預(yù)測(cè)階段的計(jì)算速度快,樹(shù)與樹(shù)之間可并行化計(jì)算。B)在分布稠密的數(shù)據(jù)集上,泛化能力和表達(dá)能力都很好,這使得GBDT在Kaggle的眾多競(jìng)賽中,經(jīng)常名列榜首。C)GBDT在高維稀疏的數(shù)據(jù)集上,表現(xiàn)不如支持向量機(jī)或者神經(jīng)網(wǎng)絡(luò)。D)采用決策樹(shù)作為弱分類(lèi)器使得GBDT模型具有較好的解釋性和魯棒性,能夠自動(dòng)發(fā)現(xiàn)特征間的高階關(guān)系。答案:C解析:[單選題]96.遷移學(xué)習(xí)的英文表示是什么?A)RNNB)CNNC)NLPD)TransferLearning答案:D解析:[單選題]97.以下哪項(xiàng)不是KNN算法的三要素?()A)K值的選取B)分類(lèi)決策規(guī)則C)距離度量的方式D)特征的順序答案:D解析:[單選題]98.seq2seq中的encode階段是把輸入的序列轉(zhuǎn)換成怎樣的向量A)黑箱操作不能確定B)等價(jià)于輸入的向量C)固定長(zhǎng)度的向量D)可變長(zhǎng)度的向量答案:C解析:[單選題]99.AUC值越大的分類(lèi)器,正確率會(huì)怎么樣A)越高B)越低C)不確定D)以上都正確答案:A解析:[單選題]100.關(guān)于同義詞的替換處理,以下哪個(gè)表述是正確的?A)Word2Vec基于概率統(tǒng)計(jì)B)Word2Vec結(jié)果符合當(dāng)前預(yù)料環(huán)境C)Word2Vec得到的都是語(yǔ)義上的同義詞D)Word2Vec受限于訓(xùn)練語(yǔ)料的數(shù)量和質(zhì)量答案:C解析:[單選題]101.不確定推理過(guò)程的不確定性不包括()A)證據(jù)的不確定性B)規(guī)則的不確定性C)推理過(guò)程的不確定性D)知識(shí)表示方法的不確定性答案:D解析:[單選題]102.以下四個(gè)選項(xiàng)中關(guān)于sigmoid的圖形曲線描述正確的是?A)U型B)M型C)X型D)S型答案:D解析:[單選題]103.在做靈活的文本匹配過(guò)程中包含以下哪個(gè)過(guò)程A)字符串語(yǔ)音表示(Soundex)B)語(yǔ)音發(fā)聲散列(Metaphone)C)編輯距離算法(EditDistance)D)關(guān)鍵詞哈希算法(KeywordHashing)答案:D解析:除了關(guān)鍵詞哈希算法,其它所有方法都用于靈活字串匹配[單選題]104.maxpooling中()是[batch,height,width,channels]的這種表示形式A)valueB)stridesC)shapeD)padding答案:C解析:[單選題]105.在模型訓(xùn)練的階段,使用的優(yōu)化算法中,超參數(shù)學(xué)習(xí)率會(huì)怎么變化A)保持不變B)持續(xù)較小C)持續(xù)增大D)不變答案:B解析:[單選題]106.修正線性函數(shù)指的是哪個(gè)函數(shù)A)sigmoidB)tanhC)reluD)Leakyrelu答案:C解析:[單選題]107.如果使用到了mini-batch去選取樣本,一般對(duì)選擇多大批次?A)61B)62C)63D)64答案:D解析:[單選題]108.哪個(gè)網(wǎng)絡(luò)結(jié)構(gòu)常用于人臉識(shí)別A)LeNET5B)(CNN:AlexNet)C)VGGD)ResNet答案:B解析:[單選題]109.GPT的思想是什么A)遮蔽掉一定量的詞B)預(yù)測(cè)下一句是否正確C)訓(xùn)練一個(gè)語(yǔ)言模型D)在沒(méi)有標(biāo)注的數(shù)據(jù)上進(jìn)行網(wǎng)絡(luò)學(xué)習(xí),然后添加一層再去具體的任務(wù)上進(jìn)行微調(diào)答案:D解析:[單選題]110.構(gòu)建或研究語(yǔ)料庫(kù)的時(shí)候,一般應(yīng)考慮代表性、結(jié)構(gòu)性、平衡性、()4個(gè)特性。A)規(guī)模性B)便捷性C)安全性D)高效性答案:A解析:[單選題]111.learning_rate用于網(wǎng)絡(luò)的什么作用A)調(diào)整學(xué)習(xí)率B)批處理C)dropoutD)過(guò)擬合答案:A解析:[單選題]112.假設(shè)要從時(shí)事新聞報(bào)道中抽取出某一恐怖事件的基本信息,如時(shí)間、地點(diǎn)、事件制造者、受害人、襲擊目標(biāo)、傷亡人數(shù)等,需要用到()A)信息抽取B)自動(dòng)文摘C)智能問(wèn)答D)信息過(guò)濾答案:A解析:[單選題]113.如何對(duì)比矩陣是否相等A)c=tf.greater(a,b)B)a=tf.subtract(a,b)C)b=tf.equal(a,b)D)d=tf.matmul(a,b)答案:C解析:[單選題]114.EM算法,什么是EM,最大期望算法A)是在概率模型中尋找參數(shù)最大似然估計(jì)或者最大后驗(yàn)估計(jì)的算法,其中概率模型依賴于無(wú)法觀測(cè)的隱性變量。B)自變量和因變量之間的關(guān)系C)找出最優(yōu)超平面進(jìn)行分類(lèi)D)不確定答案:A解析:[單選題]115.馬爾科夫作為常用的理論儲(chǔ)備,他可以用一個(gè)什么圖去進(jìn)行表示A)無(wú)向圖B)有無(wú)向圖C)有向圖D)不確定答案:A解析:[單選題]116.RNN可以將()時(shí)間步帶入到神經(jīng)元計(jì)算A)先前B)之后C)丟失D)LSTM答案:A解析:第2部分:多項(xiàng)選擇題,共57題,每題至少兩個(gè)正確答案,多選或少選均不得分。[多選題]117.判別式模型有什么缺點(diǎn)A)學(xué)習(xí)過(guò)程比較復(fù)雜B)目標(biāo)分類(lèi)中易產(chǎn)生較大錯(cuò)誤率C)不能反映訓(xùn)練數(shù)據(jù)本身的特性D)沒(méi)辦法把整個(gè)場(chǎng)景描述出來(lái)答案:CD解析:[多選題]118.分析y與x之間的線性關(guān)系,以下哪些圖不適合?A)A:散點(diǎn)圖B)B:條形圖C)C:直方圖D)D:餅圖答案:BCD解析:[多選題]119.語(yǔ)料庫(kù)的規(guī)模取決于()A)語(yǔ)料獲取的可能性B)語(yǔ)料加工的深度C)語(yǔ)料加工能力D)語(yǔ)料成分集合的大小答案:ABCD解析:[多選題]120.Batch歸一化操作的具體流程是怎樣的?A)求每個(gè)訓(xùn)練批次數(shù)據(jù)的均值B)求每個(gè)訓(xùn)練批次數(shù)據(jù)的方差C)使用求得的均值和方差對(duì)該批次的訓(xùn)練數(shù)據(jù)做歸一化,獲得0-1分布D)尺度變換和偏移答案:ABCD解析:[多選題]121.一個(gè)合格的機(jī)器算法包含哪些部分A)模型表征B)模型評(píng)估C)優(yōu)化算法D)學(xué)習(xí)率答案:ABC解析:[多選題]122.為模型挑選超參數(shù)時(shí),選擇不同的超參數(shù)可以的標(biāo)準(zhǔn)是什么?A)選擇對(duì)訓(xùn)練集目標(biāo)而言的最優(yōu)解B)對(duì)于開(kāi)發(fā)集而言的最優(yōu)解C)超參搜索過(guò)程中最想優(yōu)化的東西D)簡(jiǎn)化參數(shù)調(diào)試答案:ABC解析:[多選題]123.下面有關(guān)文本分析正確的說(shuō)法是哪些?()A)時(shí)間和日期都是需要識(shí)別的命名實(shí)體。B)句法分析可以表達(dá)組成句子的詞語(yǔ)之間的搭配或修辭關(guān)系C)文本分類(lèi)可以通過(guò)貝葉斯分類(lèi)器完成。D)信息抽取不需要了解實(shí)體之間的語(yǔ)義關(guān)系答案:ABC解析:[多選題]124.以下哪些網(wǎng)絡(luò)屬于計(jì)算機(jī)視覺(jué)領(lǐng)域A)VGGnetB)YOLOC)RNND)LSTM答案:AB解析:[多選題]125.下面關(guān)于SVM中核函數(shù)的說(shuō)法正確的是?A)核函數(shù)將低維空間中的數(shù)據(jù)映射到高維空間B)它是一個(gè)相似度函數(shù)C)不確定D)以上都正確答案:AB解析:[多選題]126.自然語(yǔ)言的落地成品有哪些A)知識(shí)圖譜B)機(jī)器人C)人臉檢測(cè)D)推薦系統(tǒng)答案:ABD解析:[多選題]127.在tensorflow中reshape函數(shù)其中的參數(shù)有(tensor,shape,name)等等,以下選項(xiàng)中描述正確的是A)函數(shù)的作用是將tensor變換為參數(shù)shape形式B)其中的shape為一個(gè)列表形式C)name可省略D)1所代表的含義是我們不用親自去指定這一維的大小,函數(shù)會(huì)自動(dòng)進(jìn)行計(jì)算答案:ABCD解析:[多選題]128.如果說(shuō)我們有一個(gè)語(yǔ)料庫(kù),如何去創(chuàng)建一個(gè)標(biāo)簽的模型?A)完成一個(gè)主題模型掌握語(yǔ)料庫(kù)中最重要的詞匯;B)訓(xùn)練一袋N-gram模型捕捉頂尖的n-gram:詞匯和短語(yǔ)C)訓(xùn)練一個(gè)詞向量模型學(xué)習(xí)復(fù)制句子中的語(yǔ)境D)以上所有答案:ABCD解析:[多選題]129.交叉熵作為卷積網(wǎng)絡(luò)中常用的函數(shù),以下幾個(gè)選項(xiàng)中描述正確的是?A)在全連接層B)進(jìn)行優(yōu)化時(shí)用C)用信息熵D)用softmax映射到概率空間答案:ABCD解析:[多選題]130.關(guān)于ELMO的本質(zhì)思想說(shuō)法正確的A)學(xué)的一個(gè)固定的WordEmbeddingB)事先訓(xùn)練好一個(gè)詞向量(預(yù)訓(xùn)練)C)基于任務(wù)上下文進(jìn)行動(dòng)態(tài)調(diào)整詞向量(微調(diào))D)以上都正確答案:AB解析:[多選題]131.TensorFlow的使用中tf.ones_like(a),這個(gè)變成語(yǔ)句代表了幾層意思A)將t節(jié)點(diǎn)內(nèi)容用a替換B)t節(jié)點(diǎn)對(duì)應(yīng)張量維度和A相同C)t對(duì)應(yīng)張量值為1D)a需要預(yù)先初始化答案:BCD解析:[多選題]132.XGBoost對(duì)樹(shù)的復(fù)雜度處理是怎么樣的A)控制樹(shù)的葉子節(jié)點(diǎn)個(gè)數(shù)B)增加葉子數(shù)的個(gè)數(shù)C)樹(shù)上葉子節(jié)點(diǎn)的得分w的L2模平方D)以上都正確答案:AC解析:[多選題]133.為什么進(jìn)行文本表示A)計(jì)算機(jī)不方便直接對(duì)文本字符串進(jìn)行處理,因此需要進(jìn)行數(shù)值化或向量化B)便于機(jī)器學(xué)習(xí)C)深度學(xué)習(xí)等人工智能最新技術(shù)在NLP領(lǐng)域中的應(yīng)用(現(xiàn)在)提升算法的效果D)句子表示答案:ABC解析:[多選題]134.ID3算法的實(shí)現(xiàn)步驟有哪些A)從根結(jié)點(diǎn)(rootnode)開(kāi)始,對(duì)結(jié)點(diǎn)計(jì)算所有可能的特征的信息增益,選擇信息增益最大的特征作為結(jié)點(diǎn)的特征。B)由該特征的不同取值建立子節(jié)點(diǎn),再對(duì)子結(jié)點(diǎn)遞歸地調(diào)用以上方法,構(gòu)建決策樹(shù);直到所有特征的信息增益均很小或沒(méi)有特征可以選擇為止;C)最后得到一個(gè)決策樹(shù)。D)不確定答案:ABC解析:[多選題]135.哪些是機(jī)器學(xué)習(xí)的學(xué)習(xí)方法A)監(jiān)督式學(xué)習(xí)B)非監(jiān)督式學(xué)習(xí)C)半監(jiān)督式學(xué)習(xí)D)強(qiáng)化學(xué)習(xí)答案:ABCD解析:[多選題]136.梯度消失是網(wǎng)絡(luò)中經(jīng)常發(fā)生的問(wèn)題,下列關(guān)于它的說(shuō)法正確的是A)可以通過(guò)激活函數(shù)防止梯度消失B)梯度消失對(duì)神經(jīng)網(wǎng)絡(luò)無(wú)影響C)盡量避免梯度消失D)梯度消失反向傳播時(shí),由于梯度值過(guò)小或消失的現(xiàn)象答案:ACD解析:[多選題]137.以下哪些是樸素貝葉斯算法的特點(diǎn)()A)低偏差B)高方差C)低方差D)高偏差答案:CD解析:[多選題]138.自動(dòng)文摘分為哪幾種方式A)抽取式(Extractive)B)編碼式C)生成式(abstractive)D)解碼式答案:AC解析:[多選題]139.以下哪些網(wǎng)絡(luò)是NLP中常用的網(wǎng)絡(luò)結(jié)構(gòu)A)RNNB)LSTMC)GRUD)以上都是的答案:ABCD解析:[多選題]140.下列四個(gè)選項(xiàng)關(guān)于數(shù)據(jù)歸一化的描述,正確的選項(xiàng)有哪些?A)歸一化可以預(yù)防過(guò)擬合B)歸一化沒(méi)有實(shí)質(zhì)作用C)歸一化將所有數(shù)據(jù)樣本值縮放到0-1之間D)歸一化是一種激活函數(shù)答案:AC解析:[多選題]141.以下哪兩項(xiàng)對(duì)sigmoid函數(shù)的描述是準(zhǔn)確的A)概率平均B)能解決非線性分類(lèi)問(wèn)題C)將負(fù)的權(quán)值映射到正值D)將正權(quán)值映射到負(fù)數(shù)答案:BC解析:[多選題]142.關(guān)鍵詞抽取的算法主要分為哪兩類(lèi)A)有監(jiān)督B)半監(jiān)督C)無(wú)監(jiān)督D)不確定答案:AC解析:[多選題]143.常用的池化包含哪兩種A)最小池化B)最大池化C)平均池化D)方差池化答案:BC解析:[多選題]144.詞頻統(tǒng)計(jì)的TF-IDF算法相關(guān)公式有哪些?A)TF=在某一類(lèi)中詞條出現(xiàn)的次數(shù)/該類(lèi)中所有詞條數(shù)目B)IDF=log(語(yǔ)料庫(kù)中文檔總數(shù)/包含詞條的文檔數(shù)+1)C)IDF=log(語(yǔ)料庫(kù)中文檔總數(shù)/包含詞條的文檔數(shù))+1D)TF-IDF=TF*IDF答案:ABD解析:[多選題]145.BERT的token中mask是怎么做的A)80%的tokens會(huì)被替換成[MASK]tokenB)10%的tokens會(huì)被替換成隨機(jī)的tokenC)10%的tokens會(huì)保持不變但需要被預(yù)測(cè)D)15%的tokens會(huì)被替換成[MASK]答案:ABC解析:[多選題]146.以下四個(gè)任務(wù)中,決策樹(shù)可以完成哪些A)分類(lèi)B)聚類(lèi)C)回歸D)降維答案:AC解析:[多選題]147.求最大似然函數(shù)時(shí)的步驟一般都包含哪些A)寫(xiě)出似然函數(shù);B)對(duì)似然函數(shù)取對(duì)數(shù),并整理;C)求導(dǎo)數(shù),令導(dǎo)數(shù)為0,得到似然方程;D)解似然方程,得到的參數(shù)即為所求;答案:ABCD解析:[多選題]148.關(guān)于數(shù)據(jù)歸一化的作用描述正確的有哪些?A)更容易收斂得到最優(yōu)解B)權(quán)重值較小C)權(quán)重值大D)無(wú)特點(diǎn)答案:AB解析:[多選題]149.生成式Generativemodel模型相比判別式Discriminativemodel模型的優(yōu)點(diǎn)有哪些?A)適用較多類(lèi)別的識(shí)別B)能更充分利用先驗(yàn)知識(shí)C)分類(lèi)邊界更靈活D)研究單類(lèi)問(wèn)題靈活性強(qiáng)答案:BD解析:[多選題]150.下述相似度公式正確的是?A)漢明距離相似度:1-漢明距離/關(guān)鍵詞長(zhǎng)度B)歐幾里得距離相似度:1/(1+歐幾里得距離)C)曼哈頓距離相似度:1/(1+曼哈頓距離)D)編輯距離相似度:(1-編輯距離/兩者之間長(zhǎng)度)答案:BC解析:[多選題]151.以下幾個(gè)模型中,哪些是基于N-Gram的A)BERTB)GPTC)NNLMD)CBOW答案:CD解析:[多選題]152.關(guān)于動(dòng)量梯度下降是由哪些因素控制的?A)平均值B)指數(shù)加權(quán)平均值C)學(xué)習(xí)率D)方差答案:BC解析:[多選題]153.關(guān)于牛頓法缺點(diǎn)的描述,以下正確的是A)牛頓法是一種迭代算法,每一步都需要求解目標(biāo)函數(shù)的Hessian矩陣的逆矩陣,計(jì)算比較復(fù)雜。B)在高維情況下這個(gè)矩陣非常大,計(jì)算和存儲(chǔ)都是問(wèn)題。C)在小批量的情況下,牛頓法對(duì)于二階導(dǎo)數(shù)的估計(jì)噪聲太大。D)目標(biāo)函數(shù)非凸的時(shí)候,牛頓法容易受到鞍點(diǎn)或者最大值點(diǎn)的吸引。答案:ABCD解析:[多選題]154.AlphaGo中使用了哪些技術(shù)?A)決策神經(jīng)網(wǎng)絡(luò)B)評(píng)估神經(jīng)網(wǎng)絡(luò)C)歷史經(jīng)驗(yàn)D)線性代數(shù)答案:AB解析:[多選題]155.以下四個(gè)選項(xiàng)中屬于Bert家族成員的有哪些A)albertB)RoBertaC)Sentence-BertD)SpanBert答案:ABCD解析:[多選題]156.Word2Vec中的輸出層為什么采用負(fù)例采樣A)可以大大降低計(jì)算量B)可以加快模型的訓(xùn)練時(shí)間C)保證模型的訓(xùn)練效果D)通過(guò)部分詞,來(lái)更新權(quán)重答案:ABCD解析:[多選題]157.目前情感分類(lèi)的研究主要有()兩種方法A)基于情感詞典的情感分析B)基于機(jī)器學(xué)習(xí)的情感分類(lèi)C)基于規(guī)則的情感分析D)基于統(tǒng)計(jì)的情感分析答案:AB解析:[多選題]158.在深度學(xué)習(xí)領(lǐng)域中,以下框架哪些可以很好的為深度學(xué)習(xí)服務(wù)A)caffeB)tensorflowC)torchD)mxnet答案:ABCD解析:[多選題]159.CNN中的pooling手段一般包含哪兩種A)最小池化B)最大池化C)平均池化D)方差池化答案:BC解析:[多選題]160.Adaboost中有兩種權(quán)重,體現(xiàn)在()A)A:樣本權(quán)重B)B:代價(jià)函數(shù)C)C:梯度下降D)D:弱分類(lèi)器權(quán)重答案:AD解析:[多選題]161.經(jīng)典算法SVM,以下說(shuō)法正確的是A)函數(shù)距離B)拉格朗日乘子法C)對(duì)偶問(wèn)題D)幾何距離答案:ABCD解析:[多選題]162.以下四個(gè)描述中,對(duì)于馬爾科夫模型的描述正確的是?A)馬爾科夫模型的基本假設(shè)是人事變動(dòng)概率B)用以估計(jì)歷年年平均調(diào)動(dòng)概率的周期越長(zhǎng),根據(jù)過(guò)去所推測(cè)未來(lái)人員變動(dòng)就越準(zhǔn)確C)采用馬爾科夫模型可以預(yù)測(cè)組織任何時(shí)刻點(diǎn)上的各類(lèi)人員分布狀況D)模型中的轉(zhuǎn)移率是指組織中人員進(jìn)行水平調(diào)動(dòng)的比率,不包含被提升或降級(jí)的人數(shù)答案:AB解析:[多選題]163.情感分析為自然語(yǔ)言處理(NLP)中最活躍的研究領(lǐng)域之一,在()方面有廣泛的應(yīng)用與研究。A)數(shù)據(jù)挖掘B)Web挖掘C)文本挖掘D)信息檢索答案:ABCD解析:[多選題]164.ML模型有哪些A)SVMB)LRC)LSTMD)RNN答案:ABCD解析:[多選題]165.激活函數(shù)也在不斷地發(fā)展,Relu激活函數(shù)相比sigmoid會(huì)有哪些優(yōu)點(diǎn),以下描述正確的是A)防止梯度彌散B)Relu是一些單元失活,造成稀疏性,從而防止過(guò)擬合C)加快計(jì)算D)以上都正確答案:ABCD解析:[多選題]166.Sigmoid,Relu,Tanh有什么異同點(diǎn)A)都可以做非線性的變換B)都可以做線性的變換C)變換后Y的取值范圍不相同D)變換后Y的取值范圍相同答案:AC解析:[多選題]167.基于表示方法的文本分類(lèi)為A)短文本表示B)One-hot表示C)詞表示D)CBOW答案:BD解析:[多選題]168.在NLP中詞袋子模型可以編碼文本,那么它有什么優(yōu)缺點(diǎn)A)A簡(jiǎn)單方便快速B)B在語(yǔ)料充足的前提下,對(duì)于簡(jiǎn)單自然語(yǔ)言處理任務(wù)效果不錯(cuò)C)C準(zhǔn)確率較低D)D無(wú)法關(guān)注詞語(yǔ)間的順序答案:ABCD解析:[多選題]169.概率圖模型中關(guān)于隱馬爾可夫模型都解決哪幾類(lèi)問(wèn)題A)預(yù)測(cè)問(wèn)題B)評(píng)價(jià)問(wèn)題C)解碼問(wèn)題D)參數(shù)學(xué)習(xí)問(wèn)題答案:BCD解析:[多選題]170.以下幾種關(guān)于GPT的說(shuō)法正確的是什么A)使用的是Transformer而不是LSTMB)使用的是LSTM而不是TransformerC)其中Transformer是單向的D)使用了雙向的Transformer答案:AC解析:[多選題]171.GRU中也使用了門(mén)機(jī)制,分別是什么門(mén)A)更新門(mén)B)輸入門(mén)C)重置門(mén)D)輸出門(mén)答案:AC解析:[多選題]172.專家系統(tǒng)的結(jié)構(gòu)包含哪些?A)人機(jī)界面和知識(shí)庫(kù)B)推理機(jī)C)動(dòng)態(tài)數(shù)據(jù)庫(kù)D)知識(shí)庫(kù)答理系統(tǒng)和解釋模塊答案:ABCD解析:[多選題]173.自然語(yǔ)言理解不僅包括計(jì)算機(jī)能正確理解人們用自然語(yǔ)言輸入的信息,能正確回答輸入信息中的有關(guān)問(wèn)題,而且還包括哪些?A)語(yǔ)言分析B)語(yǔ)法分析C)語(yǔ)用分析D)語(yǔ)句分析答案:BCD解析:第3部分:判斷題,共66題,請(qǐng)判斷題目是否正確。[判斷題]174.語(yǔ)義分析技術(shù)主要來(lái)自數(shù)理邏輯和語(yǔ)義學(xué)A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]175.通過(guò)較少樹(shù),葉節(jié)點(diǎn)的數(shù)量,可以較小樹(shù)的復(fù)雜度A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]176.決策樹(shù)只能做分類(lèi),但是做不了回歸問(wèn)題A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]177.元字符由特殊符號(hào)組成,元字符的應(yīng)用是正則表達(dá)式強(qiáng)大的原因。對(duì)A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]178.K-Means算法試圖找到誤差準(zhǔn)則函數(shù)最小的簇A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]179.對(duì)于一個(gè)實(shí)用的NLP系統(tǒng),必須具有較好的未知語(yǔ)言現(xiàn)象的處理能力。()A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]180.激活函數(shù)的性質(zhì):非線性,可微性,單調(diào)性A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]181.機(jī)器學(xué)習(xí)的聚類(lèi)算法可用于新聞文本聚類(lèi)任務(wù)。對(duì)A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]182.深度學(xué)習(xí)只能應(yīng)用在圖像方面,不能應(yīng)用到自然語(yǔ)言中A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]183.TF-IDF是一種基于統(tǒng)計(jì)的計(jì)算方法,常用于評(píng)估在一個(gè)文檔集中一個(gè)詞對(duì)全部文檔的重要程度。A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]184.詞嵌入的過(guò)程就是,需要獲得多維的數(shù)據(jù),并表示為向量A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]185.自動(dòng)分詞難點(diǎn)主要集中在分詞標(biāo)準(zhǔn),切分歧義和未登錄詞三部分A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]186.特征歸一化以后,可以通過(guò)梯度更快的找到最優(yōu)解A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]187.jieba分詞支持精確模式、全模式和搜索引三種模式。對(duì)A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]188.relu比sigmoid更容易陷入梯度消失A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]189.非結(jié)構(gòu)化數(shù)據(jù)。結(jié)構(gòu)化數(shù)據(jù)類(lèi)型可以看作關(guān)系型數(shù)據(jù)庫(kù)的一張表A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]190.CNN不能做文本特征提取,只適用于圖像A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]191.基于深度學(xué)習(xí)的命名實(shí)體識(shí)別是目前研究與應(yīng)用的主流方法。對(duì)A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]192.相比單層的神經(jīng)網(wǎng)絡(luò),引入多層的神經(jīng)網(wǎng)絡(luò)就可以使線性模型變成非線性模型,來(lái)擬合非線性的結(jié)構(gòu)A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]193.詞的多義現(xiàn)象可以分為三種類(lèi)型:意義相關(guān)的多義,意義無(wú)關(guān)的多義,詞性不同的多義A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]194.隨機(jī)森林是由很多弱分類(lèi)器構(gòu)成的一個(gè)強(qiáng)分類(lèi)器A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]195.按語(yǔ)料庫(kù)的動(dòng)態(tài)更新程度可分為參考語(yǔ)料庫(kù)和監(jiān)控語(yǔ)料庫(kù)A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]196.XGBoost和隨機(jī)森林的思想是一樣的A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]197.語(yǔ)音識(shí)別又稱自動(dòng)語(yǔ)音識(shí)別,是指對(duì)輸入計(jì)算機(jī)的語(yǔ)音信號(hào)進(jìn)行識(shí)別并轉(zhuǎn)換成書(shū)面語(yǔ)言表示出來(lái)。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]198.線性回歸不僅可以最回歸同時(shí)也可以做分類(lèi)A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]199.KNN是一個(gè)典型的聚類(lèi)算法A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]200.nltk中定義了許多基本語(yǔ)料庫(kù)函數(shù),fileids()函數(shù)用于獲取語(yǔ)料庫(kù)中的文件。對(duì)A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]201.抽取關(guān)鍵詞,只能使用無(wú)監(jiān)督的算法A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]202.witten-bell算法的思想是:如果測(cè)試過(guò)程中的一個(gè)實(shí)例在訓(xùn)練語(yǔ)料中從未出現(xiàn),那么它就是一個(gè)新事物A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]203.通常連接主義,符號(hào)主義和行為主義指的是人工智能的三大學(xué)派A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]204.L2正則化可以做特征選擇A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]205.一般來(lái)講,使用低階的n元模型向n元高階模型插值是無(wú)效的,因?yàn)楫?dāng)沒(méi)有足夠的語(yǔ)料庫(kù)估計(jì)高階模型的概率時(shí),低階模型無(wú)法提供有用的信息A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]206.CNN通過(guò)卷積的方式進(jìn)行特征提取A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]207.基于統(tǒng)計(jì)的分詞能夠較好地處理未登錄詞和歧義詞,不需要人為的搭建和維護(hù)詞典。對(duì)A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]208.情感分類(lèi)主要用于判別自然語(yǔ)言文字中表達(dá)的觀點(diǎn)、喜好以及與感受和態(tài)度等相關(guān)的信息。對(duì)A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]209.ELMO是否成功解決了對(duì)意詞的問(wèn)題A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]210.one-hot是最優(yōu)的向量編碼方式A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]211.語(yǔ)言模型在自然語(yǔ)言處理中占有重要的地位,在語(yǔ)音識(shí)別,機(jī)器翻譯,漢語(yǔ)自動(dòng)分詞和句法分析等都有應(yīng)用A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]212.LDA在2003年提出,是一種主題模型A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]213.按語(yǔ)料的加工深度來(lái)分,語(yǔ)料庫(kù)可分為標(biāo)注語(yǔ)料庫(kù)和非標(biāo)注語(yǔ)料庫(kù)A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]214.國(guó)標(biāo)碼用三個(gè)字節(jié)表示一個(gè)漢字,每個(gè)字節(jié)的ASCII碼都大于127A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]215.textCNN和textRNN都屬于深度學(xué)習(xí)的文本分類(lèi)模型A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]216.如果發(fā)生了欠擬合可以加入正則化,并且減小模型的復(fù)雜度A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]217.損失函數(shù)MSE經(jīng)常用在SVM中使用A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]218.TF-IDF會(huì)將一些高頻詞(的,是,了)作為停用詞去掉A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]219.NLTK中的()函數(shù)可查詢文本中的詞匯頻數(shù)分布.對(duì)A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]220.回退模型是根據(jù)低一階的分布,將從非零計(jì)數(shù)中減去的計(jì)數(shù)量分配給計(jì)數(shù)為零的高元語(yǔ)法。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]221.seq2seq和transformer一樣都是編解碼的模型結(jié)構(gòu)A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]222.特征提取包含在神經(jīng)網(wǎng)絡(luò)內(nèi)部,所以說(shuō)神經(jīng)網(wǎng)絡(luò)是端到端的網(wǎng)絡(luò)。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]223.模型過(guò)擬合了之后可以適當(dāng)降低模型的復(fù)雜度A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]224.Bi-Gram和TriGram都屬于N-Gram中的子模型,前者的窗口大小為2,后者的窗口大小為3A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]225.命名實(shí)體識(shí)別是信息提取、機(jī)器翻譯和問(wèn)答系統(tǒng)等應(yīng)用領(lǐng)域里的基礎(chǔ)工具。對(duì)A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]226.AUC值越大的分類(lèi)器,正確率越低A)正確B)錯(cuò)

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論