




版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
試卷科目:人工智能自然語(yǔ)言技術(shù)練習(xí)人工智能自然語(yǔ)言技術(shù)練習(xí)(習(xí)題卷5)PAGE"pagenumber"pagenumber/SECTIONPAGES"numberofpages"numberofpages人工智能自然語(yǔ)言技術(shù)練習(xí)第1部分:?jiǎn)雾?xiàng)選擇題,共116題,每題只有一個(gè)正確答案,多選或少選均不得分。[單選題]1.如果對(duì)數(shù)據(jù)進(jìn)行了歸一化的處理,可以達(dá)到什么樣的效果A)將所有的特征都統(tǒng)一到一個(gè)大致相同的數(shù)值區(qū)間內(nèi)B)并無(wú)實(shí)際的意義C)不確定D)可以對(duì)數(shù)據(jù)進(jìn)行等比例的擴(kuò)大答案:A解析:[單選題]2.以下哪個(gè)手段不屬于CNNA)局部連接B)權(quán)值共享C)池化操作D)多層次結(jié)構(gòu)答案:D解析:[單選題]3.EM算法應(yīng)用很廣泛,它有什么優(yōu)點(diǎn)?A)對(duì)初始值敏感B)簡(jiǎn)單性和普適性C)不同的初值可能得到不同的參數(shù)估計(jì)值D)不能保證找到全局最優(yōu)值答案:B解析:[單選題]4.如果數(shù)據(jù)特征太多,需要對(duì)數(shù)據(jù)特征做降維操作,可以使用以下那種方式A)PCA降維B)K-MeansC)SVMD)嶺回歸答案:A解析:[單選題]5.在NLP的中多模型當(dāng)中,N-Gram模型可以用來(lái)做什么A)預(yù)計(jì)或者評(píng)估一個(gè)句子是否合理B)可以做到文本翻譯C)提取文本當(dāng)中的主題D)可以做問(wèn)答系統(tǒng)答案:A解析:[單選題]6.我們知道在概率圖中有很多的節(jié)點(diǎn),這些節(jié)點(diǎn)分別有什么意義A)隨機(jī)變量B)關(guān)系C)代價(jià)D)學(xué)習(xí)率答案:A解析:[單選題]7.正則表達(dá)式的轉(zhuǎn)義符是()A)\\B)\C);D)$$答案:A解析:[單選題]8.信息熵又叫什么?A)信息增益B)信息增益比C)基尼系數(shù)D)香農(nóng)熵答案:D解析:[單選題]9.數(shù)據(jù)平滑方法不包括A)laplace法則B)絕對(duì)折扣C)交叉檢驗(yàn)D)決策樹答案:D解析:[單選題]10.如果網(wǎng)絡(luò)中遇到了梯度爆炸問(wèn)題,下列選項(xiàng)中哪個(gè)可以很好的解決?A)梯度剪切,正則B)增加擬合數(shù)據(jù)C)增加訓(xùn)練數(shù)據(jù)維度D)增加隱藏層答案:A解析:[單選題]11.關(guān)于語(yǔ)料庫(kù)的敘述錯(cuò)誤的是A)是指存放語(yǔ)言材料的數(shù)據(jù)庫(kù)B)是指計(jì)算機(jī)存儲(chǔ)的數(shù)字化語(yǔ)料庫(kù)C)庫(kù)中文本通常具有既定的格式與標(biāo)記D)其中包含了詞匯知識(shí)庫(kù)答案:D解析:[單選題]12.BERT是一個(gè)什么樣的模型A)預(yù)訓(xùn)練模型B)語(yǔ)言模型C)概率圖模型D)不確定答案:A解析:[單選題]13.RNN是什么的簡(jiǎn)稱A)全連接網(wǎng)絡(luò)B)卷積神經(jīng)網(wǎng)絡(luò)C)循環(huán)神經(jīng)網(wǎng)絡(luò)D)感知機(jī)網(wǎng)絡(luò)答案:C解析:[單選題]14.多分類問(wèn)題中最經(jīng)典的模型是()。A)CRF模型B)聚類模型,C)多項(xiàng)邏輯斯諦回歸D)神經(jīng)網(wǎng)絡(luò)模型答案:A解析:[單選題]15.BP算法,其中的BP指的怎樣傳播?A)反向B)正向C)前后向D)全連接答案:A解析:[單選題]16.下列四個(gè)選項(xiàng)中,哪個(gè)選項(xiàng)指的是mini-batchA)小批量梯度下降B)隨機(jī)梯度下降C)批量梯度下降D)小批量損失計(jì)算答案:A解析:[單選題]17.relu是常用的激活函數(shù),它可以將小于()的數(shù)輸出為0A)-1B)0C)1D)x答案:B解析:[單選題]18.XGBoost的基本核心思想是什么A)訓(xùn)練出來(lái)一個(gè)一次函數(shù)圖像去描述數(shù)據(jù)B)訓(xùn)練出來(lái)一個(gè)二次函數(shù)圖像去描述數(shù)據(jù)C)不斷地添加樹,不斷地進(jìn)行特征分裂來(lái)生長(zhǎng)一棵樹,每次添加一個(gè)樹,其實(shí)是學(xué)習(xí)一個(gè)新函數(shù)f(x),去擬合上次預(yù)測(cè)的殘差。D)不確定答案:C解析:[單選題]19.以下四個(gè)選項(xiàng)當(dāng)中,哪個(gè)不是不是python的?魔法?方法是A)__enter__B)__len__C)__iter__D)__list__答案:D解析:[單選題]20.使用TensorFlow去定義常量的操作,以下正確得是?A)tensor=tf.constant(1)B)tensor=tf.constant([1,2])C)tensor=tf.constant(-1,shape=[2,3])D)a=tf.constant([1.0,2.0],name="a)答案:D解析:[單選題]21.以下四個(gè)模型中哪個(gè)不屬于判別式式模型A)MEMMB)CRFC)HMMD)SVM答案:C解析:[單選題]22.關(guān)于失活函數(shù)dropout運(yùn)行的描述正確的是?A)隨機(jī)取消一些節(jié)點(diǎn),只是用部分節(jié)點(diǎn)進(jìn)行擬合運(yùn)算,防止過(guò)擬合B)dropout能增加新樣本防止過(guò)擬合C)dropout進(jìn)行歸一化操作,防止過(guò)擬合D)dropout通過(guò)給損失函數(shù)增加懲罰項(xiàng),防止過(guò)擬合答案:A解析:[單選題]23.tf.abs對(duì)張量做什么操作A)求絕對(duì)值B)相減C)相除D)相加答案:A解析:[單選題]24.以下哪種情況會(huì)導(dǎo)致SVM算法性能下降?A)數(shù)據(jù)線性可分B)數(shù)據(jù)干凈、格式整齊C)數(shù)據(jù)有噪聲,有重復(fù)值D)不確定答案:C解析:[單選題]25.tf.reverse的正確說(shuō)法是哪一項(xiàng)?A)沿著某一維度連結(jié)tensorB)沿著某一維度將tensor分離為num_splittensorsC)對(duì)tensor進(jìn)行切片操作D)沿著某維度進(jìn)行序列反轉(zhuǎn)答案:D解析:[單選題]26.檢索模型和生成模型由不同的應(yīng)用,下面選項(xiàng)包含檢索模型和生成式模型例子是哪個(gè)?A)基于詞典的學(xué)習(xí)和詞向量模型B)基于規(guī)則的學(xué)習(xí)和序列到序列模型C)詞向量和句子到向量模型D)循環(huán)神經(jīng)網(wǎng)絡(luò)和卷積神經(jīng)網(wǎng)絡(luò)答案:B解析:BERT使用token嵌入、段嵌入(SegmentEmbedding)、位置嵌入(PositionEmbedding)。[單選題]27.先把連續(xù)的浮點(diǎn)特征值離散化成k個(gè)整數(shù),構(gòu)造一個(gè)寬度為k的直方圖。是以下哪個(gè)算法的優(yōu)化A)直方圖算法算法B)帶深度限制的Leaf-wise的葉子生長(zhǎng)策略C)不確定D)直接支持類別特征答案:A解析:[單選題]28.TextRank是由__演變而來(lái)的A)TextrnnB)PageRankC)fastTextD)TextCNN答案:B解析:[單選題]29.以下幾個(gè)算法中哪個(gè)不容易陷入過(guò)擬合A)未剪枝的決策樹B)隨機(jī)森林C)不加正則的線性回歸D)不加正則的邏輯回歸答案:B解析:[單選題]30.當(dāng)樣本較難確定時(shí),可使用下列哪個(gè)抽樣方法是:A)有放回的簡(jiǎn)單隨機(jī)抽樣B)無(wú)放回的簡(jiǎn)單隨機(jī)抽樣C)分層抽樣D)漸進(jìn)抽樣答案:D解析:[單選題]31.NLP任務(wù)想要做的好,最基礎(chǔ)的操作是什么A)文本的向量化B)下有任務(wù)的處理C)模型的選擇D)都不正確答案:A解析:[單選題]32.人工智能NLP有很大的應(yīng)用,那么下面哪些屬于NLP的應(yīng)用A)從圖像中檢測(cè)物體B)面部識(shí)別C)語(yǔ)音生物識(shí)別D)文本摘要答案:D解析:[單選題]33.以下四個(gè)選項(xiàng)中,那個(gè)是BERT的遮蔽A)TokenB)MASKC)RELUD)不確定答案:B解析:[單選題]34.可以接受非語(yǔ)言形式的信息作為輸入,生成可讀的文字屬于什么任務(wù)類型A)文本分類B)文本生成C)文本翻譯D)信息抽取答案:B解析:[單選題]35.邏輯回歸是如何做分類的,為什么可以做分類A)因?yàn)槭褂昧薡=W*X+b的函數(shù)表達(dá)式B)因?yàn)檫壿嫽貧w引入了激活函數(shù)做了非線性的變換C)因?yàn)檫壿嫽貧w使用了誤差平方和作為目標(biāo)函數(shù)D)因?yàn)檫壿嬏幚淼亩际沁B續(xù)性數(shù)據(jù)答案:B解析:[單選題]36.下列哪部分不是專家系統(tǒng)的組成部分A)用戶B)綜合數(shù)據(jù)庫(kù)C)推理機(jī)D)知識(shí)庫(kù)答案:A解析:[單選題]37.高斯混合模型與K均值算法的相同點(diǎn)有哪些A)都是可用于分類的算法B)都是可用于聚類的算法C)都是可用于回歸的算法D)都是可用于降維的算法答案:B解析:[單選題]38.隱馬是建立在馬爾科夫的基礎(chǔ)上的,馬爾科夫?qū)儆趲自M模型A)1B)2C)3D)4答案:C解析:[單選題]39.樸素貝葉斯是以()為基礎(chǔ)的分類方法。A)概率論B)線性代數(shù)C)微積分D)都不是答案:A解析:[單選題]40.什么是概率圖模型,如何去理解概率圖模型A)概率圖模型是用圖來(lái)表示變量概率依賴關(guān)系B)概率圖是樹狀的結(jié)構(gòu)C)概率圖就是概率,是相同的D)不確定答案:A解析:[單選題]41.關(guān)于結(jié)構(gòu)化數(shù)據(jù),以下是哪個(gè)?A)數(shù)據(jù)庫(kù)中的數(shù)據(jù)B)HTML文檔C)文本D)圖片答案:A解析:[單選題]42.自然語(yǔ)言處理()。A)就是像人一樣聽(tīng)到語(yǔ)言,然后查找數(shù)據(jù)庫(kù)識(shí)別聲音。B)就是理解書面文字,翻譯成另一種語(yǔ)言。C)理解自然界的各種聲響,并加以解釋。D)具備人類般文字處理能力,從文本中提取意義。答案:D解析:[單選題]43.sigmoid激活函數(shù)的曲線是什么樣的A)直線B)A型曲線C)C型曲線D)S型曲線答案:D解析:[單選題]44.以下四個(gè)選項(xiàng)中哪個(gè)不屬于深度模型框架A)tensorflowB)pytorchC)pandlepandleD)flyfly答案:D解析:[單選題]45.K-NN算法有什么特點(diǎn)A)KNN是一種非參的,惰性的算法模型B)KNN是一種基于劃分的聚類C)KNN是一種異常值非常敏感的算法D)以上都正確答案:A解析:[單選題]46.假定使用階數(shù)為2的線性核SVM,將模型應(yīng)用到實(shí)際數(shù)據(jù)集上后,其訓(xùn)練準(zhǔn)確率和測(cè)試準(zhǔn)確率均為100%?,F(xiàn)在增加模型復(fù)雜度(增加核函數(shù)的階),會(huì)發(fā)生以下哪種情況?A)過(guò)擬合B)欠擬合C)什么都不會(huì)發(fā)生,因?yàn)槟P蜏?zhǔn)確率已經(jīng)到達(dá)極限D(zhuǎn))以上都不對(duì)答案:A解析:[單選題]47.能對(duì)發(fā)生故障的對(duì)象(系統(tǒng)或設(shè)備)進(jìn)行處理,使其恢復(fù)正常工作的專家系統(tǒng)是()。A)修理專家系統(tǒng)B)診斷專家系統(tǒng)C)調(diào)試專家系統(tǒng)D)規(guī)劃專家系統(tǒng)答案:A解析:[單選題]48.在同質(zhì)集成(系統(tǒng)中個(gè)體學(xué)習(xí)器的類型相同)中,個(gè)體學(xué)習(xí)器又被稱為A)基學(xué)習(xí)器B)組建學(xué)習(xí)C)不能判斷D)以上都正確答案:A解析:[單選題]49.在進(jìn)行神經(jīng)網(wǎng)絡(luò)建模時(shí),需要對(duì)目標(biāo)數(shù)據(jù)進(jìn)行怎樣的操作A)度量化B)抽象化C)具體化D)理想化答案:A解析:[單選題]50.NLP可以說(shuō)是人工智能中最難的一個(gè)方向,那么它的難體現(xiàn)在哪個(gè)地方A)語(yǔ)言的多樣性,多變性等B)算力能力的提升C)數(shù)據(jù)量變得很大D)算法沒(méi)有更新答案:A解析:[單選題]51.在NLP虛擬環(huán)境中安裝需要的程序包,并自動(dòng)安裝這個(gè)包的依賴項(xiàng)需要用()。A)pipB)condaC)condaD)pip答案:B解析:[單選題]52.以下哪個(gè)參數(shù)屬于超參數(shù)?A)學(xué)習(xí)率B)激活值C)損失值D)偏置答案:A解析:[單選題]53.以下四個(gè)選項(xiàng)中,屬于監(jiān)督學(xué)習(xí)算法是哪個(gè)A)聚類B)降維C)回歸算法D)PCA答案:C解析:[單選題]54.常用的聚類算法屬于什么技術(shù)A)機(jī)器學(xué)習(xí)B)深度學(xué)習(xí)C)神經(jīng)網(wǎng)絡(luò)D)強(qiáng)化學(xué)習(xí)答案:A解析:[單選題]55.在NNLM模型中,它的模型框架是什么樣的A)先編碼再解碼B)先計(jì)算一句話的條件概率然后再做特征映射C)先解碼再編碼D)輸入經(jīng)過(guò)一個(gè)特征映射然后計(jì)算條件概率分布答案:D解析:[單選題]56.()是指用NLP、文本挖掘和計(jì)算機(jī)語(yǔ)言學(xué)等方法對(duì)帶有情感色彩的主觀性文本進(jìn)行分析、處理、歸納和推理的過(guò)程。A)關(guān)鍵詞提取B)文本向量化C)文本情感分析D)智能問(wèn)答答案:C解析:[單選題]57.概率圖模型中使用的什么表示的變量的聯(lián)合概率分布A)代價(jià)B)圖C)信息D)以上都正確答案:B解析:[單選題]58.tf開(kāi)始執(zhí)行每個(gè)variable里的initializer的函數(shù)是哪個(gè)A)sess.runB)global_variables_initializer()C)variables_initializer()D)global_initializer()答案:B解析:[單選題]59.淺層句法分析方法大體分為兩類,其一基于統(tǒng)計(jì)的方法,統(tǒng)計(jì)方法中不屬于具有代表性的方法是A)基于HMM模型的方法B)Φ2統(tǒng)計(jì)方法C)互信息方法D)統(tǒng)計(jì)分組方法答案:D解析:[單選題]60.共現(xiàn)矩陣很容易造成稀疏和維度大的問(wèn)題,應(yīng)該怎么解決A)回歸B)分類C)降維D)聚類答案:C解析:[單選題]61.GPT中舍棄了LSTM做特征提取,那么LSTM的缺點(diǎn)是什么A)無(wú)法捕捉更長(zhǎng)的語(yǔ)義信息B)LSTM出現(xiàn)的早,所以不好C)可以捕捉更好的語(yǔ)義信息D)不確定答案:A解析:[單選題]62.以下幾個(gè)機(jī)器學(xué)習(xí)算法中,哪個(gè)算法是比較常用的無(wú)監(jiān)督學(xué)習(xí)算法A)聚類B)K-近鄰算法C)回歸算法D)決策樹答案:A解析:[單選題]63.XGBoost中做了很多的改進(jìn),它的思想是什么A)BoostingB)BaggingC)StackingD)不確定答案:A解析:[單選題]64.以下哪些算法是聚類算法A)ID3B)C4.5C)K-MeansD)SVM答案:C解析:[單選題]65.哪個(gè)激活函數(shù)運(yùn)行效率最高?A)reluB)tanhC)sigmoidD)不能確定答案:A解析:[單選題]66.計(jì)算機(jī)在處理向量肯定是比處理字符串更加方便,因此我們將字符串轉(zhuǎn)換為向量的過(guò)程叫什么A)文本表示B)文本分類C)文本摘要D)文本挖掘答案:A解析:[單選題]67.以下選項(xiàng)中關(guān)于在圖像特征經(jīng)過(guò)幾個(gè)卷積后,特征信號(hào)會(huì)發(fā)生怎樣的變化:A)減弱B)不變C)增強(qiáng)D)都有可能答案:D解析:[單選題]68.以下四個(gè)任務(wù)中,邏輯回歸可以做哪個(gè)A)數(shù)據(jù)降維B)垃圾郵件分類C)電影票房預(yù)測(cè)D)房?jī)r(jià)預(yù)測(cè)答案:B解析:[單選題]69.聚類算法是常用的算法,在以下四個(gè)選項(xiàng)中,哪個(gè)是聚類算法A)SVMB)KNNC)ID3D)K-Means答案:D解析:[單選題]70.對(duì)于詞性標(biāo)注的主要方法不包括()A)基于規(guī)則的方法B)基于統(tǒng)計(jì)的方法C)基于語(yǔ)義的標(biāo)注方法D)基于統(tǒng)計(jì)的和基于規(guī)則的相結(jié)合的方法答案:C解析:[單選題]71.在傳統(tǒng)的NLP中,語(yǔ)義層面是如何表示的A)使用深度學(xué)習(xí)直接過(guò)去結(jié)果B)手寫大量的規(guī)則函數(shù)C)使用先進(jìn)的算法的到結(jié)果D)以上都不正確答案:B解析:[單選題]72.EM算法應(yīng)用廣泛,它的求解原理是什么A)是通過(guò)尋找最優(yōu)的自變量和因變量之間的一次函數(shù)關(guān)系B)通過(guò)尋找最優(yōu)的超平面進(jìn)行更好的分類C)是通過(guò)迭代,不斷求解下界的極大化,來(lái)逐步求解對(duì)數(shù)似然函數(shù)極大化D)不確定答案:C解析:[單選題]73.下面哪種屬于映射數(shù)據(jù)到新的空間的方法?A)傅立葉變換B)特征加權(quán)C)漸進(jìn)抽樣D)維歸約答案:A解析:[單選題]74.在優(yōu)化算法的計(jì)算當(dāng)中,使用到了以下哪種方式A)標(biāo)準(zhǔn)差加權(quán)平均B)方差加權(quán)平均C)對(duì)數(shù)加權(quán)平均D)指數(shù)加權(quán)平均答案:D解析:[單選題]75.tf.concat的作用?A)相加B)兩個(gè)張量拼接C)相減D)求絕對(duì)值答案:B解析:[單選題]76.GPT中使用的特征提取器是什么A)LSTMB)雙向TransformerC)單向TransformerD)RNN答案:C解析:[單選題]77.以下哪個(gè)不屬于LSTMA)輸入門B)輸出門C)更新門D)遺忘門答案:C解析:[單選題]78.在Katz回退算法中,將從非零計(jì)數(shù)中減去的計(jì)數(shù)量分配給A)計(jì)數(shù)為零的高元語(yǔ)法B)所有零概率事件C)未知事件D)A和C答案:A解析:[單選題]79.N元語(yǔ)法模型中一個(gè)詞的出現(xiàn)和這個(gè)詞之前的()個(gè)詞有關(guān)A)0B)1C)N-1D)N答案:C解析:[單選題]80.什么是似然函數(shù)如何去理解似然函數(shù)?A)是一種關(guān)于統(tǒng)計(jì)模型中的參數(shù)的函數(shù),表示模型參數(shù)中的似然性B)是一個(gè)最優(yōu)的超平面用作分類C)是一個(gè)一次函數(shù)之間的關(guān)系D)是一種正則化的方式答案:A解析:[單選題]81.LDA的實(shí)質(zhì)是在做一個(gè)什么東西A)根據(jù)給定的一篇文檔,反推其主題B)可以找出來(lái)最優(yōu)的分類超平面C)可以找到因變量和自變量之間的一次關(guān)系D)不確定答案:A解析:[單選題]82.BERT目前的到了很廣泛的應(yīng)用,那么BERT是哪個(gè)公司推出的A)百度B)華為C)FaceBokD)谷歌答案:D解析:[單選題]83.如果缺失值特別多,可以考慮如何做特征處理A)刪除該特征B)逐個(gè)添加該特征C)直接使用該特征輸入D)不確定答案:A解析:[單選題]84.面向?qū)ο蟮奶刭|(zhì)有:A)A:封裝B)B:繼承C)C:多態(tài)D)D:消息答案:D解析:[單選題]85.()是指用NLP、文本挖掘和計(jì)算機(jī)語(yǔ)言學(xué)等方法對(duì)帶有情感色彩的主觀性文本進(jìn)行分析、處理、歸納和推理的過(guò)程。A)關(guān)鍵詞提取B)文本向量化C)文本情感分析D)智能問(wèn)答答案:C解析:[單選題]86.關(guān)于人工智能的RNN,將()信息帶到下個(gè)環(huán)節(jié)中A)先前B)之后C)丟失D)LSTM答案:A解析:[單選題]87.下列哪種機(jī)器學(xué)習(xí)算法可用于估算分類變量和連續(xù)變量的缺失值?A)KNNB)線性回歸C)Logistic回歸D)K-Means答案:A解析:[單選題]88.什么激活函數(shù),如何理解激活函數(shù)A)激活函數(shù)其實(shí)就是一個(gè)線性變換的過(guò)程B)激活函數(shù)并無(wú)實(shí)際意義C)上層節(jié)點(diǎn)的輸出和下層節(jié)點(diǎn)的輸入之間具有一個(gè)函數(shù)關(guān)系,這個(gè)函數(shù)稱為激活函數(shù)D)使自變量與因變量之間存在一個(gè)Y=W*X+b的一次函數(shù)關(guān)系答案:C解析:[單選題]89.使用jieba庫(kù)提供的(A)方法,可以對(duì)文本進(jìn)行分詞操作。A)cutB)splitC)BreakD)apart答案:B解析:[單選題]90.相比sigmoid函數(shù)性能好的激活函數(shù)是A)coshB)sinC)tanhD)sigmoid答案:C解析:[單選題]91.BERT-BASE的參數(shù)量有多大A)1億B)2億C)3億D)4億答案:A解析:[單選題]92.以下幾個(gè)關(guān)于EM算法的說(shuō)法,正確的是A)傳統(tǒng)EM算法對(duì)初始值不敏感B)EM算法不能應(yīng)用到HMM的求解中C)不確定D)傳統(tǒng)EM算法對(duì)初始值敏感答案:D解析:[單選題]93.基于語(yǔ)義的文本表示的深度學(xué)習(xí)方法有哪些A)LDAB)LSIC)PLSID)wordembedding答案:B解析:[單選題]94.CART為什么用基尼系數(shù)來(lái)代替信息增益比A)基尼系數(shù)代表了純度B)基尼系數(shù)代表了不純度C)基尼系數(shù)越大,純度越低D)基尼系數(shù)越小,特征越好答案:B解析:[單選題]95.下列Python中的預(yù)定義字符描述正確的是()。A)\w:與\W反義,非數(shù)字、非字母和非字B)\s:空白字符C)\D:數(shù)字D)\d:非數(shù)字答案:D解析:[單選題]96.下面哪個(gè)選項(xiàng)說(shuō)的不是Batch歸一化的作用A)減少了隱藏值分布變化的數(shù)量B)減少了輸入值改變的問(wèn)題C)有輕微的正則化效果D)增加了輸入值改變的問(wèn)題答案:D解析:[單選題]97.隱馬爾科夫是幾元祖模型A)2B)3C)4D)5答案:D解析:[單選題]98.在使用TensorFlow的過(guò)程中,如果想要打印某點(diǎn)值,應(yīng)該怎么操作A)A=tf.run()B)A=S.valueC)A=S.eval()D)tf.assign()答案:A解析:[單選題]99.K-Means中的K應(yīng)該如何去選擇A)貪心法則B)馬爾科夫C)肘部法則D)概率圖答案:C解析:[單選題]100.在對(duì)文本進(jìn)行分詞時(shí),哪些詞可以去掉()A)中文:的,了,是B)中文:文本,可視化,大數(shù)據(jù).C)英文:text,analytics,mooc...D)英文:the,A,bad,poor答案:A解析:[單選題]101.BP算法最早時(shí),是在以下哪個(gè)任務(wù)中得到了最早的應(yīng)用A)手寫數(shù)字識(shí)別B)CPUC)GPUD)不確定答案:A解析:[單選題]102.下列選項(xiàng)中關(guān)于Batch歸一化的描述,描述錯(cuò)誤的是哪個(gè)?A)使參數(shù)搜索問(wèn)題變得容易B)使神經(jīng)網(wǎng)絡(luò)對(duì)超參數(shù)的選擇更加穩(wěn)定C)超參數(shù)的范圍更加龐大D)僅作用于輸入層答案:D解析:[單選題]103.下列關(guān)于雙向RNN結(jié)構(gòu)說(shuō)法正確的是()。A)只考慮預(yù)測(cè)詞前面的詞,并沒(méi)有考慮該詞后面的內(nèi)容B)不僅從前往后保留該詞前面的詞的信息,而且還從后往前保留該詞后面的詞的信息C)不是由兩個(gè)RNN上下疊加在一起組成D)輸出與隱藏層的狀態(tài)無(wú)關(guān)答案:B解析:[單選題]104.以下幾個(gè)選項(xiàng)中關(guān)于ID3算法正確的是A)適用于二分類B)使用信息增益比選取特征C)能夠很好的處理連續(xù)值D)不確定答案:A解析:[單選題]105.下列不屬于機(jī)器學(xué)習(xí)中典型的分類方法的是()A)決策樹B)Witten-Bell平滑算法C)貝葉斯分類器D)支持向量機(jī)答案:B解析:[單選題]106.正常的將數(shù)據(jù)集進(jìn)行切分為三個(gè)集合,其中不包括下列哪個(gè)集合?A)測(cè)試集B)確認(rèn)集C)驗(yàn)證集D)訓(xùn)練集答案:B解析:[單選題]107.CNN中設(shè)置多個(gè)卷積核是為了什么目的A)同時(shí)提取多個(gè)圖像的特征B)提取某些圖像多個(gè)特征C)圖像有多個(gè)通道D)與多特征無(wú)關(guān)答案:B解析:[單選題]108.GBDT屬于集成學(xué)習(xí),因此它擁有哪些優(yōu)點(diǎn)A)采用決策樹作為弱分類器使得GBDT模型具有較好的解釋性和魯棒性,能夠自動(dòng)發(fā)現(xiàn)特征間的高階關(guān)系。B)GBDT在高維稀疏的數(shù)據(jù)集上,表現(xiàn)不如支持向量機(jī)或者神經(jīng)網(wǎng)絡(luò)。C)GBDT在處理文本分類特征問(wèn)題上,相對(duì)其他模型的優(yōu)勢(shì)不如它在處理數(shù)值特征時(shí)明顯。D)訓(xùn)練過(guò)程需要串行訓(xùn)練,只能在決策樹內(nèi)部采用一些局部并行的手段提高訓(xùn)練速度。答案:A解析:[單選題]109.假如說(shuō)特征過(guò)少,模型過(guò)于簡(jiǎn)單,可能會(huì)發(fā)生什么情況A)正常擬合B)過(guò)擬合C)欠擬合D)不確定答案:C解析:[單選題]110.造成自然語(yǔ)言處理困難的根本原因是自然語(yǔ)言文本和對(duì)話的各個(gè)層次上廣泛存在的各種合樣的()A)一致性或統(tǒng)一性B)復(fù)雜性或重復(fù)性C)歧義性或多義性D)一致性或多義性答案:C解析:[單選題]111.PCA將n維特征映射到k維特征后,k維特征的線性相關(guān)性如何?A)A:不確定B)B:線性相關(guān)C)C:線性無(wú)關(guān)D)D:線性關(guān)聯(lián)答案:C解析:[單選題]112.在NLP當(dāng)中,像Bi-Gram和TriGram這樣的模型都屬于什么模型A)N-GramB)Seq2seqC)TransformerD)Bert答案:A解析:[單選題]113.獨(dú)熱編碼可以完成什么事情A)對(duì)數(shù)據(jù)進(jìn)行向量化B)對(duì)數(shù)據(jù)進(jìn)行特征縮放C)對(duì)特征進(jìn)行歸一化處理D)消除數(shù)據(jù)特征之間的量綱影響答案:A解析:[單選題]114.NLP中做多分類任務(wù)可以使用__激活函數(shù)?A)softmaxB)logicC)K-MeansD)SVD答案:A解析:[單選題]115.句法分析是自然語(yǔ)言處理中的關(guān)鍵技術(shù)之一,它是對(duì)輸入的文本()進(jìn)行分析得到句子的句法結(jié)構(gòu)的處理過(guò)程A)單詞B)句法C)句子D)數(shù)字答案:C解析:[單選題]116.SVM中有軟間隔和硬間隔的概念,以下對(duì)于硬間隔解釋正確的是?A)SVM只允許極小誤差B)SVM允許分類時(shí)出現(xiàn)一定范圍的誤差C)二者都不對(duì)D)不確定答案:A解析:第2部分:多項(xiàng)選擇題,共57題,每題至少兩個(gè)正確答案,多選或少選均不得分。[多選題]117.語(yǔ)料庫(kù)標(biāo)注的目的()A)提高語(yǔ)料價(jià)值B)獲取更多知識(shí)和信息C)為詞典編募服務(wù)D)實(shí)現(xiàn)語(yǔ)料功能多樣化答案:ABD解析:[多選題]118.word2vc中的CBOW模型有什么特點(diǎn)特點(diǎn)和步驟有哪些A)無(wú)隱層B)與上下文的詞序無(wú)關(guān)C)使用了上下文窗口預(yù)測(cè)中心詞D)投影層求和(平均)答案:ABCD解析:[多選題]119.卷積神經(jīng)網(wǎng)絡(luò)包括以下哪項(xiàng)A)局部連接B)權(quán)值共享C)多層次結(jié)構(gòu)D)池化操作答案:ABD解析:[多選題]120.集成學(xué)習(xí)主要有哪幾種框架?工作過(guò)程是?A)BaggingB)BoostingC)StackingD)以上都正確答案:ABCD解析:[多選題]121.以下的幾個(gè)任務(wù)中,哪些任務(wù)屬于自然語(yǔ)言領(lǐng)域的A)人臉檢測(cè)B)機(jī)器翻譯C)圖像識(shí)別D)會(huì)話機(jī)器人答案:BD解析:[多選題]122.NLP可以解決下面的哪些任務(wù)A)文本摘要B)機(jī)器翻譯C)閱讀理解D)以上都不正確答案:ABC解析:[多選題]123.以下選項(xiàng)中,描述的反向傳播算法的過(guò)程正確的是?A)初始化聯(lián)結(jié)權(quán)重Wij,對(duì)于輸入的訓(xùn)練樣本,求取每個(gè)節(jié)點(diǎn)輸出和最終輸出層的輸出值B)對(duì)輸出層求取偏導(dǎo)數(shù)C)對(duì)于隱藏層求取偏導(dǎo)數(shù)D)求取輸出誤差對(duì)于每個(gè)權(quán)重的梯度,更新權(quán)重答案:ABCD解析:[多選題]124.以下模型中使用Transformer的是___?A)ELMOB)BERTC)GPTD)Word2Vec答案:BC解析:[多選題]125.以下屬于判別式模型的都有()?A)HMMB)SVMC)CRFD)MEMM答案:BCD解析:[多選題]126.特征清洗中包括以下哪些操作A)清洗異常樣本B)數(shù)據(jù)不均衡C)歸一化D)樣本權(quán)重答案:ACD解析:[多選題]127.GateRecurrentUnit的門包括下面哪幾項(xiàng)A)更新門B)遺忘門C)輸入門D)重置門答案:AD解析:[多選題]128.Stacking的操作可以分為哪些階段A)Aggregating階段,將上一個(gè)階段訓(xùn)練得到的n個(gè)基模型組合起來(lái),共同做決策。在分類任務(wù)中,可采用投票法,比如相對(duì)多數(shù)投票法,將結(jié)果預(yù)測(cè)為得票最多的類別。而在回歸任務(wù)中可采用平均法,即將每個(gè)基模型預(yù)測(cè)得到的結(jié)果進(jìn)行簡(jiǎn)單平均或加權(quán)平均來(lái)獲得最終的預(yù)測(cè)結(jié)果。B)Boostrap階段,即采用有放回的采樣方式,將訓(xùn)練集分為n個(gè)子樣本集;并用基學(xué)習(xí)器對(duì)每組樣本分布進(jìn)行訓(xùn)練,得到n個(gè)基模型C)分別采用全部的訓(xùn)練樣本來(lái)訓(xùn)練n個(gè)組件模型,要求這些個(gè)體學(xué)習(xí)器必須異構(gòu)的,比如可以分別是線性學(xué)習(xí)器,SVM,決策樹模型和深度學(xué)習(xí)模型。D)訓(xùn)練一個(gè)元模型(meta-model)來(lái)將各個(gè)組件模型的輸出結(jié)果進(jìn)行結(jié)合,具體過(guò)程就是將各個(gè)學(xué)習(xí)器在訓(xùn)練集上得到的預(yù)測(cè)結(jié)果作為訓(xùn)練特征和訓(xùn)練集的真實(shí)結(jié)果組成新的訓(xùn)練集;然后用這個(gè)新組成的訓(xùn)練集來(lái)訓(xùn)練一個(gè)元模型。這個(gè)元模型可以是線性模型或者樹模型。答案:BC解析:[多選題]129.字符串匹配計(jì)算相似度的方法有哪些A)漢明距離B)余弦相似度C)簡(jiǎn)單共有詞D)編輯距離答案:ABCD解析:[多選題]130.seq2seq中加入Attention的作用A)把輸入編碼成一個(gè)固定的向量當(dāng)中B)把輸入編碼成一個(gè)向量序列當(dāng)中C)解碼器解碼時(shí)不同step所分配的注意力是不同的D)無(wú)實(shí)際性的意義答案:BD解析:[多選題]131.語(yǔ)料庫(kù)的用途有()A)用于語(yǔ)言研究B)用于編纂工具參考書籍C)用于語(yǔ)言教學(xué)D)用于NLP答案:ABCD解析:[多選題]132.自然語(yǔ)言處理技術(shù)的應(yīng)用有()A)機(jī)器翻譯技術(shù)B)語(yǔ)音識(shí)別技術(shù)C)語(yǔ)音合成技術(shù)D)文本分析程序答案:ABCD解析:[多選題]133.以下幾個(gè)任務(wù)中哪些可以用線性回歸接近A)票房預(yù)測(cè)B)判斷個(gè)人信用C)垃圾郵件分類D)房?jī)r(jià)預(yù)測(cè)答案:ABD解析:[多選題]134.神經(jīng)網(wǎng)絡(luò)一般是由多層構(gòu)成的一個(gè)網(wǎng)絡(luò),一般分別由哪些層構(gòu)成A)隱藏層B)輸入層C)輸出層D)不確定答案:ABC解析:[多選題]135.尋找數(shù)據(jù)集中的關(guān)系是為了尋找精確、方便并且有價(jià)值地總結(jié)了數(shù)據(jù)的某一特征的表示,這個(gè)過(guò)程包括了以下哪些步驟?A)決定要使用的表示的特征和結(jié)構(gòu)B)決定如何量化和比較不同表示擬合數(shù)據(jù)的好壞C)選擇一個(gè)算法過(guò)程使評(píng)分函數(shù)最優(yōu)D)決定用什么樣的數(shù)據(jù)管理原則以高效地實(shí)現(xiàn)算法。答案:ABCD解析:[多選題]136.以下關(guān)于NNLM的幾種說(shuō)法正確的有哪些A)從語(yǔ)言模型出發(fā),將模型最優(yōu)化的過(guò)程轉(zhuǎn)換為求詞向量表示的過(guò)程B)使用了非對(duì)稱的前項(xiàng)窗口C)滑動(dòng)窗口便利整個(gè)語(yǔ)料庫(kù)D)計(jì)算量正比語(yǔ)料庫(kù)的大小答案:ABCD解析:[多選題]137.數(shù)據(jù)切分階段中,下列關(guān)于訓(xùn)練集和驗(yàn)證集的劃分,有哪些描述正確的?A)不一定需要驗(yàn)證集B)數(shù)據(jù)集數(shù)量較少時(shí),訓(xùn)練集和測(cè)試集比例可以是7:3C)大數(shù)據(jù)量的驗(yàn)證集,可以不遵循訓(xùn)練集和測(cè)試集比例7:3的原則D)任何數(shù)量的數(shù)據(jù)集,都應(yīng)遵守訓(xùn)練集和測(cè)試集比例7:3的原則答案:ABC解析:[多選題]138.EM算法在高斯混合模型中的應(yīng)用包含哪些步驟A)明確隱變量,寫出完全數(shù)據(jù)的對(duì)數(shù)似然函數(shù)。B)EM算法的E步:確定Q函數(shù)C)求Q函數(shù)對(duì)theta的極大值,即求新一輪迭代的模型參數(shù)。D)以上都正確答案:ABCD解析:[多選題]139.下列哪些是敘述KNN最近鄰分類算法的過(guò)程A)計(jì)算訓(xùn)練樣本和測(cè)試樣本中每個(gè)樣本點(diǎn)的距離(常見(jiàn)的距離度量有歐式距離,馬氏距離等)B)對(duì)上面所有的距離值進(jìn)行排序C)選前k個(gè)最小距離的樣本D)根據(jù)這k個(gè)樣本的標(biāo)簽進(jìn)行投票,得到最后的分類類別;答案:ABCD解析:[多選題]140.可以排成序列的類型有:A)語(yǔ)音識(shí)別B)情感分類C)機(jī)器翻譯D)DNA序列分析答案:ABCD解析:[多選題]141.下列關(guān)于搜索參數(shù)的方式,描述正確的選項(xiàng)有哪些?A)沒(méi)有足夠計(jì)算資源,通過(guò)每天觀察,不斷調(diào)整參數(shù)B)同時(shí)試驗(yàn)多種模型,獲得學(xué)習(xí)曲線C)沒(méi)有足夠計(jì)算資源,通過(guò)試驗(yàn)多種模型,獲得學(xué)習(xí)曲線D)擁有足夠資源時(shí),通過(guò)每天觀察一個(gè)參數(shù),來(lái)進(jìn)行調(diào)整答案:AB解析:[多選題]142.NLP的目標(biāo)A)讓計(jì)算機(jī)處理或者?理解?自然語(yǔ)言,以完成有意義的任務(wù)B)一門計(jì)算機(jī)科學(xué)、人工智能以及語(yǔ)言學(xué)的交叉學(xué)科C)完全理解和表達(dá)語(yǔ)言是極其困難的D)完美的語(yǔ)言理解等同于實(shí)現(xiàn)人工智能答案:ACD解析:[多選題]143.常見(jiàn)的詞嵌入算法有哪些?()A)Word2VecB)TextRankC)AHPD)Doc2Vec答案:AD解析:[多選題]144.哪些屬于序列數(shù)據(jù)A)語(yǔ)音識(shí)別B)情感分類C)機(jī)器翻譯D)DNA序列分析答案:ABCD解析:[多選題]145.可以通過(guò)以下哪些方式提取詞向量特征A)靜態(tài)(word2vec)B)非靜態(tài)(fine-tunning)C)one-hotD)以上都正確答案:AB解析:[多選題]146.對(duì)情感分析的研究到目前為止主要集中在以下哪些方面?()A)識(shí)別給定的文本實(shí)體是主觀的還是客觀的B)識(shí)別文本的前后聯(lián)系C)識(shí)別文本的含義D)識(shí)別主觀的文本的極性答案:AD解析:[多選題]147.進(jìn)行前向算法需要有哪兩項(xiàng)A)權(quán)重wB)正弦函數(shù)C)激活函數(shù)D)余弦函數(shù)答案:AC解析:[多選題]148.關(guān)于特征工程正則化的描述,下列正確的有哪些?A)正則化可以防止欠擬合B)正則化可以防止過(guò)擬合C)dropout具有正則化效果D)relu函數(shù)具有正則化效果答案:BC解析:[多選題]149.在代價(jià)函數(shù)上加入一個(gè)正則項(xiàng),我們可以使用以下哪種A)L1B)L2C)余弦公式D)正弦公式答案:AB解析:[多選題]150.詞向量的模型一直在發(fā)展,那么詞向量的模型到底有什么意義A)詞向量是各種模型框架的基礎(chǔ),只有編碼成更好的詞向量才會(huì)得到更好的效果B)無(wú)實(shí)際性的意義C)隨著不斷的發(fā)展詞向量化的程度越來(lái)越復(fù)雜,且效果不好D)隨著不斷的發(fā)展,向量中包含的語(yǔ)義信息越來(lái)越強(qiáng)答案:AD解析:[多選題]151.以下四個(gè)選項(xiàng)中,哪些是人工智能的三個(gè)主要流派A)符號(hào)主義B)連接主義C)行為主義D)機(jī)器學(xué)習(xí)答案:ABC解析:[多選題]152.NLP方向的常見(jiàn)成品有哪些A)知識(shí)圖譜B)機(jī)器人C)人臉檢測(cè)D)推薦系統(tǒng)答案:ABD解析:[多選題]153.深度學(xué)習(xí)現(xiàn)在大火,那么主要得益于哪些原因?A)新方法的出現(xiàn),為神經(jīng)網(wǎng)絡(luò)深度的拓展解決了梯度彌散的問(wèn)題;B)大量已標(biāo)注數(shù)據(jù)的出現(xiàn),為神經(jīng)網(wǎng)絡(luò)的訓(xùn)練做好了數(shù)據(jù)準(zhǔn)備;C)GPU(圖形處理器)的使用,為卷積計(jì)算提供了高速解決方案D)深度學(xué)習(xí)等于人工智能答案:ABC解析:[多選題]154.以前為什么深度學(xué)習(xí)不火,而最近幾年的到了很大的發(fā)展呢?A)算力的能力上升B)算法有了很大的發(fā)展C)更好的正則化和優(yōu)化方法D)數(shù)據(jù)量變得越來(lái)越大答案:ABCD解析:[多選題]155.如果我們想做一個(gè)非線性的變換,可以使用以下哪種方式A)L1B)ReluC)SigmoidD)L2答案:BC解析:[多選題]156.one-hot做此編碼的時(shí)候會(huì)出現(xiàn)什么問(wèn)題A)造成維度太小,導(dǎo)致特征不全B)不會(huì)造成不好的影響C)造成維度爆炸D)向量過(guò)于稀疏并且毫無(wú)關(guān)聯(lián)答案:CD解析:[多選題]157.在概率圖模型當(dāng)中分別有哪幾種邊A)有向邊B)不確定C)無(wú)向邊D)以上都正確答案:AB解析:[多選題]158.神經(jīng)網(wǎng)絡(luò)中超參數(shù)調(diào)試方法A)隨機(jī)選擇點(diǎn)來(lái)試驗(yàn)超參數(shù)效果B)當(dāng)你給超參數(shù)取值時(shí),另一個(gè)慣例是采用由粗糙到精細(xì)的策略。C)只調(diào)試容易的D)給定默認(rèn)值即可答案:AB解析:[多選題]159.seq2seq+Attention可以做下列哪些任務(wù)A)意圖識(shí)別B)機(jī)器翻譯C)文本摘要D)標(biāo)題的提取答案:ABCD解析:[多選題]160.NLP所研究的范疇包括哪些?A)信息抽取B)問(wèn)答系統(tǒng)C)數(shù)據(jù)預(yù)處理D)模型構(gòu)建答案:AB解析:[多選題]161.下列選項(xiàng)中SVM可以調(diào)節(jié)的參數(shù)是?A)CB)kernelC)degreeD)gamma答案:ABCD解析:[多選題]162.生成式模型相比判別式模型有什么優(yōu)點(diǎn)?A)適用較多類別的識(shí)別B)能更充分利用先驗(yàn)知識(shí)C)分類邊界更靈活D)研究單類問(wèn)題靈活性強(qiáng)答案:BD解析:[多選題]163.優(yōu)化CBOW可以從以下哪些方面入手A)將CBOW中最后一層的softmax轉(zhuǎn)化成層次softmaxB)將CBOW中的最后一層的softmax轉(zhuǎn)化為負(fù)例采樣的方式C)將CBOW中的最后一層的softmax轉(zhuǎn)換為logic回歸D)以上都是答案:AB解析:[多選題]164.Stacking都有哪些階段,分別是怎么做的?A)Aggregating階段,將上一個(gè)階段訓(xùn)練得到的n個(gè)基模型組合起來(lái),共同做決策。在分類任務(wù)中,可采用投票法,比如相對(duì)多數(shù)投票法,將結(jié)果預(yù)測(cè)為得票最多的類別。而在回歸任務(wù)中可采用平均法,即將每個(gè)基模型預(yù)測(cè)得到的結(jié)果進(jìn)行簡(jiǎn)單平均或加權(quán)平均來(lái)獲得最終的預(yù)測(cè)結(jié)果。B)Boostrap階段,即采用有放回的采樣方式,將訓(xùn)練集分為n個(gè)子樣本集;并用基學(xué)習(xí)器對(duì)每組樣本分布進(jìn)行訓(xùn)練,得到n個(gè)基模型C)分別采用全部的訓(xùn)練樣本來(lái)訓(xùn)練n個(gè)組件模型,要求這些個(gè)體學(xué)習(xí)器必須異構(gòu)的,比如可以分別是線性學(xué)習(xí)器,SVM,決策樹模型和深度學(xué)習(xí)模型。D)訓(xùn)練一個(gè)元模型(meta-model)來(lái)將各個(gè)組件模型的輸出結(jié)果進(jìn)行結(jié)合,具體過(guò)程就是將各個(gè)學(xué)習(xí)器在訓(xùn)練集上得到的預(yù)測(cè)結(jié)果作為訓(xùn)練特征和訓(xùn)練集的真實(shí)結(jié)果組成新的訓(xùn)練集;然后用這個(gè)新組成的訓(xùn)練集來(lái)訓(xùn)練一個(gè)元模型。這個(gè)元模型可以是線性模型或者樹模型。答案:BC解析:[多選題]165.常見(jiàn)的幾種最優(yōu)化的方法有哪些A)梯度下降法B)牛頓法C)擬牛頓法D)共軛梯度法答案:ABCD解析:[多選題]166.tf.train.AdamOptimizer(1e-4).minimize(cross_entropy),以下四個(gè)選項(xiàng)中,關(guān)于上述代碼描述正確的是哪些選項(xiàng)A)定義學(xué)習(xí)步長(zhǎng)B)優(yōu)化器C)交叉熵?fù)p失函數(shù)D)開(kāi)始訓(xùn)練答案:ABC解析:[多選題]167.以下的四個(gè)算法中,哪些算法在輸入的階段需要做特征處理A)決策樹B)線性回歸C)邏輯回歸D)SVM答案:BCD解析:[多選題]168.CBOW模型的神經(jīng)網(wǎng)絡(luò)包含了()A)輸入層B)隱藏層C)輸出層D)全連接層答案:ABC解析:[多選題]169.Adam算法是結(jié)合了()和()一起A)RMSprop算法B)均方誤差C)Momentum算法D)交叉熵答案:AC解析:[多選題]170.以下屬于關(guān)鍵字提取算法的是哪些??A)TF-IDFB)TextRnnC)TextRankD)RNN答案:AC解析:[多選題]171.隱馬等生產(chǎn)式模型存在的問(wèn)題A)列舉觀察值會(huì)比較困難B)每個(gè)元素之間相互獨(dú)立,任何時(shí)刻的觀察值只和狀態(tài)有關(guān)C)列舉觀察會(huì)比較容易D)以上都正確答案:AB解析:[多選題]172.為什么XGBoost要用泰勒展開(kāi),優(yōu)勢(shì)在哪里?A)XGBoost使用了一階和二階偏導(dǎo)B)二階導(dǎo)數(shù)有利于梯度下降的更快更準(zhǔn)C)使用泰勒展開(kāi)取得函數(shù)做自變量的二階導(dǎo)數(shù)形式D)可以在不選定損失函數(shù)具體形式的情況下,僅僅依靠輸入數(shù)據(jù)的值就可以進(jìn)行葉子分裂優(yōu)化計(jì)算答案:ABCD解析:[多選題]173.決策樹中通常有哪些操作步驟A)特征縮放B)特征選擇C)決策樹生成D)決策樹修剪答案:BCD解析:第3部分:判斷題,共66題,請(qǐng)判斷題目是否正確。[判斷題]174.word2vec+余弦相似度可以做文本分類A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]175.seq2seq是經(jīng)典的預(yù)訓(xùn)練語(yǔ)言模型A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]176.BERT中沒(méi)有位置的嵌入,之后segembedding和wordembeddingA)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]177.ELMO有兩個(gè)階段構(gòu)成:預(yù)訓(xùn)練和微調(diào)A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]178.當(dāng)數(shù)據(jù)輸入到?jīng)Q策樹中前,必須要做特征工程A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]179.RNN循環(huán)神經(jīng)網(wǎng)絡(luò)是自然語(yǔ)言中常用的網(wǎng)絡(luò)A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]180.XGBoost使用的是Boosting方法,而GBDT使用的是Bagging方法A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]181.NLP的最終目的應(yīng)該是在語(yǔ)法理解的基礎(chǔ)上實(shí)現(xiàn)相應(yīng)的操作。()A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]182.機(jī)器學(xué)習(xí)的K-Means算法可用于文本聚類。對(duì)A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]183.按語(yǔ)料庫(kù)的用途可劃分為通用語(yǔ)料庫(kù)和專用語(yǔ)料庫(kù)A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]184.KNN模型訓(xùn)練所消耗的時(shí)間跟選擇的K有關(guān)A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]185.CNN在NLP中也有一些應(yīng)用,比如textCNN做文本分類任務(wù)A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]186.將文字信息轉(zhuǎn)成語(yǔ)音的技術(shù)叫語(yǔ)音合成A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]187.XGBoost本質(zhì)上還是一個(gè)GBDT,但是力爭(zhēng)把速度和效率發(fā)揮到極致A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]188.隨著深度學(xué)習(xí)技術(shù)的廣泛應(yīng)用,基于神經(jīng)網(wǎng)絡(luò)的文本向量化已經(jīng)成為NLP領(lǐng)域的研究熱點(diǎn),尤其是以詞為單位的向量化。對(duì)A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]189.專家系統(tǒng)的結(jié)構(gòu)包含人機(jī)界面、知識(shí)庫(kù),推理機(jī),動(dòng)態(tài)數(shù)據(jù)庫(kù),知識(shí)庫(kù)答理系統(tǒng)和解釋模塊。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]190.正則文法(3型)通常用于句法分析A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]191.fdist.keys(),以頻率遞增順序排序樣本鏈表A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]192.特征工程旨在去除原始數(shù)據(jù)中的雜質(zhì)和冗余A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]193.對(duì)于深層網(wǎng)絡(luò),sigmoid函數(shù)反向傳播時(shí),很容易就會(huì)出現(xiàn)梯度消失的情況A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]194.正則表達(dá)式是一個(gè)描述字符模式的對(duì)象。對(duì)A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]195.BOW模型首先對(duì)文本進(jìn)行分詞,然后統(tǒng)計(jì)每個(gè)詞在文檔中出現(xiàn)的次數(shù)。對(duì)A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]196.基于知識(shí)工程的分類方法,指通過(guò)計(jì)算機(jī)自主學(xué)習(xí)、提取規(guī)則進(jìn)行的分類。錯(cuò)A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]197.決策樹(decisiontree):是一種基本的分類與回歸方法A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]198.規(guī)則方法就是根據(jù)人工書寫的或(半)自動(dòng)獲取的語(yǔ)法規(guī)則標(biāo)注出短語(yǔ)的邊界和短語(yǔ)的類型A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]199.SVM是機(jī)器學(xué)習(xí)中經(jīng)典的算法,在NLP中也有很多的應(yīng)用,例如:rasa機(jī)器人A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]200.理性主義方法又稱基于規(guī)則的方法。()A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]201.通過(guò)降低神經(jīng)網(wǎng)絡(luò)參數(shù)量來(lái)減緩過(guò)擬合,用正則化或者dropout。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]202.字頻統(tǒng)計(jì)是詞匯獲取的最基本工作。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]203.樸素貝葉斯(NaiveBayesian)是經(jīng)典的機(jī)器學(xué)習(xí)算法之一,也是為數(shù)不多的基于概率論的分類算法A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]204.K-MEANS是基于層次的聚類A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]205.LDA可以將文檔集中每篇文檔的主題以概率分布的形式給出,從而通過(guò)分析一些文檔抽取出它們的主題(分布)出來(lái)后,便可以根據(jù)主題(分布)進(jìn)行主題聚類或文本分類A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]206.批量的大小(batch_size)選擇的越大越好A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]207.LEXAS為每個(gè)歧義詞建立一個(gè)分類器A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]208.中文文本分析不需要分詞。錯(cuò)A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]209.森林中每棵樹的分類能力:每棵樹的分類能力越強(qiáng),整個(gè)森林的錯(cuò)誤率越大A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]210.正則表達(dá)式可用于特殊字符過(guò)濾。對(duì)A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]211.自然語(yǔ)言生成的工作過(guò)程是從抽象的概念層次開(kāi)始,通過(guò)選擇并執(zhí)行一定的語(yǔ)義和語(yǔ)法規(guī)則生成文本。()A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]212.LSTM網(wǎng)絡(luò)可應(yīng)用于文本分類任務(wù)。對(duì)A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]213.分隔超平面所產(chǎn)生的分類結(jié)果是最魯棒的,對(duì)未知實(shí)例的泛化能力最弱A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]214.常用的損失函數(shù)之后均方誤差MSEA)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]215.作為深度學(xué)習(xí)中的神經(jīng)網(wǎng)絡(luò)在進(jìn)行預(yù)訓(xùn)練時(shí)可以將所有參數(shù)全部初始化為0A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]216.softmax輸出單元從多個(gè)變成了一個(gè)。A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]217.例如CNN,RNN目的是為了更好的做特征提取A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]218.seq2seq不是一種編解碼模型A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]219.深度學(xué)習(xí)的發(fā)展主要因?yàn)閿?shù)據(jù)量的提升,并且硬件算力的提升,和算法的更新A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]220.語(yǔ)句fromnltkimportpos_tag是用于導(dǎo)入nltk中的英文詞性標(biāo)注模塊。對(duì)A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]221.KNN算法和K-Means沒(méi)有任何區(qū)別A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]222.準(zhǔn)確率就是所有的預(yù)測(cè)正確(正類負(fù)類)的占總的比重。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]223.歧義是自然語(yǔ)言中普遍存在的現(xiàn)象,廣泛地存在于詞法、句法、語(yǔ)義、語(yǔ)用和語(yǔ)音等各個(gè)層面。()A)正確B)錯(cuò)誤答案:對(duì)解析:
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 2025年中國(guó)火龍果種植市場(chǎng)全面調(diào)研及行業(yè)投資潛力預(yù)測(cè)報(bào)告
- 2024-2030年中國(guó)布藝沙發(fā)行業(yè)發(fā)展監(jiān)測(cè)及投資戰(zhàn)略研究報(bào)告
- 2025年中國(guó)人工智能手機(jī)行業(yè)發(fā)展趨勢(shì)預(yù)測(cè)及投資戰(zhàn)略咨詢報(bào)告
- 2022-2027年中國(guó)冷凍果汁行業(yè)發(fā)展監(jiān)測(cè)及投資戰(zhàn)略研究報(bào)告
- 有機(jī)肥料行業(yè)市場(chǎng)風(fēng)險(xiǎn)投資及融資策略趨勢(shì)分析研究報(bào)告(2024-2030)
- 中國(guó)農(nóng)用育苗杯行業(yè)市場(chǎng)發(fā)展前景及發(fā)展趨勢(shì)與投資戰(zhàn)略研究報(bào)告(2024-2030)
- 2025年中國(guó)行走齒輪箱行業(yè)投資分析及發(fā)展戰(zhàn)略咨詢報(bào)告
- 2025年中國(guó)渦輪固定球閥行業(yè)市場(chǎng)發(fā)展前景及發(fā)展趨勢(shì)與投資戰(zhàn)略研究報(bào)告
- 2025年中國(guó)銅拉絲行業(yè)市場(chǎng)深度研究及投資規(guī)劃建議報(bào)告
- 中國(guó)吸附態(tài)鈷行業(yè)市場(chǎng)深度研究及發(fā)展趨勢(shì)預(yù)測(cè)報(bào)告
- 2023-2024學(xué)年華東師大版八年級(jí)數(shù)學(xué)上冊(cè)期末復(fù)習(xí)綜合練習(xí)題
- 職業(yè)教育培訓(xùn)需求分析課件
- 2025版礦山安全生產(chǎn)責(zé)任承包協(xié)議范本3篇
- 并購(gòu)重組稅務(wù)處理-企業(yè)管理
- 四川涼山州人民政府辦公室考調(diào)所屬事業(yè)單位工作人員2人易考易錯(cuò)模擬試題(共500題)試卷后附參考答案
- 2025年中國(guó)艾草行業(yè)市場(chǎng)現(xiàn)狀、發(fā)展概況、未來(lái)前景分析報(bào)告
- 防走失應(yīng)急預(yù)案
- 臨床實(shí)驗(yàn)室管理學(xué)學(xué)習(xí)通超星期末考試答案章節(jié)答案2024年
- 中式烹調(diào)師理論知識(shí)測(cè)試題與參考答案
- 低壓電工培訓(xùn)教案
- 外科護(hù)理風(fēng)險(xiǎn)
評(píng)論
0/150
提交評(píng)論