![人工智能自然語(yǔ)言技術(shù)練習(xí)(習(xí)題卷3)_第1頁(yè)](http://file4.renrendoc.com/view5/M00/0E/33/wKhkGGYu8ACAA9ocAAFXelIR2tc895.jpg)
![人工智能自然語(yǔ)言技術(shù)練習(xí)(習(xí)題卷3)_第2頁(yè)](http://file4.renrendoc.com/view5/M00/0E/33/wKhkGGYu8ACAA9ocAAFXelIR2tc8952.jpg)
![人工智能自然語(yǔ)言技術(shù)練習(xí)(習(xí)題卷3)_第3頁(yè)](http://file4.renrendoc.com/view5/M00/0E/33/wKhkGGYu8ACAA9ocAAFXelIR2tc8953.jpg)
![人工智能自然語(yǔ)言技術(shù)練習(xí)(習(xí)題卷3)_第4頁(yè)](http://file4.renrendoc.com/view5/M00/0E/33/wKhkGGYu8ACAA9ocAAFXelIR2tc8954.jpg)
![人工智能自然語(yǔ)言技術(shù)練習(xí)(習(xí)題卷3)_第5頁(yè)](http://file4.renrendoc.com/view5/M00/0E/33/wKhkGGYu8ACAA9ocAAFXelIR2tc8955.jpg)
版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
試卷科目:人工智能自然語(yǔ)言技術(shù)練習(xí)人工智能自然語(yǔ)言技術(shù)練習(xí)(習(xí)題卷3)PAGE"pagenumber"pagenumber/SECTIONPAGES"numberofpages"numberofpages人工智能自然語(yǔ)言技術(shù)練習(xí)第1部分:?jiǎn)雾?xiàng)選擇題,共116題,每題只有一個(gè)正確答案,多選或少選均不得分。[單選題]1.前向傳播過(guò)程中,除了需要有權(quán)重w,還需要有一個(gè)什么函數(shù)做非線性變換,才能較好的進(jìn)行計(jì)算A)激活函數(shù)B)正弦函數(shù)C)余弦函數(shù)D)都可以答案:A解析:[單選題]2.多頭機(jī)制是怎么實(shí)現(xiàn)的A)把矩陣均分,經(jīng)過(guò)計(jì)算之后再合并B)直接進(jìn)行了計(jì)算C)直接乘上了權(quán)重矩陣WD)不確定答案:A解析:[單選題]3.()函數(shù)用于搜索搭配詞語(yǔ)。A)concordanceB)common_contextsC)collocationsD)Sorted答案:C解析:[單選題]4.什么是擬合,如何去理解擬合A)指曲線能不能去很好的描述現(xiàn)有的數(shù)據(jù)B)一條曲線過(guò)分的去描述了現(xiàn)有的數(shù)據(jù)C)指的是在訓(xùn)練集上表現(xiàn)良好,測(cè)試集上表現(xiàn)很差D)指的是在訓(xùn)練測(cè)試集上表現(xiàn)都不好答案:A解析:[單選題]5.正則項(xiàng)有很大的作用呢,如果把正則項(xiàng)加到了邏輯回歸的目標(biāo)函數(shù)中,會(huì)有什么效果?A)所有的參數(shù)w都變成0B)所有參數(shù)w都會(huì)趨近于0C)所有參數(shù)w都不會(huì)變化D)不確定答案:A解析:[單選題]6.tanh激活函數(shù)也有造成梯度消失等問(wèn)題和sigmoid相比,()sigmoidA)優(yōu)于B)劣與C)等于D)小于等于答案:A解析:[單選題]7.pytorch框架是哪個(gè)公司開(kāi)發(fā)的A)MITB)facebookC)googleD)apple答案:B解析:[單選題]8.什么是梯度下降,如何去理解梯度下降A(chǔ))實(shí)現(xiàn)簡(jiǎn)單,當(dāng)目標(biāo)函數(shù)是凸函數(shù)時(shí),梯度下降法的解是全局解。一般情況下,其解不保證是全局最優(yōu)解,梯度下降法的速度也未必是最快的B)是一種在實(shí)數(shù)域和復(fù)數(shù)域上近似求解方程的方法C)改善每次需要求解復(fù)雜的Hessian矩陣的逆矩陣的缺陷,它使用正定矩陣來(lái)近似Hessian矩陣的逆,從而簡(jiǎn)化了運(yùn)算的復(fù)雜度D)不確定答案:A解析:[單選題]9.sigmoid激活函數(shù)最大的問(wèn)題是容易造成____?A)反向傳播容易造成梯度消失B)正向傳播容易造成梯度消失C)正向傳播容易造成梯度爆炸D)以上都正確答案:A解析:[單選題]10.SVM中通過(guò)()去尋找的最優(yōu)的超平面A)支持向量機(jī)B)線性回歸C)正則化D)邏輯回歸答案:A解析:[單選題]11.在做傳統(tǒng)NLP中的情感分析中,我們可以如何去思想這類人物A)使用機(jī)器學(xué)習(xí)的算法獲取最終的情感B)使用深度學(xué)習(xí)的知識(shí)獲取情感C)使用神經(jīng)網(wǎng)絡(luò)進(jìn)行判斷D)手工手機(jī)情感極性詞典答案:D解析:[單選題]12.Histogram算法的思想是什么A)尋找最優(yōu)分割面B)尋找因變量和自變量之間的關(guān)系C)先把連續(xù)的浮點(diǎn)特征值離散化成k個(gè)整數(shù),同時(shí)構(gòu)造一個(gè)寬度為k的直方圖。D)不確定答案:C解析:[單選題]13.基于統(tǒng)計(jì)的分詞方法為()A)正向最大匹配法B)逆向最大匹配法C)最少切分D)條件隨機(jī)場(chǎng)答案:D解析:[單選題]14.以下四個(gè)模型當(dāng)中哪種模型是基于N-gram才出現(xiàn)的A)NNLMB)BERTC)GPT-2D)Transformer答案:A解析:[單選題]15.決策樹(shù)可以從以下哪個(gè)包中導(dǎo)入A)sklearnB)numpyC)PandasD)matplotlib答案:A解析:[單選題]16.以下關(guān)于ROC曲線的說(shuō)法,正確的是A)ROC曲線越靠攏(1,2)點(diǎn)B)ROC曲線越靠攏(0.5,0.5)點(diǎn)C)ROC曲線越靠攏(0,1)點(diǎn)越好D)ROC曲線越靠攏(1,0)點(diǎn)答案:C解析:[單選題]17.ELMO為什么可以解決一詞多意的問(wèn)題A)會(huì)的到一個(gè)固定的語(yǔ)義向量B)沒(méi)有在下游的任務(wù)當(dāng)中進(jìn)行微調(diào)C)基于上下文動(dòng)態(tài)的去調(diào)整向量D)預(yù)訓(xùn)練階段可以解決一次多意問(wèn)題答案:C解析:[單選題]18.BOW模型其中的一個(gè)缺點(diǎn)是()。A)可以保留語(yǔ)義B)維數(shù)低C)沒(méi)有忽略文檔的詞語(yǔ)順序子D)矩陣稀疏答案:D解析:[單選題]19.()是1966年由美國(guó)語(yǔ)言學(xué)家菲爾摩提出的一種語(yǔ)言學(xué)理論是語(yǔ)法體系深層結(jié)構(gòu)中的語(yǔ)義概念。A)格語(yǔ)法B)貝葉斯分類器C)限制學(xué)說(shuō)D)選擇限制學(xué)說(shuō)答案:A解析:[單選題]20.自然語(yǔ)言處理以()為基礎(chǔ)。A)數(shù)學(xué)B)心理學(xué)C)邏輯學(xué)D)語(yǔ)言學(xué)答案:D解析:[單選題]21.謂語(yǔ)動(dòng)詞句法成分關(guān)系特征()A)路徑和位置B)位置和動(dòng)詞原形C)框架和位置D)路徑和框架答案:A解析:[單選題]22.__可以計(jì)算出詞的重要度A)TF-IDFB)K-MeansC)KNND)PCA答案:A解析:[單選題]23.SVM和LR都可以做分類,那么有什么異同點(diǎn)A)都屬于分類算法B)SVM通過(guò)超平面來(lái)劃分,進(jìn)行分類C)LR通過(guò)計(jì)算樣本屬于哪個(gè)類別的概率進(jìn)行分類D)都屬于回歸算法答案:D解析:[單選題]24.不符合屬性和數(shù)量類概念的規(guī)定的是A)味道:DEF=attribute|屬性,taste|味道,&edible|食物B)氣量:DEF=attribute|屬性,tolerance|氣量,&human|人C)班次:DEF=quantity|數(shù)量,amount|多少,&transport|運(yùn)送D)比價(jià):DEF=quantity|數(shù)量,rate|比率,price|價(jià)格答案:D解析:[單選題]25.以下哪個(gè)不屬于無(wú)監(jiān)督學(xué)習(xí)A)聚類B)降維C)回歸算法D)PCA答案:C解析:[單選題]26.GRU和LSTM對(duì)比有什么異同點(diǎn)A)使用了word2vec編碼B)使用了BERT編碼C)使用了GRU編碼D)將輸入門和輸出門修改成了重置門和更新門答案:D解析:[單選題]27.特征工程師必不可少的階段,它起到的作用是什么A)為了對(duì)數(shù)據(jù)進(jìn)行分類B)去除原始數(shù)據(jù)的雜質(zhì)和沉余C)為了對(duì)數(shù)據(jù)進(jìn)行回歸D)為了對(duì)數(shù)據(jù)進(jìn)行聚類和降維的操作答案:B解析:[單選題]28.Relu(RectifiedLinearUnit)又叫做什么A)隨機(jī)糾正線性單元B)廣義線性模型C)雙曲正切D)修正線性單元函數(shù)答案:D解析:A選項(xiàng)指的是RRelu[單選題]29.下列屬于結(jié)構(gòu)化數(shù)據(jù)的是:A)數(shù)據(jù)庫(kù)中的數(shù)據(jù)B)HTML文檔C)文本D)圖片答案:A解析:[單選題]30.下述()不是人工智能中常用的知識(shí)格式化表示方法。A)框架表示法B)產(chǎn)生式表示法C)語(yǔ)義網(wǎng)絡(luò)表示法D)形象描寫(xiě)表示法答案:D解析:[單選題]31.計(jì)算機(jī)上一切信息都是由()進(jìn)制數(shù)字來(lái)存儲(chǔ)的。A)二B)三C)四D)五答案:A解析:[單選題]32.清洗數(shù)據(jù)的方式有:A)A:缺失值填充B)B:重復(fù)值去除C)C:尋找離群點(diǎn)(奇點(diǎn))D)D:集成不同的數(shù)據(jù)庫(kù)答案:D解析:[單選題]33.RNN有很多的變種,那么傳統(tǒng)的RNN存在哪些問(wèn)題A)沒(méi)有任何問(wèn)題B)造成梯度消失和梯度爆炸C)特征提取效果好D)不確定答案:B解析:[單選題]34.格語(yǔ)法中的?格?是(),它是指句子中體詞(名詞和代詞)和謂詞(動(dòng)詞和形容詞)之間的及物性關(guān)系。A)淺層格B)深層格C)目標(biāo)格D)結(jié)果格答案:B解析:[單選題]35.下列關(guān)于中文分詞方法的描述中,屬于基于詞典的分詞方法的是()A)在分析句子時(shí)與詞典中的詞語(yǔ)進(jìn)行對(duì)比,詞典中出現(xiàn)的就劃分為詞B)依據(jù)上下文中相鄰字出現(xiàn)的頻率統(tǒng)計(jì),同時(shí)出現(xiàn)的次數(shù)越高就越可能組成一個(gè)詞C)讓計(jì)算機(jī)模擬人的理解方式,根據(jù)大量的現(xiàn)有資料和規(guī)則進(jìn)行學(xué)習(xí),然后分詞D)依據(jù)詞語(yǔ)與詞語(yǔ)之間的空格進(jìn)行分詞答案:A解析:[單選題]36.Bagging的核心思想是什么A)核心思想為并行地訓(xùn)練一系列各自獨(dú)立的同類模型,然后再將各個(gè)模型的輸出結(jié)果按照某種策略進(jìn)行聚合B)核心思想是并行地訓(xùn)練一系列各自獨(dú)立的不同類模型,然后通過(guò)訓(xùn)練一個(gè)元模型(meta-model)來(lái)將各個(gè)模型輸出結(jié)果進(jìn)行結(jié)合C)不確定D)核心思想為串行地訓(xùn)練一系列前后依賴的同類模型,即后一個(gè)模型用來(lái)對(duì)前一個(gè)模型的輸出結(jié)果進(jìn)行糾正答案:A解析:[單選題]37.當(dāng)樣本數(shù)量特別大時(shí),哪種方式能更快速的收斂A)A:隨機(jī)梯度下降B)B:小批量梯度下降C)C:對(duì)代價(jià)函數(shù)求導(dǎo)D)D:批量梯度下降答案:B解析:[單選題]38.哪個(gè)不是句法語(yǔ)義分析的應(yīng)用A)作為輸入特征B)作為文本分類C)作為抽取規(guī)則D)作為輸入結(jié)構(gòu)答案:B解析:[單選題]39.Adam算法的底層原理是A)強(qiáng)化了RMSprop算法B)強(qiáng)化了動(dòng)量梯度算法C)同時(shí)使用Momentum和RMSprop算法D)沒(méi)有核心答案:C解析:[單選題]40.網(wǎng)格搜索雖然有很多的優(yōu)點(diǎn),但是也有個(gè)關(guān)鍵的弊端是?A)十分耗時(shí)B)十分快速C)計(jì)算資源少D)效率快答案:A解析:[單選題]41.人類語(yǔ)言中的許多特點(diǎn)使得文本自動(dòng)處理相當(dāng)困難。原始文本拿來(lái)之后并不能直接進(jìn)入標(biāo)注流程,在這之前,需要做一些預(yù)處理工作。預(yù)處理工作主要包括以下內(nèi)容A)漢語(yǔ)和英語(yǔ)方面B)法語(yǔ)方面C)日語(yǔ)方面D)符號(hào)方面答案:A解析:[單選題]42.語(yǔ)料庫(kù)加工的主要方式不包括A)人工方式B)交替方式C)自動(dòng)方式D)半自動(dòng)方式答案:B解析:[單選題]43.一個(gè)漢字在方陣中的坐標(biāo),稱為該字的?()?。A)區(qū)碼B)位碼C)區(qū)位碼D)位區(qū)碼答案:C解析:[單選題]44.文本文件中存儲(chǔ)的其實(shí)并不是我們?cè)诰庉嬈骼锟吹降囊粋€(gè)個(gè)的字符,而是字符的()。A)內(nèi)碼B)外碼C)反碼D)補(bǔ)碼答案:A解析:[單選題]45.RNN的關(guān)鍵點(diǎn)之一就是他們可以用來(lái)連接()的信息到當(dāng)前的任務(wù)上A)先前B)之后C)丟失D)LSTM答案:A解析:[單選題]46.做特征工程的目的是為了什么A)設(shè)計(jì)更高效的特征以刻畫(huà)求解的問(wèn)題與預(yù)測(cè)模型之間的關(guān)系。B)為了對(duì)數(shù)據(jù)進(jìn)行分類C)為了對(duì)數(shù)據(jù)進(jìn)行回歸D)為了對(duì)數(shù)據(jù)進(jìn)行聚類和降維的操作答案:A解析:[單選題]47.在NLP中,將一種語(yǔ)言翻譯成另一種語(yǔ)言屬于什么任務(wù)A)文本摘要B)機(jī)器翻譯C)主題提取D)問(wèn)答系統(tǒng)答案:B解析:[單選題]48.智能問(wèn)答系統(tǒng)主要依靠的關(guān)鍵基礎(chǔ)和技術(shù)不包括以下那個(gè)方面()A)大量高質(zhì)量的數(shù)據(jù)和知識(shí),主要是知識(shí)圖譜技術(shù)B)強(qiáng)大的自然語(yǔ)言處理技術(shù)C)需要大量的標(biāo)準(zhǔn)訓(xùn)練語(yǔ)料,這主要是深度學(xué)習(xí)方法所需要D)專業(yè)的智能算法答案:D解析:[單選題]49.LDA中的五個(gè)分布其中的二項(xiàng)分布,是一個(gè)什么分布A)離散的隨機(jī)分布B)連續(xù)的隨機(jī)分布C)連續(xù)的分布D)不確定答案:A解析:[單選題]50.常用的激活函數(shù)其中包括Tanh,它的導(dǎo)數(shù)的范圍是在哪個(gè)區(qū)間?A)(0,1]B)(0,0.1]C)(0,-1]D)(0,10]答案:A解析:[單選題]51.關(guān)于ELMO說(shuō)法正確的是__?A)使用了預(yù)訓(xùn)練模型,基于上下文微調(diào)embeddingB)使用了更強(qiáng)的特征提取器TransformerC)使用了單向的Transformer去提取特征D)以上都正確答案:A解析:[單選題]52.下面哪個(gè)方式不能對(duì)NER調(diào)優(yōu)A)加入BERTB)加入ALBERTC)加入SVCD)使用更高質(zhì)量的數(shù)據(jù)答案:C解析:[單選題]53.下面那個(gè)不屬于判別式式模型A)MEMMB)CRFC)HMMD)SVM答案:C解析:[單選題]54.conv2d的作用是什么A)一維卷積B)lstm操作C)GRU操作D)二維卷積答案:D解析:[單選題]55.邏輯回歸的損失函數(shù)是什么A)信息熵B)信息增益C)對(duì)數(shù)損失D)均方誤差答案:C解析:[單選題]56.下列模型中使用Transformer的是__?A)word2vecB)BERTC)ELMOD)GPT答案:D解析:[單選題]57.確定性知識(shí)是指()知識(shí)。A)可以精確表示的B)正確的C)在大學(xué)中學(xué)到的知識(shí)D)能夠解決問(wèn)題的答案:A解析:[單選題]58.NLP中也常用到深度學(xué)習(xí),那么相比較機(jī)器學(xué)習(xí)而言,有什么優(yōu)勢(shì)A)計(jì)算量變得更大B)計(jì)算時(shí)間變得更久C)特征提取變得更加容易D)時(shí)間復(fù)雜度更復(fù)雜答案:C解析:[單選題]59.長(zhǎng)短期記憶門中?確定輸出,把前面的信息保存到隱層中去?是哪個(gè)門?A)輸入門B)遺忘門C)輸出門D)更新門答案:C解析:[單選題]60.下列對(duì)神經(jīng)網(wǎng)絡(luò)中的relu激活函數(shù),正確的說(shuō)法是哪個(gè)?A)引用了無(wú)效的單元格地址B)過(guò)濾無(wú)效神經(jīng)元C)不是激發(fā)函數(shù)D)將正數(shù)保留,將負(fù)數(shù)置0答案:D解析:[單選題]61.政府部門利用NLP技術(shù)分析人們對(duì)某一事件、政策法規(guī)或社會(huì)現(xiàn)象的評(píng)論,實(shí)時(shí)了解百姓的態(tài)度,這屬于NLP研究?jī)?nèi)容的()。A)信息檢索B)文本分類C)信息過(guò)濾D)自動(dòng)文摘答案:B解析:[單選題]62.哪個(gè)為人工智能之父A)圖靈B)馮-諾依曼C)維納D)牛頓答案:A解析:[單選題]63.如果適當(dāng)?shù)脑黾恿四P偷膹?fù)雜度會(huì)達(dá)到什么效果A)防止過(guò)擬合B)防止欠擬合C)防止完美擬合D)不確定答案:B解析:[單選題]64.馬爾科夫鏈達(dá)到最穩(wěn)定狀態(tài)時(shí),其穩(wěn)定概率與()無(wú)關(guān)A)初始轉(zhuǎn)發(fā)B)中間狀態(tài)C)當(dāng)前狀態(tài)D)最末狀態(tài)答案:A解析:[單選題]65.文本表示有很多種形式短文本表示和詞表示是基于什么的文本表示分類A)基于特征B)基于粒度C)基于表示方法D)不確定答案:B解析:[單選題]66.支持向量機(jī)屬于A)判別模型B)數(shù)據(jù)結(jié)構(gòu)C)蜜罐模型D)語(yǔ)言答案:A解析:[單選題]67.在詞類構(gòu)造中,采用詞的自動(dòng)聚類技術(shù)時(shí),構(gòu)造基于A)基于詞的n-gram模型B)基于詞性的n-gram模型C)基于詞自動(dòng)聚類的n-gram模型D)以上三項(xiàng)都可答案:C解析:[單選題]68.tanh激活函數(shù)的輸出值在什么區(qū)間A)[0,1]B)[-1,1]C)[-1,0]D)[-0.5,0.5]答案:B解析:[單選題]69.以下哪個(gè)選項(xiàng)讓GBDT更好更快的用到工業(yè)當(dāng)中A)LightGBMB)XGBoostC)隨機(jī)森林D)嶺回歸答案:A解析:[單選題]70.馬爾可夫模型不可應(yīng)用于A)詞性標(biāo)注B)求解方程C)中文分詞D)天氣預(yù)報(bào)答案:B解析:[單選題]71.當(dāng)你在數(shù)據(jù)中發(fā)現(xiàn)噪聲時(shí),你將在k-NN中考慮以下哪個(gè)選項(xiàng)?A)將增加k的值B)將減少k的值C)噪聲不能取決于kD)以上都不對(duì)答案:A解析:[單選題]72.大五碼是()地區(qū)標(biāo)準(zhǔn)漢字字符集(CNS11643)。A)美國(guó)B)歐洲C)中國(guó)臺(tái)灣D)中國(guó)大陸答案:C解析:[單選題]73.以下幾個(gè)選項(xiàng)中,哪個(gè)選項(xiàng)指的是?修正線性單元?A)tanhB)LeakyReluC)sigmoidD)relu答案:D解析:[單選題]74.使用EM算法去求解K-Means模型是可能會(huì)造成什么結(jié)果A)算法不收斂B)可能達(dá)到局部最優(yōu)C)不確定D)使梯度的計(jì)算更便捷答案:B解析:[單選題]75.下邊哪些方式不能做特征提取A)CNNB)RNNC)TransformerD)SVM答案:D解析:[單選題]76.什么時(shí)候可以選取KNN算法A)當(dāng)需要使用分類算法,且數(shù)據(jù)比較大的時(shí)候就可以嘗試使用KNN算法進(jìn)行分類了。B)當(dāng)需要使用聚類算法,且數(shù)據(jù)比較大的時(shí)候就可以嘗試使用KNN算法進(jìn)行分類了。C)當(dāng)需要使用降維算法,且數(shù)據(jù)比較大的時(shí)候就可以嘗試使用KNN算法進(jìn)行分類了。D)不能確定答案:A解析:[單選題]77.決策樹(shù)算法最終A)擬合出一個(gè)含有參數(shù)的函數(shù)B)構(gòu)造出一個(gè)含有參數(shù)的網(wǎng)絡(luò)C)生成一個(gè)有分支的決策樹(shù)D)生成一個(gè)有向圖答案:C解析:[單選題]78.實(shí)際的應(yīng)用中在數(shù)據(jù)預(yù)處理階段會(huì)有數(shù)據(jù)劃分,下列關(guān)于訓(xùn)練,測(cè)試以及驗(yàn)證說(shuō)法錯(cuò)誤的是哪個(gè)?A)訓(xùn)練集用于算子的擬合B)可以直接使用訓(xùn)練集來(lái)驗(yàn)證算子的準(zhǔn)確率C)驗(yàn)證集和測(cè)試集用來(lái)評(píng)判算子的準(zhǔn)確度D)可以不配置驗(yàn)證集答案:B解析:[單選題]79.關(guān)于梯度下降最優(yōu)化方法,以下描述正確的是A)一般情況下不能保證得到全局最優(yōu)解B)梯度下降速度最快C)目標(biāo)函數(shù)是非凸集,梯度下降的解是最優(yōu)解D)思想簡(jiǎn)單,實(shí)現(xiàn)困難答案:A解析:[單選題]80.動(dòng)量梯度法,是通過(guò)學(xué)習(xí)率和什么控制的,下列說(shuō)法正確的是?A)指數(shù)加權(quán)平均數(shù)B)局部平均值C)全局平局值D)方差答案:A解析:[單選題]81.以下不是數(shù)據(jù)清洗的方法有A)A:缺失值填充B)B:重復(fù)值去除C)C:尋找離群點(diǎn)(奇點(diǎn))D)D:集成不同的數(shù)據(jù)庫(kù)答案:D解析:[單選題]82.以下四個(gè)說(shuō)法中,哪個(gè)是GBDT的優(yōu)點(diǎn)A)在分布稠密的數(shù)據(jù)集上,泛化能力和表達(dá)能力都很好;B)GBDT在高維稀疏的數(shù)據(jù)集上表現(xiàn)不佳;C)訓(xùn)練過(guò)程需要串行訓(xùn)練,只能在決策樹(shù)內(nèi)部采用一些局部并行的手段提高訓(xùn)練速度。D)不確定答案:A解析:[單選題]83.從工程的角度出發(fā)去看,隨機(jī)森林有什么優(yōu)點(diǎn)A)隨機(jī)森林的每棵樹(shù)訓(xùn)練是相互獨(dú)立的,可以串行生成,調(diào)高訓(xùn)練的效率B)隨機(jī)森林的每棵樹(shù)訓(xùn)練是相互獨(dú)立的,可以并行生成,調(diào)高訓(xùn)練的效率C)隨機(jī)森林的每棵樹(shù)訓(xùn)練是相互獨(dú)立的,可以并行生成,降低訓(xùn)練的效率D)不確定答案:B解析:[單選題]84.tf.slice的作用是什么A)沿著某一維度連結(jié)tensorB)沿著某一維度將tensor分離為num_splittensorsC)對(duì)tensor進(jìn)行切片操作D)沿著某維度進(jìn)行序列反轉(zhuǎn)答案:C解析:[單選題]85.產(chǎn)生式系統(tǒng)的推理不包括A)正向推理B)逆向推理C)雙向推理D)簡(jiǎn)單推理答案:D解析:[單選題]86.知識(shí)圖譜用到了哪個(gè)領(lǐng)域的技術(shù)A)計(jì)算機(jī)視覺(jué)B)數(shù)據(jù)挖掘C)自然語(yǔ)言處理D)機(jī)器學(xué)習(xí)答案:C解析:[單選題]87.線性回歸的最優(yōu)解是()A)迭代優(yōu)化B)一次求解C)求解函數(shù)最大值D)迭代求解代價(jià)函數(shù)最小值答案:D解析:[單選題]88.SVM其中有個(gè)參數(shù)C,這個(gè)參數(shù)代表的是什么意思?A)交叉驗(yàn)證的次數(shù)B)用到的核函數(shù)C)在分類準(zhǔn)確性和模型復(fù)雜度之間的權(quán)衡D)以上都不對(duì)答案:C解析:[單選題]89.tensorflow中的cast方法,返回值的數(shù)據(jù)類型是什么樣的A)整數(shù)型B)布爾型C)浮點(diǎn)型D)字符串答案:C解析:[單選題]90.人工智能中的NLP,有什么特別之處A)傳遞信號(hào),表達(dá)意思B)做圖像檢測(cè)C)做人臉識(shí)別D)做指紋識(shí)別答案:A解析:[單選題]91.人工智能起源于哪個(gè)年代?A)20世紀(jì)50年代B)20世紀(jì)60年代C)20世紀(jì)70年代D)20世紀(jì)80年代答案:A解析:[單選題]92.如果測(cè)試數(shù)據(jù)中有N(非常大)的觀測(cè)值,則1-NN將花費(fèi)多少時(shí)間?A)N*DB)N*D*2C)(N*D)/2D)這些都不是答案:A解析:[單選題]93.NLP中常用的激活函數(shù)Tanh,它的輸出的值域范圍是多少?A)+1和-1B)+0和-1C)+1和0D)+2和-2答案:A解析:[單選題]94.()是統(tǒng)計(jì)一個(gè)詞出現(xiàn)在文檔集中文檔頻次的統(tǒng)計(jì)量。A)逆文檔頻率B)詞頻C)詞頻-逆文檔頻率D)以上都不對(duì)答案:A解析:[單選題]95.與基于詞的n-gram模型和基于詞性的n-gram模型相比較,自動(dòng)聚類生成的詞類數(shù)量A)比兩者都大B)比兩者都小C)介于兩者之間D)三者一樣答案:C解析:[單選題]96.以下關(guān)于信息增益正確的是A)信息增益=劃分后熵-劃分前熵B)信息增益=劃分前熵-劃分后熵C)信息增益就是信息熵D)信息增益就是條件熵答案:B解析:[單選題]97.下列幾個(gè)預(yù)訓(xùn)練模型中,哪個(gè)使用了LSTMA)BERTB)GPTC)GPT-2D)ELMO答案:D解析:[單選題]98.以下幾個(gè)選項(xiàng),哪一個(gè)常賦值給batch_sizeA)128B)127C)126D)125答案:A解析:[單選題]99.可以計(jì)算詞向量之間距離的技術(shù)是哪個(gè)?A)詞形還原(Lemmatization)B)探測(cè)法(Soundex)C)余弦相似度(CosineSimilarity)D)N-grams答案:C解析:[單選題]100.()是一種基于圖的文本排序算法,它可以用于自動(dòng)摘要和提取關(guān)鍵詞。A)TF-IDF算法B)TextRank算法C)LDA算法D)主題模型答案:B解析:[單選題]101.以下四個(gè)選項(xiàng)當(dāng)中,哪個(gè)講的是隨機(jī)森林的優(yōu)點(diǎn)A)隨機(jī)森林已經(jīng)被證明在某些噪音比較大的分類或回歸問(wèn)題上會(huì)過(guò)擬合。B)對(duì)于不平均的數(shù)據(jù)集來(lái)說(shuō),它可以平衡誤差;C)對(duì)于有不同取值的屬性數(shù)據(jù),取值劃分較多的屬性會(huì)對(duì)隨機(jī)森林產(chǎn)生更大的影響D)學(xué)習(xí)本質(zhì)上進(jìn)行的是決策節(jié)點(diǎn)的分裂,依賴于訓(xùn)練數(shù)據(jù)的空間分布答案:B解析:[單選題]102.下列四個(gè)選項(xiàng)中,對(duì)于正則化的描述正確的選項(xiàng)是哪個(gè)?A)每一個(gè)隱層都需要正則化B)正則化可以預(yù)防過(guò)擬合C)正則化可以預(yù)防欠擬合D)每一個(gè)模型中都需要正則化,否則無(wú)法正確預(yù)測(cè)結(jié)果答案:B解析:[單選題]103.Python里面,以下哪個(gè)不屬于面向?qū)ο蟮奶匦?A)A:封裝B)B:繼承C)C:多態(tài)D)D:消息答案:D解析:[單選題]104.通過(guò)getTreeDepth可以獲取決策樹(shù)中的什么A)獲取決策樹(shù)葉子節(jié)點(diǎn)的個(gè)數(shù)B)獲取決策樹(shù)的層數(shù)C)繪制節(jié)點(diǎn)D)標(biāo)注有向邊屬性答案:B解析:[單選題]105.關(guān)于逆文檔頻率說(shuō)法錯(cuò)誤的是()。A)逆文檔頻率是一個(gè)詞出現(xiàn)在文檔集中文檔頻次的統(tǒng)計(jì)量B)一個(gè)詞在文檔集中越少的文檔中出現(xiàn),說(shuō)明這個(gè)詞對(duì)文檔的區(qū)分能力越強(qiáng)C)一個(gè)詞在文檔集中越少的文檔中出現(xiàn),說(shuō)明這個(gè)詞對(duì)文檔的區(qū)分能力越弱D)逆文檔頻率統(tǒng)計(jì)量的計(jì)算公式為idr,=logq回[,ed}+1答案:C解析:[單選題]106.下列選項(xiàng)中對(duì)大概率事件描述正確的是?A)發(fā)生可能性不大的事件B)發(fā)生可能性大的事件C)發(fā)生可能性不去確定的事件D)以上都正確答案:B解析:[單選題]107.下面哪個(gè)選項(xiàng)不是文本分析的組成?()A)分詞B)詞性標(biāo)注C)文本翻譯D)語(yǔ)義分析答案:C解析:二、(15題)[單選題]108.什么是邏輯回歸,如何理解邏輯回歸A)邏輯回歸是用來(lái)做分類的算法,處理離散型的數(shù)據(jù)B)邏輯回歸就是用來(lái)處理連續(xù)性數(shù)據(jù)的C)邏輯回歸是用來(lái)做回歸的D)邏輯回歸是用來(lái)做房?jī)r(jià)預(yù)測(cè)的答案:A解析:[單選題]109.以下哪種情況下我們可以選擇直接刪除某個(gè)特征A)數(shù)據(jù)情況良好B)數(shù)據(jù)無(wú)過(guò)多缺失值C)特征少D)特征確實(shí)比較多答案:D解析:[單選題]110.如果使用了Tanh作為激活函數(shù)你,那么經(jīng)過(guò)此非線性變換后值的范圍為_(kāi)_?A)[-1,1]B)[0,2]C)[0,1]D)0或1答案:A解析:[單選題]111.梯度下降算法是一個(gè)()的算法A)迭代優(yōu)化B)一次求解C)求解函數(shù)最大值D)迭代求解代價(jià)函數(shù)最小值答案:D解析:[單選題]112.以下幾個(gè)函數(shù)中,上升速度最快的是哪個(gè)A)線性函數(shù)B)指數(shù)函數(shù)C)冪函數(shù)D)對(duì)數(shù)函數(shù)答案:D解析:[單選題]113.CNN中,一般選擇有多個(gè)卷積核是為了什么A)同時(shí)提取多個(gè)圖像的特征B)提取某些圖像多個(gè)特征C)圖像有多個(gè)通道D)與多特征無(wú)關(guān)答案:B解析:[單選題]114.下面哪種方法是屬于將數(shù)據(jù)映射到新的空間?A)傅立葉變換B)特征加權(quán)C)漸進(jìn)抽樣D)維歸約答案:A解析:[單選題]115.tf里的con1d的作用是什么A)二維卷積B)一維卷積C)lstm操作D)GRU操作答案:B解析:[單選題]116.人工智能中關(guān)于距離空間處理的分類情況,一般:A)需要權(quán)重訓(xùn)練B)不需要權(quán)值訓(xùn)練C)不能分類D)需要選定特殊距離空間答案:B解析:第2部分:多項(xiàng)選擇題,共57題,每題至少兩個(gè)正確答案,多選或少選均不得分。[多選題]117.判別式處理模型缺點(diǎn)是什么A)學(xué)習(xí)過(guò)程比較復(fù)雜B)目標(biāo)分類中易產(chǎn)生較大錯(cuò)誤率C)不能反映訓(xùn)練數(shù)據(jù)本身的特性D)沒(méi)辦法把整個(gè)場(chǎng)景描述出來(lái)答案:CD解析:[多選題]118.樣本權(quán)重,最大深度分別是下列哪個(gè)參數(shù)A)lossfunctionB)min_child_leafC)min_child_weightD)max_depth答案:CD解析:[多選題]119.抽取式摘要分為那些步驟A)數(shù)據(jù)預(yù)處理B)排序C)后處理D)詞或句子的表示答案:ABCD解析:[多選題]120.邏輯回歸有什么優(yōu)點(diǎn)A)LR能以概率的形式作為輸出結(jié)果,而不是0,1B)LR的可解釋強(qiáng),可控度高C)訓(xùn)練快D)以上都正確答案:ABCD解析:[多選題]121.下面哪些是以Boosting為代表的算法:A)A:RandomForestClassifierB)B:AdaboostC)C:XgboostD)D:RandomForestRegressor答案:BC解析:[多選題]122.基于粒度的表示方式有A)長(zhǎng)文本表示B)離散表示C)詞表示D)基于聚類表示答案:AC解析:[多選題]123.Bagging的操作主要分為哪些階段A)Aggregating階段,將上一個(gè)階段訓(xùn)練得到的n個(gè)基模型組合起來(lái),共同做決策。在分類任務(wù)中,可采用投票法,比如相對(duì)多數(shù)投票法,將結(jié)果預(yù)測(cè)為得票最多的類別。而在回歸任務(wù)中可采用平均法,即將每個(gè)基模型預(yù)測(cè)得到的結(jié)果進(jìn)行簡(jiǎn)單平均或加權(quán)平均來(lái)獲得最終的預(yù)測(cè)結(jié)果。B)Boostrap階段,即采用有放回的采樣方式,將訓(xùn)練集分為n個(gè)子樣本集;并用基學(xué)習(xí)器對(duì)每組樣本分布進(jìn)行訓(xùn)練,得到n個(gè)基模型C)分別采用全部的訓(xùn)練樣本來(lái)訓(xùn)練n個(gè)組件模型,要求這些個(gè)體學(xué)習(xí)器必須異構(gòu)的,比如可以分別是線性學(xué)習(xí)器,SVM,決策樹(shù)模型和深度學(xué)習(xí)模型。D)訓(xùn)練一個(gè)元模型(meta-model)來(lái)將各個(gè)組件模型的輸出結(jié)果進(jìn)行結(jié)合,具體過(guò)程就是將各個(gè)學(xué)習(xí)器在訓(xùn)練集上得到的預(yù)測(cè)結(jié)果作為訓(xùn)練特征和訓(xùn)練集的真實(shí)結(jié)果組成新的訓(xùn)練集;然后用這個(gè)新組成的訓(xùn)練集來(lái)訓(xùn)練一個(gè)元模型。這個(gè)元模型可以是線性模型或者樹(shù)模型。答案:AB解析:[多選題]124.以下四個(gè)選項(xiàng)當(dāng)中屬于基于表示方法的文本表示分類的是A)基于降維表示B)基于聚類表示C)CBOWD)Skip-gram答案:ABCD解析:[多選題]125.以下幾個(gè)選項(xiàng)中,哪些可以用邏輯回歸算法去完成A)電影票房的預(yù)測(cè)B)垃圾郵件的分類C)房?jī)r(jià)的預(yù)測(cè)D)情感分類答案:BD解析:[多選題]126.能夠跳出局部最優(yōu)解的算法有A)AdamB)MomentumC)RMSpropD)Lasso答案:ABC解析:[多選題]127.隨機(jī)森林的具體實(shí)現(xiàn)步驟有哪些A)隨機(jī)抽樣訓(xùn)練決策樹(shù)。假如有N個(gè)樣本,則有放回的隨機(jī)選擇N個(gè)樣本(每次隨機(jī)選擇一個(gè)樣本,然后返回繼續(xù)選擇,也就是說(shuō)可能有重復(fù)的)。這選擇好了的N個(gè)樣本用來(lái)訓(xùn)練一個(gè)決策樹(shù),作為決策樹(shù)根節(jié)點(diǎn)處的樣本。B)在每個(gè)節(jié)點(diǎn)隨機(jī)選取所有特征的一個(gè)子集,用來(lái)計(jì)算最佳分裂方式。當(dāng)每個(gè)樣本有M個(gè)屬性時(shí),在決策樹(shù)的每個(gè)節(jié)點(diǎn)需要分裂時(shí),隨機(jī)從這M個(gè)屬性中選取出m個(gè)屬性,滿足條件m<<M。然后從這m個(gè)屬性中采用某種策略(比如信息增益)來(lái)選擇1個(gè)屬性作為該節(jié)點(diǎn)的分裂屬性。C)決策樹(shù)形成過(guò)程中每個(gè)節(jié)點(diǎn)都要按照步驟2來(lái)分裂(也就是說(shuō)如果下一次該節(jié)點(diǎn)選出來(lái)的那一個(gè)屬性是剛剛其父節(jié)點(diǎn)分裂時(shí)用過(guò)的屬性,則該結(jié)點(diǎn)已經(jīng)達(dá)到了葉子節(jié)點(diǎn),無(wú)須繼續(xù)分裂了)。一直到不能分裂為止。注意整個(gè)決策樹(shù)形成過(guò)程中沒(méi)有進(jìn)行剪枝。D)建立大量的決策樹(shù),這樣就構(gòu)成了隨機(jī)森林。答案:ABCD解析:[多選題]128.在訓(xùn)練模型時(shí),經(jīng)常會(huì)發(fā)生過(guò)擬合的現(xiàn)象,那么以下哪些手段可以解決過(guò)擬合問(wèn)題A)加入L1B)加入L2C)不做處理D)以上都正確答案:AB解析:[多選題]129.欠擬合可能是什么原因造成的A)模型復(fù)雜度太低B)模型過(guò)于簡(jiǎn)單C)數(shù)據(jù)特征太少D)沒(méi)有使用到重要的特征答案:ABCD解析:[多選題]130.關(guān)于sigmoid函數(shù),錯(cuò)誤的有哪些?()A)A:當(dāng)x大于0時(shí),y<0.5;當(dāng)x小于0時(shí),y>0.5B)B:y的范圍在(-1,1)C)C:當(dāng)x大于0時(shí),y大于0.5且小于1;當(dāng)x小于0時(shí),y大于0且小于0.5D)D:當(dāng)x=0,時(shí),y=1答案:ABD解析:[多選題]131.關(guān)于GPT模型哪些說(shuō)法是正確的A)使用了雙向的TransformerB)使用了單向的TransformerC)使用了雙向LSTMD)解決了一詞多義的問(wèn)題答案:BD解析:[多選題]132.文本挖掘常見(jiàn)應(yīng)用場(chǎng)景有()A)Web文檔自動(dòng)分類B)情感分析C)信息檢索D)關(guān)鍵詞提取答案:ABC解析:[多選題]133.以下選項(xiàng)中,可能會(huì)造成欠擬合的是哪些A)模型復(fù)雜度太低B)模型過(guò)于簡(jiǎn)單C)數(shù)據(jù)特征太少D)沒(méi)有使用到重要的特征答案:ABCD解析:[多選題]134.編解碼模型有哪些弊端A)對(duì)于編碼器來(lái)說(shuō)無(wú)法完全的表示整個(gè)序列信息B)對(duì)于編碼器來(lái)說(shuō),長(zhǎng)序列問(wèn)題,先輸入的有可能被覆蓋掉C)對(duì)于解碼器來(lái)說(shuō),對(duì)于輸入的每個(gè)單詞權(quán)重是不一樣的D)對(duì)于解碼器來(lái)說(shuō),對(duì)于輸入的每個(gè)單詞權(quán)重是相同的答案:ABC解析:[多選題]135.以下正則化相關(guān)的表述,哪些正確?A)正則化可以防止欠擬合B)正則化可以防止過(guò)擬合C)dropout具有正則化效果D)relu函數(shù)具有正則化效果答案:BC解析:[多選題]136.(基于表示方法)文本表示分類都有哪些?A)短文本表示B)One-hot表示C)詞表示D)CBOW答案:BD解析:[多選題]137.XGBoost把GBDT中的哪些方面做到了極致A)速度B)代價(jià)C)效率D)以上都是答案:AC解析:[多選題]138.人工智能機(jī)器人AlphaGo戰(zhàn)勝了圍棋大師,它程序中使用到的技術(shù)有哪些?A)決策神經(jīng)網(wǎng)絡(luò)B)評(píng)估神經(jīng)網(wǎng)絡(luò)C)歷史經(jīng)驗(yàn)D)線性代數(shù)答案:AB解析:[多選題]139.凸優(yōu)化問(wèn)題的例子包括哪些?A)聚類B)支持向量機(jī)C)降維D)線性回歸答案:BD解析:[多選題]140.Boosting思想是怎么進(jìn)行學(xué)習(xí)的?A)先從初始訓(xùn)練集訓(xùn)練出一個(gè)基學(xué)習(xí)器B)再根據(jù)基學(xué)習(xí)器的表現(xiàn)對(duì)訓(xùn)練樣本進(jìn)行調(diào)整C)然后基于調(diào)整后的樣本分布來(lái)訓(xùn)練下一個(gè)基學(xué)習(xí)器D)重復(fù)進(jìn)行。直至基學(xué)習(xí)器數(shù)目達(dá)到實(shí)現(xiàn)指定的值n,最終將這n個(gè)基學(xué)習(xí)器進(jìn)行結(jié)合。答案:ABCD解析:[多選題]141.LSTM可以進(jìn)行長(zhǎng)時(shí)間記憶,那么它是如何實(shí)現(xiàn)的A)LSTM加入了輸入門,,遺忘門以及輸出門B)輸入門控制當(dāng)前計(jì)算的新?tīng)顟B(tài)以及以多大程度更新到記憶單元中C)遺忘門控制前一步記憶單元中的信息以多大程度被遺忘掉D)輸出門控制當(dāng)前的輸出有多大程度取決于當(dāng)前的記憶單元答案:ABCD解析:[多選題]142.tensorflow通常用于在以下哪些場(chǎng)景中的開(kāi)發(fā)?A)自然語(yǔ)言B)語(yǔ)音識(shí)別C)機(jī)器翻譯D)計(jì)算機(jī)視覺(jué)答案:ABCD解析:[多選題]143.神經(jīng)網(wǎng)絡(luò)模型一般包括下面哪幾層A)輸入層B)隱藏層C)輸出層D)以上都包括答案:ABCD解析:[多選題]144.以下哪些網(wǎng)絡(luò)屬于CV領(lǐng)域A)VGGnetB)YOLOC)RNND)LSTM答案:AB解析:[多選題]145.以下四個(gè)模型當(dāng)中,哪些使用到TransformerA)ELMoB)GPTC)BERTD)word2vec答案:BC解析:[多選題]146.以下幾種數(shù)據(jù)當(dāng)中,哪些是屬于非結(jié)構(gòu)化數(shù)據(jù)?A)文本B)圖像C)音頻D)視頻答案:ABCD解析:[多選題]147.調(diào)參指的是調(diào)哪些參數(shù)A)學(xué)習(xí)率B)batch_sizeC)模型結(jié)構(gòu)D)以上都正確答案:AB解析:[多選題]148.Abstractive生成式摘要評(píng)估衡量哪些標(biāo)準(zhǔn)?A)理解文檔B)可讀性強(qiáng)C)簡(jiǎn)練總結(jié)D)語(yǔ)義理解答案:ABC解析:[多選題]149.下列選項(xiàng)中,關(guān)于數(shù)據(jù)歸一化描述正確的有哪些?A)更容易收斂得到最優(yōu)解B)權(quán)重值較小C)權(quán)重值大D)無(wú)特點(diǎn)答案:AB解析:[多選題]150.在邏輯回歸這個(gè)算法中,加入了非線性的變換,那么加入了之后有什么樣的好處A)提升模型表達(dá)能力B)降低模型表達(dá)能力C)易于模型的快速迭代D)加大擬合答案:ACD解析:[多選題]151.K-NN雖然常用,但是它的缺點(diǎn)很明顯,比如:A)對(duì)內(nèi)存要求較高,因?yàn)樵撍惴ù鎯?chǔ)了所有訓(xùn)練數(shù)據(jù)B)預(yù)測(cè)階段可能很慢C)對(duì)不相關(guān)的功能和數(shù)據(jù)規(guī)模敏感D)對(duì)異常值不敏感答案:ABC解析:[多選題]152.有哪些常用的緩解過(guò)擬合的辦法A)dropoutB)數(shù)據(jù)集擴(kuò)增C)earlystoppingD)正則化方法(L1/L2)答案:ABCD解析:[多選題]153.CBOW中的特點(diǎn)和步驟有哪些A)無(wú)隱層B)與上下文的詞序無(wú)關(guān)C)使用了上下文窗口預(yù)測(cè)中心詞D)投影層求和(平均)答案:ABCD解析:[多選題]154.以下幾個(gè)選項(xiàng)中屬于同質(zhì)集成的是?A)BaggingB)BoostingC)StackingD)以上都正確答案:AB解析:[多選題]155.對(duì)數(shù)據(jù)預(yù)處理階段,需要對(duì)樣本進(jìn)行切分,那么下列關(guān)于其中的測(cè)試集描述正確的是?A)在數(shù)據(jù)規(guī)模小時(shí),可以保留30%測(cè)試集B)大數(shù)據(jù)時(shí)代,測(cè)試集不必占用數(shù)據(jù)集的30%,能夠保證對(duì)模型的考核即可C)不管數(shù)據(jù)大小,始終保持30%作為測(cè)試集D)測(cè)試集和驗(yàn)證集不能共存答案:AB解析:[多選題]156.以下四個(gè)選項(xiàng)中,哪些選項(xiàng)是深度學(xué)習(xí)在工業(yè)中的應(yīng)用A)圖像識(shí)別B)文本分類C)機(jī)器創(chuàng)作D)物體識(shí)別答案:ABCD解析:[多選題]157.L1L2就是在目標(biāo)函數(shù)中加入懲罰項(xiàng),那么以下關(guān)于L1,L2說(shuō)法正確的是A)L1可以讓一部分特征的系數(shù)縮小到0,從而間接實(shí)現(xiàn)特征選擇。B)L1讓所有特征的系數(shù)都縮小,但是不會(huì)減為0,它會(huì)使優(yōu)化求解穩(wěn)定快速C)L2可以讓一部分特征的系數(shù)縮小到0,從而間接實(shí)現(xiàn)特征選擇。D)L2讓所有特征的系數(shù)都縮小,但是不會(huì)減為0,它會(huì)使優(yōu)化求解穩(wěn)定快速答案:AD解析:[多選題]158.人工智能的終極目標(biāo)是希望機(jī)器達(dá)到如下哪些能力A)感知B)理解C)決策D)證明答案:ABC解析:[多選題]159.關(guān)于KNN說(shuō)法正確的是A)A:當(dāng)樣本不平衡時(shí),如一個(gè)類的樣本容量很大,而其他類樣本容量很小時(shí),有可能導(dǎo)致當(dāng)輸入一個(gè)新樣本時(shí),該樣本的K個(gè)鄰居中大容量類的樣本占多數(shù)。B)B:計(jì)算量較大,因?yàn)閷?duì)每一個(gè)待分類的文本都要計(jì)算它到全體已知樣本的距離,才能求得它的K個(gè)最近鄰點(diǎn)。C)C:使用KDTree可以加快k近鄰的搜索效率D)D:可理解性差,無(wú)法給出像決策樹(shù)那樣的規(guī)則。答案:ABCD解析:[多選題]160.Bert的輸入輸入的向量中,有幾個(gè)embedding構(gòu)成?A)TokenembeddingB)SegmentembeddingC)PositionembeddingD)TF-IDF答案:ABC解析:[多選題]161.Transformer中的decode層是由那幾個(gè)構(gòu)成的A)self-AttentionB)Attention層C)前饋神經(jīng)網(wǎng)絡(luò)D)CNN答案:ABC解析:[多選題]162.以下屬于分類器classifier評(píng)價(jià)的有哪些:A)預(yù)測(cè)準(zhǔn)確度B)召回率C)模型描述的簡(jiǎn)潔度D)計(jì)算復(fù)雜度答案:ACD解析:[多選題]163.人工智能關(guān)于自動(dòng)文摘中關(guān)于抽取式摘要問(wèn)題考慮的指標(biāo)有哪些?A)相關(guān)性B)平衡性C)安全性D)新穎性答案:AD解析:[多選題]164.如果想要使用樹(shù)停止生長(zhǎng),可以使用哪些操作?A)設(shè)置樹(shù)的最大深度B)當(dāng)樣本權(quán)重C)防止過(guò)擬合D)以上全部正確答案:ABCD解析:[多選題]165.下列哪些是對(duì)馬爾科夫模型的正確理解()A)馬爾科夫模型的基本假設(shè)是人事變動(dòng)概率B)用以估計(jì)歷年年平均調(diào)動(dòng)概率的周期越長(zhǎng),根據(jù)過(guò)去所推測(cè)未來(lái)人員變動(dòng)就越準(zhǔn)確C)采用馬爾科夫模型可以預(yù)測(cè)組織任何時(shí)刻點(diǎn)上的各類人員分布狀況D)模型中的轉(zhuǎn)移率是指組織中人員進(jìn)行水平調(diào)動(dòng)的比率,不包含被提升或降級(jí)的人數(shù)答案:AB解析:[多選題]166.關(guān)于wordembedding+Bi-LSTM+CRF,以下說(shuō)法正確的是?A)屬于深度學(xué)習(xí)的一種方法B)屬于機(jī)器學(xué)習(xí)的一種方法C)是深度學(xué)習(xí)目前主流的方法D)以上說(shuō)法都正確答案:AC解析:[多選題]167.EM算法當(dāng)中有哪些缺點(diǎn)A)對(duì)初始值敏感B)不同的初值可能得到不同的參數(shù)估計(jì)值C)不能保證找到全局最優(yōu)值。D)以上都正確答案:ABCD解析:[多選題]168.NLP中有哪幾大類任務(wù)A)序列標(biāo)注B)分類C)句子關(guān)系判斷D)生成式任務(wù)答案:ABCD解析:[多選題]169.HMM主要解決哪幾類問(wèn)題A)預(yù)測(cè)問(wèn)題B)評(píng)價(jià)問(wèn)題C)解碼問(wèn)題D)參數(shù)學(xué)習(xí)問(wèn)題答案:BCD解析:[多選題]170.以下四個(gè)選項(xiàng)中,有哪些是屬于機(jī)器學(xué)習(xí)的A)監(jiān)督式學(xué)習(xí)B)非監(jiān)督式學(xué)習(xí)C)半監(jiān)督式學(xué)習(xí)D)強(qiáng)化學(xué)習(xí)答案:ABCD解析:[多選題]171.基于粒度的文本表示分類是哪些??A)長(zhǎng)文本表示B)離散表示C)詞表示D)基于聚類表示答案:AC解析:[多選題]172.以下四個(gè)選項(xiàng)中,使用到了Transformer做特征提取模型有哪些A)BERTB)ALBERTC)GPTD)ELMO答案:ABC解析:[多選題]173.人工智能中關(guān)于L1和L2正則化的區(qū)別,以下有哪些?A)L1可以讓一部分特征的系數(shù)縮小到0,從而間接實(shí)現(xiàn)特征選擇。B)L1讓所有特征的系數(shù)都縮小,但是不會(huì)減為0,它會(huì)使優(yōu)化求解穩(wěn)定快速C)L2可以讓一部分特征的系數(shù)縮小到0,從而間接實(shí)現(xiàn)特征選擇。D)L2讓所有特征的系數(shù)都縮小,但是不會(huì)減為0,它會(huì)使優(yōu)化求解穩(wěn)定快速答案:AD解析:第3部分:判斷題,共66題,請(qǐng)判斷題目是否正確。[判斷題]174.在優(yōu)化算法中,學(xué)習(xí)率并不是一成不變的A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]175.Skip-Gram是通過(guò)上下文來(lái)預(yù)測(cè)中心詞的A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]176.BP算法和神經(jīng)網(wǎng)絡(luò)是不同的A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]177.神經(jīng)網(wǎng)絡(luò)的網(wǎng)絡(luò)結(jié)構(gòu)一般分為:輸入層,輸出層,隱藏層A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]178.LightGBM提出的主要原因就是為了解決GBDT在海量數(shù)據(jù)遇到的問(wèn)題,讓GBDT可以更好更快地用于工業(yè)實(shí)踐。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]179.LSTM不能解決RNN中的梯度消失問(wèn)題A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]180.所謂句法學(xué),就是研究句子結(jié)構(gòu)成分之間的相互關(guān)系和組成句子序列的規(guī)則。()A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]181.GPT并不是預(yù)訓(xùn)練模型A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]182.數(shù)據(jù)平滑技術(shù)包括分箱回歸遞歸聚類決策樹(shù)A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]183.神經(jīng)網(wǎng)絡(luò)中的隱藏層可以是一層,也可以是多層A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]184.深度學(xué)習(xí)并不能為機(jī)器學(xué)習(xí)提取特征A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]185.正向最大匹配算法和逆向最大匹配算法的本質(zhì)目的相同,都是對(duì)文本進(jìn)行分詞A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]186.文本是一類非常重要的結(jié)構(gòu)化數(shù)據(jù)A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]187.文本分類是指信息過(guò)濾系統(tǒng)對(duì)網(wǎng)站信息發(fā)布、公眾信息公開(kāi)申請(qǐng)和網(wǎng)站留言等內(nèi)容實(shí)現(xiàn)提交時(shí)的自動(dòng)過(guò)濾處理。A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]188.神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)中,多隱藏層比單隱藏層工程效果差A(yù))正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]189.全稱化推理就是由合適公式W1和W1->W2產(chǎn)生合適公式W2的運(yùn)算。A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]190.CNN卷積核的尺寸是一個(gè)參數(shù),可以自己指定A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]191.謂詞邏輯表示法中,客體是命題的主語(yǔ)A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]192.深度學(xué)習(xí)的應(yīng)用非常的廣泛,例如:文本分類等任務(wù)A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]193.樸素貝葉斯法是一種分類方法A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]194.過(guò)多的隱層和神經(jīng)元節(jié)點(diǎn),只會(huì)帶來(lái)更好的結(jié)果A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]195.深度學(xué)習(xí)中做特征提取的效果會(huì)更好A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]196.CNN可以做文字上的特征提取A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]197.分布式表示的優(yōu)點(diǎn)是考慮到了詞之間存在的相似關(guān)系,減小了詞向量的維度。對(duì)A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]198.反向傳播是指對(duì)神經(jīng)網(wǎng)絡(luò)沿著從輸入層到輸出層的順序,依次計(jì)算并存儲(chǔ)模型的中間變量(包括輸出)A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]199.XGBoost中枚舉所有不同樹(shù)結(jié)構(gòu)的貪心法A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]200.StanfordNLP中使用StanfordTokenizer進(jìn)行中英文詞性標(biāo)注A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]201.感知機(jī)和深度學(xué)習(xí)的神經(jīng)網(wǎng)絡(luò)是相同的A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]202.TF-IDF和FastText都可以提取關(guān)鍵詞A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]203.深度學(xué)習(xí)是機(jī)器學(xué)習(xí)的一個(gè)子集,可以很方便的為機(jī)器學(xué)習(xí)提取特征A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]204.句子的主客觀分類能夠有效提高文本情感分析的準(zhǔn)確度。對(duì)A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]205.DSSM是表示型的深度文本匹配模型A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]206.命名實(shí)體識(shí)別是StanfordNLP的應(yīng)用A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]207.正則表達(dá)式也可以稱為規(guī)則表達(dá)式。對(duì)A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]208.GPT采用的特征提取器是雙向的TransformerA)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]209.統(tǒng)計(jì)方法中具有代表性的幾種方法:基于HMM模型的方法;互信息方法;Φ2統(tǒng)計(jì)方法A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]210.SVM中當(dāng)訓(xùn)練樣本線性可分時(shí),通過(guò)硬間隔最大化,學(xué)習(xí)一個(gè)線性分類器,即線性可分支持向量機(jī)A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]211.中文分詞比英文分詞容易。A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]212.自動(dòng)提取文本關(guān)鍵詞不需要進(jìn)行文本預(yù)處理。錯(cuò)A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]213.中文文本分詞主要分為基于詞典的分詞方法、基于統(tǒng)計(jì)的分詞方法和基于規(guī)則的分詞方法。對(duì)A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]214.4.RNN網(wǎng)絡(luò)能直接接收語(yǔ)言文本。錯(cuò)A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]215.EM算法的應(yīng)用一般有混合高斯、協(xié)同過(guò)濾、k-means。算法一定會(huì)收斂,但是可能會(huì)收斂到局部最優(yōu)A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]216.在迭代次數(shù)夠多的情況下Glove會(huì)比Word2Vec效果好A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]217.語(yǔ)料庫(kù)按照語(yǔ)料選取的時(shí)間可分為歷時(shí)語(yǔ)料庫(kù)和共時(shí)語(yǔ)料庫(kù)A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]218.基于層次的聚類特點(diǎn)是較小的計(jì)算開(kāi)銷。然而這種技術(shù)不能更正錯(cuò)誤的決定。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]219.非結(jié)構(gòu)化數(shù)據(jù)。非結(jié)構(gòu)化數(shù)據(jù)主要包括文本、圖像、音頻、視頻數(shù)據(jù)A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]220.基于主題的文本情感分析主要是通過(guò)挖掘用戶評(píng)論所蘊(yùn)含的主題,以及用戶對(duì)這些主題的情感偏好,從而提高文本情感分析的性能。對(duì)A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]221.詞頻是統(tǒng)計(jì)一個(gè)詞在一篇文檔中出現(xiàn)頻次的統(tǒng)計(jì)量。對(duì)A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]222.LDA模型是應(yīng)用比較廣泛的一種主題模型,包含詞、主題2層結(jié)構(gòu)。錯(cuò)A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]223.反向傳播(back-propagation)指的是計(jì)算神經(jīng)網(wǎng)絡(luò)參數(shù)梯度的方法。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]224.所謂圖靈測(cè)試是一個(gè)典型思想實(shí)驗(yàn)。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]225.批量的大小選擇的越小越好A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]226.語(yǔ)料庫(kù)按照語(yǔ)料中的語(yǔ)種可分為單語(yǔ)種語(yǔ)料庫(kù)和多語(yǔ)種語(yǔ)料庫(kù)A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]227.文本校對(duì)系統(tǒng)的任務(wù)是檢查文本中的語(yǔ)法、詞匯和文字方面可能存在的錯(cuò)誤,報(bào)告給用戶并提出修改建議A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]228.可以通過(guò)詞嵌入轉(zhuǎn)化成向量,判斷兩個(gè)詞之間的距離A)正確B)錯(cuò)誤答案:對(duì)解析:可以使用余弦相似度來(lái)確定通過(guò)詞嵌入來(lái)表示的兩個(gè)向量之間的距離。[判斷題]229.邏輯回歸LR,首先需要對(duì)特征離散化A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]230.文本向量化是將文本表示成一系列能夠表達(dá)文本語(yǔ)義的機(jī)讀向量。對(duì)A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]231.RNN是循環(huán)神經(jīng)網(wǎng)絡(luò)的簡(jiǎn)寫(xiě)A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]232.可以把訓(xùn)練
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 2024秋三年級(jí)語(yǔ)文上冊(cè) 第一單元 第2課 花的學(xué)校說(shuō)課稿 新人教版
- 2024年春九年級(jí)歷史上冊(cè) 第22課 科學(xué)和思想的力量說(shuō)課稿 新人教版
- 6梯形的面積 說(shuō)課稿-2024-2025學(xué)年人教版數(shù)學(xué)五年級(jí)上冊(cè)
- 2024-2025學(xué)年高中化學(xué) 第一章 物質(zhì)結(jié)構(gòu)元素周期律 第一節(jié) 元素周期表第1課時(shí)說(shuō)課稿1 新人教版必修2
- 2024年秋八年級(jí)語(yǔ)文上冊(cè) 第五單元 名著導(dǎo)讀《昆蟲(chóng)記》說(shuō)課稿 新人教版001
- 2024年春七年級(jí)地理下冊(cè) 第6章 第2節(jié) 自然環(huán)境說(shuō)課稿2 (新版)新人教版
- 9 烏鴉喝水(說(shuō)課稿)2024-2025學(xué)年統(tǒng)編版語(yǔ)文一年級(jí)上冊(cè)001
- 1《植物》科學(xué)閱讀《我們離不開(kāi)植物》(說(shuō)課稿)2023-2024學(xué)年一年級(jí)上冊(cè)科學(xué)教科版001
- 2025個(gè)人購(gòu)房合同樣本(合同版本)
- Unit2 Bridging Cultures Learning About Language Structures 說(shuō)課稿-2024-2025學(xué)年高中英語(yǔ)人教版(2019)選擇性必修第二冊(cè)
- 物業(yè)公司服務(wù)質(zhì)量檢查流程
- 2022小學(xué)音樂(lè)新課程標(biāo)準(zhǔn)測(cè)試題庫(kù)及答案
- 中國(guó)心胸外科的歷史和現(xiàn)狀
- 人教版9年級(jí)全一冊(cè)英語(yǔ)單詞表
- 三門峽水利工程案例分析工程倫理
- 中國(guó)旅游地理區(qū)劃-京津冀旅游區(qū)
- “1+X”證書(shū)制度試點(diǎn)職業(yè)技能等級(jí)證書(shū)全名錄
- 生姜高產(chǎn)種植技術(shù)專題培訓(xùn)課件
- 《社會(huì)主義市場(chǎng)經(jīng)濟(jì)理論(第三版)》第八章社會(huì)主義市場(chǎng)經(jīng)濟(jì)調(diào)控論
- 交流伺服系統(tǒng)常見(jiàn)故障及處理分解課件
- 水土保持單元工程質(zhì)量評(píng)定表
評(píng)論
0/150
提交評(píng)論