




版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認(rèn)領(lǐng)
文檔簡介
試卷科目:人工智能自然語言技術(shù)練習(xí)人工智能自然語言技術(shù)練習(xí)(習(xí)題卷1)PAGE"pagenumber"pagenumber/SECTIONPAGES"numberofpages"numberofpages人工智能自然語言技術(shù)練習(xí)第1部分:單項選擇題,共116題,每題只有一個正確答案,多選或少選均不得分。[單選題]1.在使用EM算法的時候可能會出現(xiàn)以下什么問題(弊端)A)算法快速收斂B)可能達到局部最優(yōu)C)不確定D)使梯度的計算更便捷答案:B解析:[單選題]2.人工智能中regularization的作用A)防止過擬合B)邊緣檢測C)提取特征D)簡化數(shù)據(jù)答案:A解析:[單選題]3.在NLP的應(yīng)用當(dāng)中,估計條件概率常用的方法是什么A)交叉熵函數(shù)B)信息熵函數(shù)C)加和求平均D)極大似然估計答案:D解析:[單選題]4.在NLP中的實體識別任務(wù)中,如果使用Bi-LSTM+CRF框架,Bi-LSTM是什么作用A)從前向后,單向提取特征B)從后向前,單向提取特征C)從前向后,從后向前,雙向提取特征D)不確定答案:C解析:[單選題]5.常用的激活函數(shù)relu,下列對該激活函數(shù)描述正確的是?A)引用了無效的單元格地址B)過濾無效神經(jīng)元C)不是激發(fā)函數(shù)D)將正數(shù)保留,將負(fù)數(shù)置0答案:D解析:[單選題]6.馬爾可夫模型屬于A)定性安全評價方法B)概率風(fēng)險評判法C)傷害范圍評價法D)危險指數(shù)評價法答案:B解析:[單選題]7.正則表達式()A)屬于C#B)屬于jsC)屬于javaD)不屬于任何語言,但大多數(shù)語言都有對他的支持答案:D解析:[單選題]8.激活函數(shù)也在不斷的更新,以下哪個激活函數(shù)是在Relu的基礎(chǔ)上優(yōu)化的A)sigmoidB)tanhC)reluD)Leakyrelu答案:D解析:[單選題]9.每個Transformer編碼器中的第一層是__?A)前饋神經(jīng)網(wǎng)絡(luò)B)AttentionC)Self-AttentionD)不確定答案:A解析:[單選題]10.所有的預(yù)測正確(正類負(fù)類)的占總的比重,這種計算方法可以計算?A)召回率B)準(zhǔn)確率C)精準(zhǔn)率D)F1值答案:B解析:[單選題]11.tf.abs的作用是什么A)相加B)相減C)相除D)求絕對值答案:D解析:[單選題]12.以下四個選項中,哪個激活函數(shù)的的輸出在0~1的范圍之間A)reluB)tanhC)LeakyReluD)sigmoid答案:D解析:[單選題]13.以下四個選項中,其中有哪些算法是基于規(guī)則的分類器A)C4.5B)KNNC)NaveBayesD)ANN答案:A解析:[單選題]14.關(guān)于距離空間其主要目的是A)求相關(guān)性B)構(gòu)成線性空間C)度量后比較D)求信息熵答案:C解析:[單選題]15.以下關(guān)于機器學(xué)習(xí)算法與傳統(tǒng)基于規(guī)則方法的區(qū)別中不正確的是A)傳統(tǒng)的基于規(guī)則的方法,其中的規(guī)律可以人工顯性的明確出來B)傳統(tǒng)基于規(guī)則的方法使用顯性編程來解決問題C)機器學(xué)習(xí)中模型的映射關(guān)系是自動學(xué)習(xí)的D)機器學(xué)習(xí)算法不包括深度學(xué)習(xí)答案:D解析:[單選題]16.relu()會將小于()輸出為零A)-1B)0C)1D)x答案:B解析:[單選題]17.以下四個選項中關(guān)于二項分布說法正確的是A)連續(xù)型分布B)離散型分布C)正態(tài)分布D)伽瑪分布答案:B解析:[單選題]18.TextRank可以提取到關(guān)鍵詞那么它是由哪個算法發(fā)展來的?A)TextRnnB)TextCNNC)FasttextD)PageRank答案:D解析:[單選題]19.XGBoost中加入正則化會怎么樣A)可以防止欠擬合B)可以增加模型的泛化能力C)可以增加模型的復(fù)雜度D)以上都是答案:B解析:[單選題]20.可以使一個詞有多個嵌入方式的模型是哪個A)GloVeB)Word2VecC)ELMoD)Nltk答案:C解析:ELMo(EmbeddingsfromLanguageModels)詞嵌入支持同一個詞的多個嵌入,這有助于在不同的上下文中使用同一個詞,從而捕獲上下文而不僅僅是詞的意思,這與GloVe、Word2Vec不同。Nltk不是詞嵌入。[單選題]21.在NLP中面臨的解決解碼問題可以用什么算法A)前向算法B)后向算法C)Viterbi算法D)Baum-Welch算法答案:C解析:[單選題]22.激活函數(shù)的應(yīng)用面非常廣泛,以下四個選項中屬于激活函數(shù)的是A)sigmoidB)L1C)L2D)MSE答案:A解析:[單選題]23.移進歸約算法主要一共有幾種操作?A)1B)2C)3D)4答案:D解析:[單選題]24.下列算法中,屬于分類算法的是()A)DBSCANB)C4.5C)K-MeansD)EM答案:B解析:[單選題]25.自然語言處理的英文縮寫是()。A)NLPB)AIC)DFSD)TCP/IP答案:A解析:[單選題]26.()是一種基于圖的文本排序算法,它可以用于自動摘要和提取關(guān)鍵詞。A)TF-IDF算法B)TextRank算法C)LDA算法D)主題模型答案:B解析:[單選題]27.最基本的文本預(yù)處理手段是()A)提取主題B)情感分析C)分詞D)時序分析答案:C解析:[單選題]28.sigmoid求導(dǎo)之后的取值范圍是多少?A)(0,0.1]B)(0,0.2]C)(0,0.25]D)(0,0.5]答案:C解析:[單選題]29.Bagging在做分類的Voting過程中(每個基學(xué)習(xí)器進行投票)如何做的A)每個基學(xué)習(xí)器預(yù)測結(jié)果進行平均B)每個基學(xué)習(xí)器預(yù)測結(jié)果進行投票,得票數(shù)最多的類為預(yù)測類C)從眾多分類結(jié)果中,隨機出來一個結(jié)果D)不去定答案:B解析:[單選題]30.TF-DF算法的主要思想是()A)字詞的重要性隨著它在文檔中出現(xiàn)次數(shù)的增加而上升,隨著它在語料庫中出現(xiàn)頻率的升高而下降B)字詞的重要性隨著它在文檔中出現(xiàn)次數(shù)的增加而下降,隨著它在語料庫中出現(xiàn)頻率的升高而下降C)字詞的重要性隨著它在文檔中出現(xiàn)次數(shù)的增加而下降,隨著它在語料庫中出現(xiàn)頻率的升高而上升D)字詞的重要性隨著它在文檔中出現(xiàn)次數(shù)的增加而上升,隨著它在語料庫中出現(xiàn)頻率的升高而上升答案:A解析:[單選題]31.向量空間也可以稱為(),它屬于線性代數(shù)內(nèi)容和范疇A)線性空間B)內(nèi)積空間C)賦范空間D)希爾伯特空間答案:A解析:[單選題]32.什么是類別特征,如何理解類別特征A)只在有限選項內(nèi)取值的特征B)消除數(shù)據(jù)特征之間的量綱影響C)對特征進行歸一化處理D)使得不同指標(biāo)之間具有可比性答案:A解析:[單選題]33.關(guān)于信息熵說法正確的是A)信息熵是消除不確定性所需信息量的度量,也即未知事件可能含有的信息量。B)信息熵就是極大似然函數(shù)C)信息熵就是代價函數(shù)D)不確定答案:A解析:[單選題]34.以下哪個是激活函數(shù)呢?A)sigmodeB)tanhC)EELUD)PLU答案:B解析:[單選題]35.經(jīng)常會用到的馬爾科夫假設(shè),它是個幾元組模型A)1B)2C)3D)4答案:C解析:[單選題]36.在下列幾關(guān)于mini-batch的說法當(dāng)中,描述錯誤的是哪個?A)指的是批量梯度下降B)適用于樣本量小的數(shù)據(jù)集C)每一次只運算部分?jǐn)?shù)據(jù),最后將全部數(shù)據(jù)進行運算D)適用于樣本量大的數(shù)據(jù)答案:B解析:[單選題]37.RNN中常用到Tanh激活函數(shù),它在求導(dǎo)之后的取值范圍是多少A)(0,1)B)(-1,1)C)(0,0.5)D)0或1答案:A解析:[單選題]38.通常所說的字符編碼有兩種意思,一是指輸入編碼,二是指()A)輸出編碼B)機內(nèi)編碼C)程序編碼D)機械編碼答案:B解析:[單選題]39.下面哪個是SVM在實際生活中的應(yīng)用?A)文本分類B)圖片分類C)新聞聚類D)以上都對答案:D解析:[單選題]40.如果說文本中出現(xiàn)多意現(xiàn)象,需要把上下文連接起來,可以怎么做A)隨機森林分類器B)卷積神經(jīng)網(wǎng)絡(luò)C)梯度爆炸D)上述所有方法答案:B解析:CNN是文本分類問題中比較受歡迎的選擇,因為它們把上下文的文本當(dāng)作特征來考慮,這樣可以解決多義問題。[單選題]41.下面哪個與過擬合問題有關(guān)?A)DorpoutB)正則化C)批規(guī)范化D)以上技術(shù)均可以答案:D解析:[單選題]42.預(yù)處理是必不可少的階段,以下哪一項不是預(yù)處理技術(shù)?A)詞干提取和詞形還原(StemmingandLemmatization)B)轉(zhuǎn)換成小寫(ConvertingtoLowercase)C)情緒分析(SentimentAnalysis)D)刪除標(biāo)點符號(RemovePunctuation)答案:C解析:情緒分析不是一種預(yù)處理技術(shù)。它是在預(yù)處理之后完成的,是一個NLP用例。所有其他列出的都用作語句預(yù)處理的一部分。[單選題]43.1-NN,2-NN,3-NN所花費的時間之間是什么關(guān)系。A)1-NN>2-NN>3-NNB)1-NN<2-NN<3-NNC)1-NN~2-NN~3-NND)這些都不是答案:C解析:[單選題]44.TensorFlow是一個開放源碼的軟件庫,通常它有哪些版本A)CPU,GPU,TPUB)CPU,GPUC)CPUD)TPU答案:A解析:[單選題]45.下面那個是文本分類的算法A)PCAB)LDAC)K-meansIID)FastText答案:D解析:[單選題]46.CRF又叫什么A)拉索回歸B)支持向量機C)隱馬爾科夫D)條件隨機場答案:D解析:[單選題]47.什么是貝葉斯的決策,如何去理解A)就是判斷自變量和因變量之間的關(guān)系B)就是在不完全情況下,對部分未知的狀態(tài)用主觀概率估計,然后用貝葉斯公式對發(fā)生概率進行修正,最后再利用期望值和修正概率做出最有決策。C)不確定D)就是通過選擇最優(yōu)的超平面去進行最好的分類超平面答案:B解析:[單選題]48.聚類算法,是哪種學(xué)習(xí)方式A)有監(jiān)督B)無監(jiān)督C)半監(jiān)督D)強化學(xué)習(xí)答案:B解析:[單選題]49.機器翻譯是NLP中的常見任務(wù),以下模型中哪個可以做機器翻譯?A)KNNB)SVMC)Seq2seqD)SVD答案:C解析:[單選題]50.實驗測得四組(x,y)的值為(1,2),(2,3),(3,4),(4,5),則y與x之間的回歸直線方程為A)y=x+1B)y=x+2C)y=x-1D)y=2x+1答案:A解析:[單選題]51.關(guān)于對于數(shù)據(jù)切分的問題,以下說法正確的是?A)可以不設(shè)置訓(xùn)練集B)可以不設(shè)置測試集C)可以不設(shè)置驗證集D)不確定答案:C解析:[單選題]52.以下四個模型中,哪個可以做NLP中的機器翻譯任務(wù)A)LSAB)seq2seqC)TextFastD)LSTM答案:B解析:[單選題]53.BiGram中的滑動窗口多大A)2B)3C)4D)1答案:A解析:[單選題]54.()是一種基于圖的文本排序算法,它可以用于自動摘要和提取關(guān)鍵詞。A)TF-IDF算法B)TextRank算法C)LDA算法D)主題模型答案:B解析:[單選題]55.在網(wǎng)絡(luò)模型的構(gòu)建中,關(guān)于dropout運行的描述正確的是哪個?A)dropout能增加新樣本防止過擬合B)隨機取消一些節(jié)點,只是用部分節(jié)點進行擬合運算,防止過擬合C)dropout進行歸一化操作,防止過擬合D)dropout通過給損失函數(shù)增加懲罰項,防止過擬合答案:B解析:[單選題]56.下列哪項不是詞義消歧方法A)基于語法的方法B)基于詞典的方法C)基于語料庫的方法D)基于規(guī)則的方法答案:A解析:[單選題]57.下列不是自然語言處理中用到的知識的是()。A)語音學(xué)知識B)詞法學(xué)知識C)漢語學(xué)知識D)話語學(xué)知識答案:C解析:[單選題]58.決策樹有可能會造成什么缺點A)可能會對缺失值很敏感B)無法處理不相關(guān)的數(shù)據(jù)C)可能產(chǎn)生過渡匹配問題D)計算的復(fù)雜度很高答案:C解析:[單選題]59.貝葉斯判別規(guī)則是什么A)就是判斷自變量和因變量之間的關(guān)系B)把特征向量X落入某類集群wi的條件概率平P(wi/X)當(dāng)成分類判別函數(shù),把X落入某集群的條件概率最大的類為X的分類這種判別規(guī)則叫貝葉斯判別規(guī)則C)不確定D)就是通過選擇最優(yōu)的超平面去進行最好的分類超平面答案:B解析:[單選題]60.貝葉斯可以用什么圖去進行表示A)無向圖B)有無向圖C)有向圖D)不確定答案:C解析:[單選題]61.tf.reshape有什么作用A)插入維度1進入一個tensor中B)改變tensor的形狀C)改變tensor的數(shù)據(jù)類型D)轉(zhuǎn)為32位整型-int32答案:B解析:[單選題]62.詞法分析的任務(wù)就是()A)識別單詞B)分析句子的含義C)識別句子D)生成目標(biāo)代碼答案:A解析:[單選題]63.梯度下降是常使用的方法,那么梯度下降是一種怎樣的算法A)迭代優(yōu)化B)一次求解C)求解函數(shù)最大值D)迭代求代價函數(shù)最小值答案:A解析:[單選題]64.機器翻譯的應(yīng)用層面很廣泛,具體屬于下列哪個領(lǐng)域?A)自然語言系統(tǒng)B)機器學(xué)習(xí)C)專家系統(tǒng)D)人類感官模擬答案:A解析:[單選題]65.關(guān)于曼哈頓距離,以下哪項是正確的?A)可用于連續(xù)變量B)可用于分類變量C)可用于分類變量和連續(xù)變量D)無答案:A解析:[單選題]66.關(guān)鍵詞提取最簡單、最直觀的方法是()方法,用于識別定義類查詢的句字A)詞性標(biāo)注B)命名實體識別C)規(guī)則的匹配方法D)文本分類答案:C解析:[單選題]67.隱馬爾可夫模型的訓(xùn)練算法是A)前向后向算法B)Viterbi算法C)Baum-Welch算法D)DTW算法答案:C解析:[單選題]68.最大熵模型又被稱作()A)Logistic模型B)Exponential模型C)Log-linear模型D)以上都是答案:D解析:[單選題]69.可以利用狀態(tài)估計等功能,督導(dǎo)考核()維護工作。A)運行數(shù)據(jù)B)原始數(shù)據(jù)C)統(tǒng)計數(shù)據(jù)D)基礎(chǔ)數(shù)據(jù)答案:D解析:[單選題]70.以下幾個選項中,哪個描述的不是隨機梯度下降的特點?A)批量數(shù)值選取為1B)學(xué)習(xí)率逐漸減小C)可以達到最小值D)在最小值附近波動答案:C解析:[單選題]71.()是能夠獨立運行的最小語言單位A)字B)詞C)句D)段答案:B解析:[單選題]72.XGBoost中樹上葉子節(jié)點的得分w的L2模平方,是怎么做的A)對w進行L2正則化B)對w進行L1正則化C)對w進行DropoutD)不確定答案:A解析:[單選題]73.線性整流函數(shù)(RectifiedLinearUnit,ReLU),又稱修正線性單元A)Sigmoid函數(shù)B)tanh函數(shù)C)ReLUD)leakyReLU答案:C解析:[單選題]74.注意力機制最近很火,那么它具體有什么樣的作用呢?A)從大量信息中有選擇地篩選出少量重要信息并聚焦到這些重要信息上B)注意力機制在深度學(xué)習(xí)中做文本分類C)注意力機制在深度學(xué)習(xí)中沒有什么作用,可以忽略D)注意力機制最早是在視覺圖像領(lǐng)域提出來的答案:A解析:[單選題]75.直方圖算法,其算法中有一個參數(shù):K,K代表的是什么意義A)代價B)常數(shù)C)學(xué)習(xí)率D)不確定答案:B解析:[單選題]76.()根據(jù)文本的不同特征劃分為不同的類A)文本概括B)文本分類C)文本聚類D)都可以答案:C解析:[單選題]77.下列四個算法中哪個屬于無監(jiān)督學(xué)習(xí)的算法A)SVMB)邏輯回歸C)線性回歸D)聚類答案:D解析:[單選題]78.感知器的學(xué)習(xí)規(guī)則屬于()A)梯度下降法B)飛度法C)ADB算法D)梯度上升法答案:A解析:[單選題]79.以下關(guān)于梯度下降優(yōu)化算法的描述,錯誤的是?A)靠近極值點收斂速度慢B)直線搜索時可能會產(chǎn)生問題C)可能會?之字形?地下降。D)越靠近極值點收斂速度快答案:D解析:[單選題]80.以下哪個激活函數(shù)用來處理二分類任務(wù)A)tanhB)LeakyReluC)sigmoidD)relu答案:C解析:[單選題]81.有向圖模型和無向圖模型的相同同之處A)都是轉(zhuǎn)換成了概率相加的形式B)將復(fù)雜的聯(lián)合分布分解為多個因子相加C)將復(fù)雜的聯(lián)合分布分解為多個因子的乘積D)以上所有答案:C解析:[單選題]82.()函數(shù)用于搜索搭配詞語。A)concordanceB)common_contextsC)collocationsD)Sorted答案:C解析:[單選題]83.Tanh的導(dǎo)數(shù)范圍是多少?A)(0,1]B)(0,0.1]C)(0,-1]D)(0,10]答案:A解析:[單選題]84.深度學(xué)習(xí)常用框架TensorFlow,在該框架下如何正確調(diào)用dropout函數(shù)A)tf.nn.dropoutB)tf.train.dropoutC)tf.dropoutD)tf.dropOut答案:A解析:[單選題]85.下面哪個不是作為bert的輸入A)segmentembeddingB)TokenembeddingC)PositionembeddingD)one-hot答案:D解析:[單選題]86.馬爾可夫模型分析的數(shù)據(jù)來源有A)RCT數(shù)據(jù)B)RWE數(shù)據(jù)C)文獻數(shù)據(jù)D)其余選項皆對答案:D解析:[單選題]87.以下四個算法中,哪個體現(xiàn)了XGBoost的本質(zhì)A)隨機森林B)GBDTC)線性回歸D)邏輯回歸答案:B解析:[單選題]88.主成分分析法PCA有什么優(yōu)缺點,描述正確的是?A)僅僅需要以方差衡量信息量,不受數(shù)據(jù)集以外的因素影響B(tài))各主成分之間非正交C)主要運算是奇異值分解D)生成的數(shù)據(jù)解釋性更強答案:A解析:[單選題]89.tf.tanh的作用是什么A)計算元素的sigmoid值.B)計算元素的softmax值.C)計算元素的雙曲正切值.D)計算元素的relu值答案:C解析:[單選題]90.以下哪種情況下樹會容易發(fā)生了過擬合的現(xiàn)象A)加入L2正則B)加入L1正則C)設(shè)置樹的最大深度D)沒有設(shè)置樹的最大深度答案:D解析:[單選題]91.下列說法不正確的是()A)最大匹配法的優(yōu)點是程序簡單易行,開發(fā)周期短B)最少分詞法只需要很少的語言資源,不需要任何詞法,句法,語意資源C)最大概率發(fā)可以發(fā)現(xiàn)所有的切分歧義,很大程度上取決于統(tǒng)計語言模型的精度和決策算法,不需要標(biāo)注語料D)最大概率法和詞性標(biāo)注相結(jié)合的分詞方法需要同時利用詞典和語料庫答案:C解析:[單選題]92.什么是集成學(xué)習(xí),如何去理解集成學(xué)習(xí)A)通過變量和因變量之間的一次函數(shù)關(guān)系構(gòu)建的B)通過找到一個最優(yōu)的超平面去完美的分類C)就是將多個機器學(xué)習(xí)模型組合起來,共同工作以達到優(yōu)化算法的目的D)以上都正確答案:C解析:[單選題]93.一個漢字不管用什么樣的()碼輸入,到機器里都是一樣的()碼。A)源外B)源內(nèi)C)外內(nèi)D)內(nèi)外答案:C解析:[單選題]94.HMM(隱馬爾可夫模型)是一個什么模型A)是生成式模型B)是判別式模型C)即是生成式模型又是判別式D)不確定答案:A解析:[單選題]95.上升速度最快的是哪個函數(shù)A)線性函數(shù)B)指數(shù)函數(shù)C)對數(shù)函數(shù)D)冪函數(shù)答案:C解析:[單選題]96.線性判別分析LDA的思想是什么A)投影后類內(nèi)方差最大B)類間方差最小C)投影后類內(nèi)方差最小D)不確定答案:C解析:[單選題]97.自動駕駛是如何起源的A)BP算法B)神經(jīng)網(wǎng)絡(luò)C)前向算法D)NFC答案:A解析:[單選題]98.特征進行歸一化可以做到什么效果A)消除數(shù)據(jù)特征之間的量綱影響B(tài))可以為數(shù)據(jù)增加適量的沉余C)可以為代價函數(shù)加入正則項D)不確定答案:A解析:[單選題]99.以下四個模型當(dāng)中,哪個使用的是單向Transformer的預(yù)訓(xùn)練模型A)GPT模型B)Word2Vec模型C)BERT模型D)ELMO模型答案:A解析:[單選題]100.當(dāng)不知道數(shù)據(jù)所帶標(biāo)簽時可以使用哪種技術(shù)促使帶同類變遷的數(shù)據(jù)與帶其他標(biāo)簽的數(shù)據(jù)分離A)分類B)聚類C)關(guān)聯(lián)分析D)隱馬爾可夫鏈答案:B解析:[單選題]101.如何理解想?回歸?A)通過數(shù)據(jù)使預(yù)測回歸到真實值上B)通過數(shù)據(jù)做分類C)通過數(shù)據(jù)做縮小維度D)通過數(shù)據(jù)使相似的數(shù)據(jù)聚到一塊答案:A解析:[單選題]102.下面哪個不屬于超參數(shù)?A)學(xué)習(xí)率αB)動量梯度下降的參數(shù)βC)mini-Batch的大小D)輸入圖片大小答案:D解析:[單選題]103.SVD可以做什么A)降維B)聚類C)分類D)回歸答案:A解析:[單選題]104.以下選項中關(guān)于交叉熵使用的激活函數(shù)描述正確的是?A)sigmoidB)reluC)tanhD)cosh答案:A解析:[單選題]105.什么是Boosting思想,如何理解Boosting思想A)將基分類器層層疊加,每一層在訓(xùn)練的時候,對前一層基分類器分錯的樣本,給予更高的權(quán)重B)從總體樣本當(dāng)中隨機取一部分樣本進行訓(xùn)練,通過多次這樣的結(jié)果,進行投票獲取平均值作為結(jié)果輸出C)不確定D)以上都正確答案:A解析:[單選題]106.在以下四個選項中,可以將高級語言程序設(shè)計語言源程序翻譯成計算機可執(zhí)行代碼的軟件是?A)匯編程序B)編譯程序C)管理程序D)服務(wù)程序答案:B解析:[單選題]107.C4.5相比較于ID3算法,在哪個地方得進行了改變A)將信息增益比作為了選擇特征的標(biāo)準(zhǔn)B)將信息增益作為了選擇特征的標(biāo)準(zhǔn)C)將基尼系數(shù)作為了選擇特征的標(biāo)準(zhǔn)D)將信息熵作為了選擇特征的標(biāo)準(zhǔn)答案:A解析:[單選題]108.Word2Vec的()可以用來計算兩個詞之間的相似度。A)tfidf函數(shù)B)similarity函數(shù)C)Sum函數(shù)D)Max函數(shù)答案:B解析:[單選題]109.SVM算法的最小時間復(fù)雜度是O(n2),基于此,以下哪種規(guī)格的數(shù)據(jù)集并不適該算法?A)大數(shù)據(jù)集B)小數(shù)據(jù)集C)中等數(shù)據(jù)集D)不受數(shù)據(jù)集大小影響答案:A解析:[單選題]110.下列不是自然語言處理的應(yīng)用領(lǐng)域的是()。A)文化教育B)健康生活C)公共設(shè)施D)移動計算答案:B解析:[單選題]111.XGBoost中的節(jié)點的分裂方式A)枚舉出了不同樹結(jié)構(gòu)的貪心法B)通過基尼系數(shù)C)通過信息增益D)通過信息增益比答案:A解析:[單選題]112.下列模型中,doc2vec的常用模型包括DM模型和()A)Skip-Gram模型B)分類器模型C)LDA模型D)DBOW答案:D解析:[單選題]113.SVD在自然語言(NLP)中經(jīng)常解決的問題A)對新詞很輕松的分配詞向量B)計算量隨著預(yù)料和詞典增長維度膨脹快C)與其他深度學(xué)習(xí)模型框架差異小D)同時也可以解決聚類的問題答案:B解析:[單選題]114.下列哪項是無監(jiān)督學(xué)習(xí)的方法?()A)標(biāo)簽法B)分類C)聚類D)判別答案:C解析:[單選題]115.一個字符的Unicode編碼是()。A)不確定的B)確定的C)可替換的D)不可替換的答案:B解析:[單選題]116.下面關(guān)于數(shù)據(jù)粒度的描述不正確的是:A)粒度是指數(shù)據(jù)倉庫小數(shù)據(jù)單元的詳細(xì)程度和級別;B)數(shù)據(jù)越詳細(xì),粒度就越小,級別也就越高;C)數(shù)據(jù)綜合度越高,粒度也就越大,級別也就越高;D)粒度的具體劃分將直接影響數(shù)據(jù)倉庫中的數(shù)據(jù)量以及查詢質(zhì)量.答案:C解析:第2部分:多項選擇題,共57題,每題至少兩個正確答案,多選或少選均不得分。[多選題]117.以下技術(shù)中哪個技術(shù)可以作為正則項A)L1B)L2C)DropoutD)以上都正確答案:ABCD解析:[多選題]118.EM算法有哪些優(yōu)點A)簡單性和普適性B)可看作是一種非梯度優(yōu)化方法C)解決梯度下降等優(yōu)化方法的缺陷D)以上都正確答案:ABCD解析:[多選題]119.自動校對系統(tǒng)可應(yīng)用于以下哪些行業(yè)?()A)報刊B)出版社C)打字業(yè)D)電商行業(yè)答案:ABC解析:四、填空題(17題)[多選題]120.LDA中包含一個理念和一個概念A(yù))共軛先驗B)貝葉斯框架C)二項分布D)gamma函數(shù)答案:AB解析:[多選題]121.TensorFlow中一般包括哪些數(shù)據(jù)類型A)int32B)int64C)float32D)float64答案:ABCD解析:[多選題]122.詞性標(biāo)注后會降低()處理的復(fù)雜度。A)詞義標(biāo)注B)信息檢索C)字音轉(zhuǎn)換D)簡繁轉(zhuǎn)換答案:ABCD解析:[多選題]123.以下四個選項當(dāng)中哪些屬于語言模型A)統(tǒng)計語言模型B)神經(jīng)網(wǎng)絡(luò)語言模型C)預(yù)訓(xùn)練語言模型D)編解碼模型答案:AB解析:[多選題]124.LightGBM為了更好的實現(xiàn)落地GBDT算法,在以下哪些方向上做了優(yōu)化?A)帶深度限制的Leaf-wise的葉子生長策略B)直方圖做差加速直接C)支持類別特征(CategoricalFeature)D)以上不都是答案:ABC解析:[多選題]125.下列模型中,哪些是doc2vec的常用模型?()A)DM模型B)分類器模型C)LDA模型D)DBOW模型答案:AD解析:[多選題]126.可以使用正則的算法有:A)A:lasso回歸B)B:Ridge回歸C)C:邏輯回歸D)D:K-means答案:ABCD解析:[多選題]127.K-NN和K-Means很相像,他們有什么具體的區(qū)別A)K-Means是聚類算法,KNN是分類算法。B)KNN需要標(biāo)記點,因此是有監(jiān)督的學(xué)習(xí),而k-means不是,因此是無監(jiān)督學(xué)習(xí)。C)K均值聚類僅需要一組未標(biāo)記的點和閾值D)以上都正確答案:ABCD解析:[多選題]128.LightGBM出來后,分別對哪些方面進行了很大的提升A)速度快B)支持分布式C)占用內(nèi)存小D)代碼清晰易懂答案:ABCD解析:[多選題]129.給出了以下2條語句,發(fā)現(xiàn)在k-NN情況下哪個選項是正確的?A)如果k的值非常大,我們可以將其他類別的點包括到鄰域中。B)不能判斷C)如果k的值太小,該算法會對噪聲非常敏感D)以上都正確答案:AC解析:[多選題]130.下面哪些選項解釋了AI中的連接主義?A)基礎(chǔ)理論是神經(jīng)網(wǎng)絡(luò)B)深度學(xué)習(xí)屬于連接主義C)又稱仿生學(xué)派D)產(chǎn)生在20世紀(jì)50年代產(chǎn)生答案:ABCD解析:[多選題]131.Transformer相比較RNN/LSTM/CNN,說法正確的是A)RNN系列模型,并行計算能力很差B)特征提取能力要比RNN更強C)RNN在T時刻的輸出依賴T-1時刻,會形成序列依賴問題D)Transformer的適用多頭機制更好的提取特征答案:ABCD解析:[多選題]132.LightGBM分別在哪些方面做了提升A)速度快B)支持分布式C)占用內(nèi)存小D)代碼清晰易懂答案:ABCD解析:[多選題]133.采用決策樹作為弱分類器使得GBDT模型具有哪些特性A)較好的解釋性和魯棒性;B)能夠自動發(fā)現(xiàn)特征間的高階關(guān)系;C)不需要對數(shù)據(jù)進行特殊的預(yù)處理,如歸一化等。D)以上都正確答案:ABCD解析:[多選題]134.CART相比較ID3和C4.5有什么獨特之處A)CART生成的樹必須是二叉樹B)CART既可以做分了也可以做回歸C)CART內(nèi)部節(jié)點只能根據(jù)屬性值進行二分D)以上都正確答案:ABCD解析:[多選題]135.LightGBM在哪些地方進行了優(yōu)化(區(qū)別XGBoost)?A)基于Histogram的決策樹算法B)帶深度限制的Leaf-wise的葉子生長策略C)直方圖做差加速直接D)支持類別特征(CategoricalFeature)答案:ABCD解析:[多選題]136.自然語言處理中四個最基本的任務(wù)()。A)分詞B)詞性標(biāo)注C)依存句法分析D)命名實體識別答案:ABCD解析:[多選題]137.人工智能關(guān)于詞袋子模型,其優(yōu)點有哪些?A)簡單方便快速B)在語料充足的前提下,對于簡單自然語言處理任務(wù)效果不錯C)準(zhǔn)確率較低D)無法關(guān)注詞語間的順序答案:AB解析:[多選題]138.bert作為很火的預(yù)訓(xùn)練模型,下列說法正確的是?A)bertbase模型的參數(shù)量大概是一億左右B)bert的輸入層是三個向量的疊加C)使用雙向的TransformerD)遮蔽掉了15%的詞答案:ABCD解析:[多選題]139.關(guān)于AI人工智能的特征工程,以下哪些是對的??A)文本預(yù)處理B)特征提取C)文本表示提升算法的效果D)分類器答案:ABC解析:[多選題]140.下列說法中,關(guān)于梯度消失的描述正確的選項都有哪些?A)可以通過激活函數(shù)防止梯度消失B)梯度消失對神經(jīng)網(wǎng)絡(luò)無影響C)盡量避免梯度消失D)梯度消失反向傳播時,由于梯度值過小或消失的現(xiàn)象答案:ACD解析:[多選題]141.問答系統(tǒng)流程由下列哪三個部分組成?()A)問題理解B)知識檢索C)答案生成D)信息檢索答案:ABC解析:三、填空題(4題)[多選題]142.在情感分析領(lǐng)域目前主要的分析方法有()A)語法分析B)詞法分析C)機器學(xué)習(xí)分析D)混合分析答案:BCD解析:[多選題]143.降維的目的是為了什么,達到什么效果A)減少預(yù)測變量的個數(shù)。B)確保這些變量是相互獨立的。C)數(shù)據(jù)在低維下更容易處理、更容易使用。D)去除數(shù)據(jù)噪聲。答案:ABCD解析:[多選題]144.詞袋子模型的優(yōu)點A)簡單方便快速B)在語料充足的前提下,對于簡單自然語言處理任務(wù)效果不錯C)準(zhǔn)確率較低D)無法關(guān)注詞語間的順序答案:AB解析:[多選題]145.GPT是NLP中常用的預(yù)訓(xùn)練模型,下邊關(guān)于GPT模型說法正確的有哪些A)使用了雙向的TransformerB)使用了單向的TransformerC)使用了雙向LSTMD)解決了一詞多義的問題答案:BD解析:[多選題]146.機器學(xué)習(xí)雖然是人工智能的實現(xiàn)方法,但是它里邊會有什么樣的缺點A)機器學(xué)習(xí)準(zhǔn)確度不好B)手工特征耗時耗力,還不易拓展C)自動特征學(xué)習(xí)快,方便拓展D)機器學(xué)習(xí)無缺點答案:BC解析:[多選題]147.NLP的技術(shù)發(fā)展A)以語言學(xué)為主要基礎(chǔ)的時代(過去)B)以統(tǒng)計方法為主流的時代(現(xiàn)在)C)深度學(xué)習(xí)等人工智能最新技術(shù)在NLP領(lǐng)域中的應(yīng)用(現(xiàn)在)D)深度學(xué)習(xí)等人工智能最新技術(shù)在NLP領(lǐng)域中的應(yīng)用(將來)答案:ABD解析:[多選題]148.人工智能中梯度優(yōu)化有哪些呢?A)dropoutB)動量梯度下降法C)RMSpropD)Adam答案:BCD解析:[多選題]149.以下四個選項中關(guān)于beamSearch說法正確的是A)是一種啟發(fā)式圖搜索算法B)為了減少搜索的時間和空間C)保留質(zhì)量較高的節(jié)點,減掉質(zhì)量較差的節(jié)點D)常用在機器翻譯和語音識別等NLP任務(wù)當(dāng)中答案:ABCD解析:[多選題]150.seq2seq的編碼階段可以是用什么做特征提取A)CNNB)RNNC)LSTMD)SVM答案:ABC解析:[多選題]151.邏輯回歸在工業(yè)中可以有哪些應(yīng)用A)各種分類場景B)某搜索引擎廠的廣告CTR預(yù)估基線版是LR。C)某電商搜索排序/廣告CTR預(yù)估基線版是LR。D)某電商的購物搭配推薦用了大量LR。答案:ABCD解析:[多選題]152.在TensorFlow中使用tf定義變量:a=tf.Variable([1,2,3])和b=tf.Variable(a),以下描述正確的是A)合法B)非法C)合法但a需要提前初始化D)合法但不夠安全答案:ACD解析:[多選題]153.以下()是NLP的應(yīng)用場景。A)百度翻譯B)圖靈機器人C)微信語音轉(zhuǎn)文字D)新聞分類答案:ABCD解析:[多選題]154.如果在XGBoost中加入了正則化項,可以達到哪些效果A)減少模型復(fù)雜度B)防止了過擬合C)增加模型復(fù)雜度D)防止了欠擬合答案:AB解析:[多選題]155.句法分析的主要難點有()A)分詞B)歧義C)詞性標(biāo)注D)搜索空間答案:BD解析:[多選題]156.在深度學(xué)習(xí)中,進行前向算法需要有()和()才能由前往后正常計算A)聯(lián)合權(quán)重wB)正弦函數(shù)C)激活函數(shù)D)余弦函數(shù)答案:AC解析:[多選題]157.下列屬于樸素貝葉斯缺點的是()。A)對缺失數(shù)據(jù)不太敏感B)分類效果不穩(wěn)定C)先驗?zāi)P涂赡軐?dǎo)致結(jié)果不佳D)不適合增量式訓(xùn)練答案:AC解析:[多選題]158.詞袋的子模型特點是:A)簡單方便快速B)在語料充足的前提下,對于簡單自然語言處理任務(wù)效果不錯C)準(zhǔn)確率較低D)無法關(guān)注詞語間的順序答案:AB解析:[多選題]159.LightGBM有什么優(yōu)點A)速度快B)支持分布式C)占用內(nèi)存小D)代碼清晰易懂答案:ABCD解析:[多選題]160.KNN和K-Means的區(qū)別有哪些A)KNN是聚類算法B)K-Means是分類算法C)KNN是分類算法D)K-Means是聚類算法答案:CD解析:[多選題]161.NLP中的預(yù)訓(xùn)練模型ELMO中,有什么樣的優(yōu)缺點A)解決了多義詞問題B)適用范圍廣,普適性強C)LSTM抽取特征能力弱D)拼接方式雙向融合特征能力偏弱答案:ABCD解析:[多選題]162.超參數(shù)應(yīng)該可以如何調(diào)優(yōu)A)網(wǎng)格搜索B)不確定C)隨機搜索D)貝葉斯優(yōu)化算法答案:ACD解析:[多選題]163.語料庫的規(guī)范化是指()A)文本描述語言規(guī)范B)標(biāo)注語言規(guī)范C)文本格式規(guī)范D)便于實現(xiàn)不同語料庫的集成答案:ABCD解析:[多選題]164.以下四個關(guān)于EM算法的描述,正確的是A)對初始值敏感B)對初始值敏感C)不同的初值可能得到不同的參數(shù)估計值D)不能保證找到全局最優(yōu)值。答案:ABCD解析:[多選題]165.為什么要將求解SVM的原始問題轉(zhuǎn)換為其對偶問題?A)是對偶問題往往更易求解B)是對偶問題往往不易求解C)自然引入核函數(shù),進而推廣到非線性分類問題。D)以上都正確答案:AC解析:[多選題]166.ELMO中的雙向的LSTM和詞嵌入分別學(xué)到了句子的什么信息A)句子的句法特征B)更好的單詞的特征C)句子的語義特征D)以上都正確答案:ABCD解析:[多選題]167.bert模型中的輸入是什么A)wordembeddingB)posembeddingC)segembeddingD)不確定答案:ABC解析:[多選題]168.人工智能關(guān)于傳統(tǒng)文本相似度計算的算法有哪些A)歐幾里得距離B)曼哈頓距離C)SimHashD)余弦相似性答案:ABCD解析:[多選題]169.在關(guān)于tf.reshape(tensor,shape,name)函數(shù)的參數(shù),以下選項中描述正確的是A)name可省略B)1所代表的含義是我們不用親自去指定這一維的大小,函數(shù)會自動進行計算C)函數(shù)的作用是將tensor變換為參數(shù)shape形式D)其中的shape為一個列表形式答案:ABCD解析:[多選題]170.LDA和PCA有很多的異同點,對于不同點描述正確的是?A)LDA有監(jiān)督的降維方法;B)PCA無監(jiān)督的降維方法;C)LDA可以用于降維,還可以用于分類;D)PCA只用于降維;答案:ABCD解析:[多選題]171.以下選項中哪些包含了深度學(xué)習(xí)的應(yīng)用A)圖像識別B)機器創(chuàng)作C)個性化推薦D)文本分類答案:ABCD解析:[多選題]172.在以下四個選項的描述中,哪些選項屬于激活函數(shù)A)L1B)L2C)ReluD)Sigmoid答案:CD解析:[多選題]173.我們?nèi)粘3S玫暮瘮?shù),其實可以表達描述成??A)一個集合B)一個映射C)一個概率空間D)一個線性空間答案:AB解析:第3部分:判斷題,共66題,請判斷題目是否正確。[判斷題]174.用余弦相似度表示的詞之間的差異將顯著低于0.5A)正確B)錯誤答案:錯解析:[判斷題]175.自頂向下的分析,優(yōu)點是節(jié)約空間,它自始至終只需存儲一棵樹的結(jié)構(gòu)A)正確B)錯誤答案:對解析:[判斷題]176.決策樹代表樣本特征約束的合取的析取式()A)正確B)錯誤答案:對解析:[判斷題]177.XGBoost是陳天奇等人開發(fā)出來的機器學(xué)習(xí)項目A)正確B)錯誤答案:對解析:[判斷題]178.在SVM訓(xùn)練好后,我們可以拋棄非支持向量的樣本點,仍然可以對新樣本進行預(yù)測A)正確B)錯誤答案:對解析:[判斷題]179.實現(xiàn)人工智能的手段是機器學(xué)習(xí)和深度學(xué)習(xí)A)正確B)錯誤答案:對解析:[判斷題]180.DBOW模型對應(yīng)Word2Vec模型中的Skip-gram模型。對A)正確B)錯誤答案:對解析:[判斷題]181.基于密度聚類的特點是計算量大。很適合發(fā)現(xiàn)中小規(guī)模的數(shù)據(jù)庫中小規(guī)模的數(shù)據(jù)庫中的球狀簇。A)正確B)錯誤答案:錯解析:[判斷題]182.感知機和神經(jīng)網(wǎng)絡(luò)是相同的A)正確B)錯誤答案:錯解析:[判斷題]183.當(dāng)數(shù)據(jù)的先驗分布假定為正態(tài)分布時,貝葉斯判別與正態(tài)分布等價A)正確B)錯誤答案:對解析:[判斷題]184.注意力機制的應(yīng)用,并無實際意義A)正確B)錯誤答案:錯解析:[判斷題]185.常用的減緩過擬合方法包括,用正則化或者dropout。A)正確B)錯誤答案:對解析:[判斷題]186.給定似然函數(shù),如果后驗分布和先驗分布屬于同一分布族,則將此先驗分布稱為此似然函數(shù)的共軛先驗分布.A)正確B)錯誤答案:對解析:[判斷題]187.馬爾科夫模型描述了一類重要的定向過程。A)正確B)錯誤答案:錯解析:[判斷題]188.計算相似度的技術(shù)有很多種,例如:杰卡德相似度A)正確B)錯誤答案:對解析:[判斷題]189.感知器的基本組成單位是神經(jīng)元,每一個神經(jīng)元是一個二元線性分類器,對應(yīng)的線性函數(shù)為g(x)=(w·x)+b。()A)正確B)錯誤答案:對解析:[判斷題]190.TF算法是一個統(tǒng)計詞在文檔集中的多少個文檔中出現(xiàn).其基本思想是,如果一個詞在越少的文檔是出現(xiàn),其對文檔的區(qū)分能力就越強.A)正確B)錯誤答案:錯解析:[判斷題]191.逆文檔頻率是統(tǒng)計一個詞出現(xiàn)在文檔集中文檔頻次的統(tǒng)計量。對A)正確B)錯誤答案:對解析:[判斷題]192.分類特征的選擇決定了算法的效率與所生成的決策樹的繁簡程度()A)正確B)錯誤答案:對解析:[判斷題]193.線性回歸算法只能做回歸,不能做分類A)正確B)錯誤答案:對解析:[判斷題]194.線性回歸的一般表達式為:Y=W*X+bA)正確B)錯誤答案:對解析:[判斷題]195.線性回歸,邏輯回歸,SVM輸入前都需要做特征歸一化A)正確B)錯誤答案:對解析:[判斷題]196.EM算法就是對于一個含有隱變量的概率模型,目標(biāo)是極大化觀測數(shù)據(jù)Y關(guān)于參數(shù)theta的對數(shù)似然函數(shù)A)正確B)錯誤答案:對解析:[判斷題]197.基于機器學(xué)習(xí)的分類方法,指通過專家經(jīng)驗,依靠人工提取規(guī)則進行的分類。錯A)正確B)錯誤答案:錯解析:[判斷題]198.BERT可以處理的最長序列是768A)正確B)錯誤答案:錯解析:[判斷題]199.LightGBM是為了GBDT的工程化改進A)正確B)錯誤答案:對解析:[判斷題]200.SVM和決策樹都可以做分類回歸,因此,沒有明顯的區(qū)別A)正確B)錯誤答案:錯解析:[判斷題]201.分布式表示的優(yōu)點是考慮到了詞之間存在的相似關(guān)系,增加了詞向量的維度。錯A)正確B)錯誤答案:錯解析:[判斷題]202.最大匹配法主要分為三種:正向最大匹配法,逆向最大匹配法,雙向匹配分詞A)正確B)錯誤答案:對解析:[判斷題]203.詞性標(biāo)注的主要任務(wù)是消除詞性的兼類歧義A)正確B)錯誤答案:對解析:[判斷題]204.KNN算法是K鄰近算法A)正確B)錯誤答案:對解析:[判斷題]205.情感詞包含極性和強度兩個屬性。對A)正確B)錯誤答案:對解析:[判斷題]206.加入這個正則化項好處:控制參數(shù)幅度,限制參數(shù)搜索空間A)正確B)錯誤答案:對解析:[判斷題]207.sigmoid相比較于relu激活函數(shù),速度要快,效果要好A)正確B)錯誤答案:錯解析:[判斷題]208.中括號?[]?表示可以匹配多個字符,表示包含在中括號內(nèi)部的字符都會被匹配。對A)正確B)錯誤答案:對解析:[判斷題]209.關(guān)于LDA有兩種含義,一種是線性判別分析(LinearDiscriminantAnalysis),一種是概率主題模型:隱含狄利克雷分布(LatentDirichletAllocation,簡稱LDA)A)正確B)錯誤答案:對解析:[判斷題]210.自然語言處理是一門融語言學(xué)、計算機科學(xué)、數(shù)學(xué)、心理學(xué)、邏輯學(xué)、聲學(xué)于一體的科學(xué),而以聲學(xué)為基礎(chǔ)。()A)正確B)錯誤答案:錯解析:[判斷題]211.基于情感詞典的情感分析是最復(fù)雜的一種情感分析方法。錯A)正確B)錯誤答案:錯解析:[判斷題]212.正則表達式的?[0-9a-zA-Z_]+?只用于匹配一個字母或者數(shù)字A)正確B)錯誤答案:錯解析:[判斷題]213.召回率真正正確的占所有實際為正的比例。A)正確B)錯誤答案:對解析:[判斷題]214.文本分析是文本挖掘、信息檢索的一個基本問題。對A)正確B)錯誤答案:對解析:[判斷題]215.Keras具有簡易和快速的原型設(shè)計,支持CNN與RNN,能夠無縫在CPU與GPU間切換的優(yōu)點。對A)正確B)錯誤答案:對解析:[判斷題]216.Dropout可以失活一些單元,從而防止過擬合A)正確B)錯誤答案:錯解析:[判斷題]217.模型太過于復(fù)雜的話,會造成欠擬合A)正確B)錯誤答案:錯解析:[判斷題]218.Tri-Gram中沒有涉及到窗口的概念A(yù))正確B)錯誤答案:錯解析:[判斷題]219.隱藏層只能是多層疊加,層與層之間是相互連接的A)正確B)錯誤答案:錯解析:[判斷題]220.主題模型認(rèn)為文檔是由主題組成的,而主題是詞的一個概率分布。對A)正確B)錯誤答案:對解析:[判斷題]221.命題是指具有真假意義的陳述句A)正確B)錯誤答案:對解析:[判斷題]222.文本的分布式表示是一種固定長度的稠密詞向量。對A)正確B)錯誤答案:對解析:[判斷題]223.條件概率(又稱后驗概率)就是事件A在另外一個事件B已經(jīng)發(fā)生條件下的發(fā)生概率A)正確B)錯誤答案:對解析:[判斷題]224.在做NLP任務(wù)的一系列任務(wù)時,通常要做去停用詞的處理,否者效果可能就不會很好A)正確B)錯誤答案:對解析:[判斷題]225.對弱分類器的要求一般是足夠簡單,并且是低方差和高偏差的。A)正確B)錯誤答案:對解析:[判斷題]226.刪除插值和katz回退都使用低階分布的信息來確定計數(shù)為0的n元語法的概率A)正確B)錯誤答案:對解析:[判斷題]227.ELMO相比較word2vec來說解決了一詞多義問題A)正確B)錯誤答案:對解析:[判斷題]228.詞義消岐方法利用了雙語詞典的幫助A)正確B)錯誤答案:錯解析:[判斷題]229.自然語言理解主要包括兩個方面:語言信息的錄入,文本理解。()A)正確B)錯誤答案:對解析:[判斷題]230.決
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 供貨茶葉合同范本
- 包裝食品配送合同范例
- 合作擔(dān)保合同范例
- 合租合同范本
- 化肥合作協(xié)議合同范本
- 廠房使用合同范例
- 人工勞務(wù)合同范本封皮
- 個人汽車采購合同范本
- 企業(yè)業(yè)務(wù)合同范本
- 合同范本征求意見
- 診所校驗現(xiàn)場審核表
- 2024屆安徽省安慶市高三下學(xué)期二?;瘜W(xué)試題及答案
- 電影活著展示課件
- 改變學(xué)習(xí)方式促進學(xué)生發(fā)展結(jié)題報告
- 中國常見食物營養(yǎng)成分表
- 09J202-1 坡屋面建筑構(gòu)造(一)-2
- 金嗓子喉片行業(yè)分析
- 電導(dǎo)率對應(yīng)鹽水濃度表
- OCT基礎(chǔ)知識課件
- 起重機械培訓(xùn)
- 大模型在教育科技中的應(yīng)用
評論
0/150
提交評論