人工智能基礎(chǔ)測試題及答案_第1頁
人工智能基礎(chǔ)測試題及答案_第2頁
人工智能基礎(chǔ)測試題及答案_第3頁
人工智能基礎(chǔ)測試題及答案_第4頁
人工智能基礎(chǔ)測試題及答案_第5頁
已閱讀5頁,還剩7頁未讀 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

人工智能基礎(chǔ)測試題及答案1、出現(xiàn)過擬合時,模型對已知數(shù)據(jù)預(yù)測得很好,但對未知數(shù)據(jù)預(yù)測得很差。而應(yīng)對過擬合的最優(yōu)方案就是()。A、獲取更多的訓練數(shù)據(jù)B、調(diào)節(jié)模型允許存儲的信息量C、對模型允許存儲的信息加以約束D、L2正則化答案:A2、基于詞典的中文分詞方法中,針對同一個輸入句子,通常以下哪種切分方法輸出的詞最多A、完全切分B、正向最長匹配C、逆向最長匹配D、雙向最長匹配答案:A3、用于產(chǎn)生詞嵌入的單向語言模型是哪個A、bertB、elmoC、gptD、bilstm答案:C4、以下哪個選項符合自然語言特點A、容錯性低B、非結(jié)構(gòu)化C、歧義性低D、詞匯量小答案:B5、句法分析的目標是:A、將實體詞對應(yīng)到實例B、識別句子中潛在的實體詞C、識別句子的句法結(jié)構(gòu)D、識別句子中的主題詞答案:C6、BERT在實現(xiàn)一次常規(guī)的文本蘊含任務(wù)時,需要輸入幾條文本A、1B、2C、3D、4答案:B7、以下關(guān)于自然語言生成任務(wù)的說法錯誤的是:A、自然語言生成任務(wù)能夠增加對話的趣味性。B、自然語言生成任務(wù)不能通過截取問題的部分與答案進行組裝的方法來實現(xiàn)。C、自然語言生成任務(wù)能夠提升交互的友好性和自然度。D、可以通過設(shè)計回復(fù)模板填槽來實現(xiàn)自然語言的回復(fù)。答案:B8、對于一個已有數(shù)據(jù)集,增加其數(shù)據(jù)的個數(shù),使其有更多的多樣性的操作是()。A、批量化B、隨機抽取C、數(shù)據(jù)增強D、復(fù)制答案:C9、下列基于回歸的文本檢測方法為?A、Textbox算法B、PixelLink算法C、MSR算法D、PSENet算法答案:A10、KBQA面臨的挑戰(zhàn)不包括:A、缺乏大規(guī)模高質(zhì)量的知識數(shù)據(jù)源。B、領(lǐng)域方面的知識庫缺乏。C、自然語言處理技術(shù)發(fā)展不夠成熟。D、以上都是答案:D11、正確的問答系統(tǒng)流程是:A、問句分析,消歧,短語映射,查詢構(gòu)建B、問句分析,短語映射,消歧,查詢構(gòu)建C、短語映射,消歧,問句分析,查詢構(gòu)建D、問句分析,查詢構(gòu)建,短語映射,消歧答案:B12、經(jīng)典卷積神經(jīng)網(wǎng)絡(luò)的基本組成部分的序列通常是:A、卷積層-激活函數(shù)-池化層B、卷積層-池化層-激活函數(shù)C、池化層-激活函數(shù)-卷積層D、依情況而定答案:A13、關(guān)于中文分詞切分算法,以下哪個說法是正確的A、完全切分是標準意義上的分詞B、python分詞運行速度比java快C、正向匹配和逆向匹配速度差不多D、雙向匹配速度比正向匹配速度快答案:C14、在卷積神經(jīng)網(wǎng)絡(luò)中,能讓隱層的神經(jīng)元以一定的概率不被激活的方法是()。A、connectingB、convolutionC、maxpoolingD、dropout答案:D15、在“小米的創(chuàng)始?是誰”這個問題中,實體詞是:A、誰B、小米C、創(chuàng)始人答案:B16、一個窗口大小設(shè)為2的CBOW模型,輸入層有多少個單詞構(gòu)成A、2B、4C、6D、8答案:B17、以How開頭的問句通常屬于哪種問題類型:A、事實類B、定義類C、解決方案類D、原因類答案:C18、tanh激活函數(shù)的值域A、0,1B、-∞,+∞C、-1,1]D、0,1]答案:C19、在多聚焦圖像融合任務(wù)中,梯度信息被用于提取__信息:A、邊緣紋理B、語義C、決策圖D、聚焦點答案:A20、下列哪種嵌入方式支持雙向上下文A、word2vecB、gloveC、bertD、以上所有答案:C21、圖像風格轉(zhuǎn)換的研究目標是什么?A、將藝術(shù)圖像的風格融合到自然圖像上B、實現(xiàn)對目標的檢測識別C、自動生成以假亂真的圖片D、以上都不對答案:A22、以下關(guān)于BERT模型的描述,哪個是正確的A、是一種雙向預(yù)訓練語言模型B、利用大規(guī)模數(shù)據(jù)進行有監(jiān)督預(yù)訓練C、使用LSTM模型作為基礎(chǔ)模塊D、使用從左至右的Transformer語言模型作為基礎(chǔ)模塊答案:A23、以下哪種詞向量模型是動態(tài)詞向量模型A、BOWB、Word2vecC、GloVeD、ELMo答案:D24、以下哪種單詞表示方法不能較好的反映單詞的語義信息A、ONE-HOTB、Word2vecC、GloVeD、ELMo答案:A25、以下哪個下游任務(wù),在使用GPT時,輸入只需要單獨的一條文本A、文本蘊含B、文本分類C、相似度計算D、選擇型閱讀理解答案:B26、LexiconAugmentedNER通過()優(yōu)化了LatticeLSTMA、word-ignoringstrategyB、word-weightingstrategyC、word-reinforcementstrategyD、word-lossstrategy答案:B27、以下關(guān)于消歧的描述錯誤的是:A、歧義包括問句本身的歧義和實體的歧義。B、消歧模塊主要負責消除問句分析過程中發(fā)生的歧義問題。C、基于字符串相似度的方法是消歧的常用方法。D、檢查屬性及其參數(shù)的一致性是消歧的常用方法。答案:B28、以下哪種中文分詞算法在MSR語料庫上的標準化評測結(jié)果最好A、完全切分B、正向最長匹配C、逆向最長匹配D、二元語法答案:D29、下列屬于不規(guī)則文本識別的數(shù)據(jù)集為?A、IIITKB、SVTC、IC13D、IC15答案:D30、針對輸入“就讀北京大學”,如果分詞后輸出[就,就讀,讀,北,北京,北京大學,京,大,大學,學],最有可能使用了以下哪種切分方法A、完全切分B、正向最長匹配C、逆向最長匹配D、雙向最長匹配答案:A31、下面關(guān)于微調(diào)的說法正確的有()。A、微調(diào)通過使用在大數(shù)據(jù)上的預(yù)訓練好的模型來初始化模型權(quán)重,來完成精度的提升。B、如果要進行微調(diào),那么選擇的預(yù)訓練模型質(zhì)量很重要。C、微調(diào)必不可少。D、微調(diào)通常速度更快、精度更高。答案:ABD32、屬于基于深度學習的KBQA的特點的有:A、人工編寫模板和規(guī)則B、無法很好地處理時序敏感性問題C、自動進行D、對于復(fù)雜問題無法較好地應(yīng)對答案:BCD33、以下關(guān)于LSTM模型描述正確的有:A、LSTM是一種特殊的RNN網(wǎng)絡(luò)。B、忘記門決定給細胞狀態(tài)添加哪些新的信息。C、LSTM網(wǎng)絡(luò)能通過一種被稱為門的結(jié)構(gòu)對細胞狀態(tài)進行刪除或者添加信息。D、輸入門決定細胞狀態(tài)需要丟棄哪些信息。答案:AC34、下列哪些問題屬于文本生成任務(wù)?A、機器翻譯B、文本摘要C、賽事解說D、圖像描述生成答案:ABCD35、下列哪些技術(shù)能被用于計算兩個詞向量之間的距離A、詞形還原B、余弦相似度C、N-gramsD、歐氏距離答案:BD36、基于模板的KBQA包括哪些步驟:A、模板定義B、語法樹構(gòu)建C、模板生成D、模板匹配答案:ACD37、利用規(guī)則方法解決自然語言處理任務(wù)有哪些問題?A、規(guī)則質(zhì)量依賴于語言學家的知識和經(jīng)驗,獲取成本高B、規(guī)則之間容易發(fā)生沖突C、規(guī)則不容易學習D、大規(guī)模規(guī)則系統(tǒng)維護難度大答案:ABD38、句法分析包括以下哪些任務(wù):A、短語結(jié)構(gòu)分析B、依存句法分析C、成分句法分析D、詞性標注答案:ABC39、視覺信息加工的三個要素是A、計算理論B、表達和算法C、硬件實現(xiàn)D、實驗數(shù)據(jù)答案:ABC40、下面屬于詞袋模型的缺點的是?()A、詞匯表的詞匯需要經(jīng)過精心設(shè)計B、表示具有稀疏性C、丟失詞序忽略了上下文D、模型復(fù)雜,不利于實施答案:ABC41、常見的圖像提取特征的算法有?A、HOGB、SIFTC、SURFD、DOG答案:ABCD42、文本語料庫的可能特征是什么A、詞向量B、文本中詞計數(shù)C、文本中詞的TF-IDFD、文本句法信息答案:ABCD43、RDF包含以下哪些元素?A、定語B、賓語C、主語D、謂語答案:BCD44、利用one-hot向量表示文本單詞會帶來哪些問題?A、語義鴻溝B、設(shè)計復(fù)雜C、維度爆炸D、人工標注答案:AC45、對話系統(tǒng)中存在以下哪些挑戰(zhàn)?A、指代省略B、小樣本學習C、未知意圖識別D、已知意圖識別答案:ABC46、有關(guān)圖像融合的層級,包括:A、像素級圖像融合B、特征級圖像融合C、空間級圖像融合D、決策級圖像融合答案:ABD47、下列屬于空間域濾波方法的有?A、均值濾波B、高斯濾波C、小波濾波D、雙邊濾波答案:ABD48、以下關(guān)于BERT模型描述正確的有:A、在輸入層上,每個詞的Embedding除包含本身的TokenEmbedding外,還包含標記前后句子的SegmentEmbedding和表示位置的PositionEmbedding。B、BERT是一種基于Transformer的雙向編碼器。C、BERT模型有Base與Large兩種版本。D、BERT用左右兩邊的上下文的雙向的信息來預(yù)測。答案:ABCD49、以下哪些特征常被用于行為識別A、光流特征B、SIFT特征C、深度卷積特征D、以上都不是答案:AC50、當前計算機視覺所面臨的問題有()。A、如何準確、高速地識別出目標。B、如何有效地增大存儲容量,容納足夠細節(jié)的目標圖像。C、如何有效地構(gòu)造和組織出可靠的識別算法。D、目前,所建立的系統(tǒng)絕大多數(shù)只適用于某一特定環(huán)境或應(yīng)用場合的專用系統(tǒng),建立一個可與人類的視覺系統(tǒng)相比擬的通用視覺系統(tǒng)是非常困難的。答案:ABCD51、LSTM的輸出態(tài)包含哪個?A、t時刻的細胞狀態(tài)CB、t時刻隱層狀態(tài)hC、t+1時刻輸入向量xD、t時刻輸入向量x答案:ABC52、以下哪些屬于NLP分析技術(shù)?A、分詞B、詞性標注C、命名實體識別D、依存分析答案:ABCD53、關(guān)于行為識別技術(shù),以下說法錯誤的是A、深度特征一直都比傳統(tǒng)手工特征有優(yōu)勢B、行為識別的研究內(nèi)容是對視頻中的人進行檢測識別C、行為識別的研究主要是研究人或動物的情緒變化D、卷積神經(jīng)網(wǎng)絡(luò)如AlexNet、VGG等可被用于行為識別的特征抽取答案:ABC54、下面關(guān)于批量歸一化的說法無誤的有()。A、批量歸一化在全連接層和卷積層的使用略有不同。B、批量歸一化層和暫退層一樣,在訓練模式和預(yù)測模式下計算不同。C、在模型訓練過程中,批量規(guī)范化利用小批量的均值和標準差,不斷調(diào)整神經(jīng)網(wǎng)絡(luò)的中間輸出,使整個神經(jīng)網(wǎng)絡(luò)各層的中間輸出值更加穩(wěn)定。D、批量規(guī)范化有許多有益的副作用,主要是正則化。答案:ABCD55、TextBoxes++在TextBoxes基礎(chǔ)上進行改進,支持檢測任意角度的文本。A、正確B、錯誤答案:A56、RandAugment使用特定的概率確定是否使用某種子策略,有效提升模型的訓練效果A、正確B、錯誤答案:B57、LatticeLSTM是通過引入外部詞典,并且使用門控機制來進行動態(tài)選擇詞匯和融入詞匯信息來實現(xiàn)的A、正確B、錯誤答案:A58、在模型訓練時可以固定底部一些層的參數(shù),不參與更新,這是因為神經(jīng)網(wǎng)絡(luò)通常學習有層次的特征表示,低層次的特征更加通用,而高層次的特征則與數(shù)據(jù)集有關(guān)。A、正確B、錯誤答案:A59、TextBoxes和CTPN只支持檢測橫向文本和縱向文本。A、正確B、錯誤答案:B60、一個典型的Transformer,輸入數(shù)據(jù)先通過Encoders,再經(jīng)過Decoders后輸出結(jié)果A、正確B、錯誤答案:A61、信息檢索(informationretrieval)和信息抽?。╥nformationextraction)是相同的概念A(yù)、正確B、錯誤答案:B62、當情感詞覆蓋率和準確率高的情況下,基于情感詞典的分類方法效果比較準確A、正確B、錯誤答案:A63、ROIpooling層能實現(xiàn)training和testing的顯著加速,并提高檢測accuracyA、正確B、錯誤答案:A64、在大規(guī)模文本數(shù)據(jù)上訓練一個高容量的語言模型,從而學習更加豐富的上下文信息,這屬于判別式任務(wù)精調(diào)A、正確B、錯誤答案:B65、GPT是通過有監(jiān)督方式進行下游任務(wù)精調(diào)的A、正確B、錯誤答案:A66、在通用FasterRCNN中,可以把3x3的slidingwindow看作是對特征圖做了一次3x3的卷積操作。A、正確B、錯誤答案:A67、將詞表示成向量被稱為神經(jīng)詞嵌入(NeuralWord

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論