人工智能自然語言技術(shù)N2考試復(fù)習(xí)題庫(匯總)_第1頁
人工智能自然語言技術(shù)N2考試復(fù)習(xí)題庫(匯總)_第2頁
人工智能自然語言技術(shù)N2考試復(fù)習(xí)題庫(匯總)_第3頁
人工智能自然語言技術(shù)N2考試復(fù)習(xí)題庫(匯總)_第4頁
人工智能自然語言技術(shù)N2考試復(fù)習(xí)題庫(匯總)_第5頁
已閱讀5頁,還剩166頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡介

PAGEPAGE1人工智能自然語言技術(shù)N2考試復(fù)習(xí)題庫(匯總)一、單選題1.relu函數(shù)的作用是可以將小于()的數(shù)輸出為0A、-1B、0C、1D、x答案:B2.神經(jīng)網(wǎng)絡(luò)一般包括輸入層、隱藏層和輸出層,Batch歸一化操作用于網(wǎng)絡(luò)的什么層?A、輸出層B、輸入層C、無法在隱藏層起作用D、用于輸入層,甚至深度隱藏層的歸一化過程答案:D3.常用的激活函數(shù),修正線性單元指的是以下哪個(gè)選項(xiàng)?A、sigmoidB、tanhC、reluD、leakyrelu答案:C4.以下哪個(gè)不屬于LSTM的“門”A、遺忘門B、輸入門C、輸出門D、更新門答案:D5.Pytorch為機(jī)器學(xué)習(xí)和()提供了方便靈活的接口A、機(jī)器學(xué)習(xí)B、算法重構(gòu)C、NPLD、深度學(xué)習(xí)答案:D6.sigmoid求導(dǎo)之后的取值范圍是多少?A、(0,0.1]B、(0,0.2]C、(0,0.25]D、(0,0.5]答案:C7.在使用TensorFlow中,下面哪個(gè)函數(shù)可以打印某點(diǎn)值A(chǔ)、A=tf.run()B、A=S.valueC、A=S.eval()D、tf.assign()答案:A8.tf.mul()函數(shù)對Tensor的作用是什么A、相減B、相除C、相乘D、相加答案:C9.反向傳播過程中傳遞的參數(shù)是什么?A、學(xué)習(xí)率B、迭代次數(shù)C、誤差D、網(wǎng)絡(luò)層數(shù)答案:C10.以下的四個(gè)選項(xiàng)當(dāng)中,哪個(gè)選項(xiàng)的算法指的是有監(jiān)督的學(xué)習(xí)方式A、聚類B、降維C、回歸算法D、PCA答案:C11.以下哪個(gè)激活函數(shù)是對Relu的改進(jìn)A、tanhB、sigmoidC、softmaxD、leaky-Relu答案:D12.神經(jīng)網(wǎng)絡(luò)中經(jīng)常使用到激活函數(shù),下面關(guān)于激活函數(shù)的說法是正確的?A、神經(jīng)網(wǎng)絡(luò)中最好的激活函數(shù)是sigmoidB、激活函數(shù)有正則化作用C、dropout是CNN中的激活函數(shù)D、神經(jīng)元輸出后需要給定一個(gè)激活函數(shù)答案:D13.LDA這個(gè)模型是在哪一年提出的?A、2000B、2001C、2002D、2003答案:D14.以下四個(gè)選項(xiàng)中,哪個(gè)選項(xiàng)的縮寫是RNNA、卷積神經(jīng)網(wǎng)絡(luò)B、標(biāo)準(zhǔn)神經(jīng)網(wǎng)絡(luò)C、循環(huán)神經(jīng)網(wǎng)絡(luò)D、自注意力機(jī)制答案:C15.在進(jìn)行神經(jīng)網(wǎng)絡(luò)建模時(shí),需要對目標(biāo)數(shù)據(jù)進(jìn)行怎樣的操作A、度量化B、抽象化C、具體化D、理想化答案:A16.在模型構(gòu)建前期,對數(shù)據(jù)進(jìn)行劃分,正常的將數(shù)據(jù)集進(jìn)行切分為三個(gè)集合,下面哪個(gè)不被包含?A、確認(rèn)集B、測試集C、驗(yàn)證集D、訓(xùn)練集答案:A17.LDA模型可以做什么事情A、將文檔集中每篇文檔的主題以概率分布的形式給出,從而通過分析一些文檔抽取出它們的主題(分布)出來后,便可以根據(jù)主題(分布)進(jìn)行主題聚類或文本分類B、可以找出來最優(yōu)的分類超平面C、可以找到因變量和自變量之間的一次關(guān)系D、不確定答案:A18.sigmoid可以把值映射到0,1之間,對于二分類問題,一會把下sigmoid的閾值會設(shè)為多少A、0.5B、0.1C、1D、0答案:A19.tf開始執(zhí)行每個(gè)變量里的初始化操作的函數(shù)是哪個(gè)A、variables_initializer()B、global_variables_initializer()C、sess.runD、global_initializer()答案:B20.tanh的輸出范圍是多少A、[0,1]B、[-1,1]C、[-1,0]D、[-0.5,0.5]答案:B21.下面哪個(gè)對batch歸一化的解釋不正確?A、使參數(shù)搜索問題變得容易B、使神經(jīng)網(wǎng)絡(luò)對超參數(shù)的選擇更加穩(wěn)定C、超參數(shù)的范圍更加龐大D、僅作用于輸入層答案:D22.BP算法是人工智能的里程碑,具體這個(gè)算法能起到什么作用A、最大化實(shí)際輸出與訓(xùn)練集的誤差率B、最小化實(shí)際輸出與訓(xùn)練集的誤差率C、均值化實(shí)際輸出與訓(xùn)練集的誤差率D、范數(shù)化實(shí)際輸出與訓(xùn)練集的誤差率答案:B23.造成RNN梯度消失與下面哪個(gè)因素有關(guān)A、激活函數(shù)求導(dǎo)B、學(xué)習(xí)率C、批處理數(shù)D、網(wǎng)絡(luò)層數(shù)答案:A24.tf.abs對張量做什么操作A、求絕對值B、相減C、相除D、相加答案:A25.常用的操作Batch歸一化的作用,和下列描述的哪個(gè)操作一樣?A、reluB、dropoutC、sigmoidD、tanh答案:B26.CNN網(wǎng)絡(luò)包含如下哪個(gè)概念A(yù)、視野域B、循環(huán)結(jié)構(gòu)C、梯度消失D、以上都不包含答案:A27.tf.subtract的返回值是什么類型的數(shù)據(jù)A、范數(shù)B、數(shù)組C、矢量D、Tensor答案:D28.下列選項(xiàng)中關(guān)于Batch歸一化的描述,描述錯(cuò)誤的是哪個(gè)?A、使參數(shù)搜索問題變得容易B、使神經(jīng)網(wǎng)絡(luò)對超參數(shù)的選擇更加穩(wěn)定C、超參數(shù)的范圍更加龐大D、僅作用于輸入層答案:D29.tf.matmul()方法的作用是什么A、相與B、乘積C、相除D、相加答案:B30.哪個(gè)網(wǎng)絡(luò)結(jié)構(gòu)常用于人臉識別A、LeNET5B、(CNN:AlexNet)C、VGGD、ResNet答案:B31.關(guān)于在訓(xùn)練模型,選擇超參數(shù)的過程中的隨機(jī)取值指的是?A、隨機(jī)選擇標(biāo)尺取值B、隨機(jī)取值就是有效范圍內(nèi)隨機(jī)均勻取值C、選擇合適的標(biāo)尺進(jìn)行取值D、隨機(jī)的進(jìn)行均勻的取值答案:C32.下列四個(gè)選項(xiàng)中,哪個(gè)選項(xiàng)指的是mini-batchA、小批量梯度下降B、隨機(jī)梯度下降C、批量梯度下降D、小批量損失計(jì)算答案:A33.以下四個(gè)人物中,哪個(gè)被譽(yù)為人工智能之父A、圖靈B、馮-諾依曼C、維納D、牛頓答案:A34.下面哪個(gè)尺寸一般被用于設(shè)置batch_size大小A、125B、126C、127D、128答案:D35.常用的激活函數(shù)relu,下列對該激活函數(shù)描述正確的是?A、引用了無效的單元格地址B、過濾無效神經(jīng)元C、不是激發(fā)函數(shù)D、將正數(shù)保留,將負(fù)數(shù)置0答案:D36.以下描述,說的是下列選項(xiàng)中哪個(gè)激活函數(shù)?描述:輸入信號<0時(shí),輸出都是0,輸入信號>0的情況下,輸出等于輸入A、Sigmoid函數(shù)B、tanh函數(shù)C、ReLUD、cosh答案:C37.遷移學(xué)習(xí)說的是下面哪個(gè)網(wǎng)絡(luò)?A、RNNB、CNNC、NLPD、TransferLearning答案:D38.tf.add函數(shù)是對兩個(gè)tensor做什么運(yùn)算?A、維度轉(zhuǎn)化B、相加C、相減D、相乘答案:B39.當(dāng)使用withtf.Session()創(chuàng)建的會話時(shí),在關(guān)閉時(shí)的同事()釋放資源A、自動B、手動C、不能D、無法答案:A40.以下哪個(gè)不屬于長短期記憶網(wǎng)絡(luò)A、輸入門B、輸出門C、更新門D、遺忘門答案:C41.神經(jīng)網(wǎng)絡(luò)中常用的dropout函數(shù),下列選項(xiàng)中關(guān)于它的描述正確的是?A、屬于正則處理B、一個(gè)激活函數(shù)C、用于分割數(shù)據(jù)集D、用于將數(shù)據(jù)樣本多樣化答案:A42.神經(jīng)網(wǎng)絡(luò)反向傳播傳播的是什么?A、學(xué)習(xí)率B、迭代次數(shù)C、誤差D、網(wǎng)絡(luò)層數(shù)答案:C43.NLP中的核心和最重要網(wǎng)絡(luò)是哪個(gè)?A、CNNB、NNC、RNND、SVM答案:C44.以下哪個(gè)激活函數(shù)用來處理二分類任務(wù)A、tanhB、LeakyReluC、sigmoidD、relu答案:C45.實(shí)際工程問題中,需要根據(jù)業(yè)務(wù)和需求,構(gòu)建相應(yīng)的()?A、架構(gòu)B、數(shù)學(xué)模型C、流程圖D、數(shù)據(jù)集答案:B46.一下哪個(gè)網(wǎng)絡(luò)是NLP中用的最多的A、ANNB、CNNC、RNND、DNN答案:C47.對LSTM的作用描述正確的是A、增大文本數(shù)量B、簡化文本C、特征提取D、文本分類答案:C48.下面哪個(gè)與過擬合問題有關(guān)?A、DorpoutB、正則化C、批規(guī)范化D、以上技術(shù)均可以答案:D49.動量梯度法,是通過學(xué)習(xí)率和什么控制的,下列說法正確的是?A、指數(shù)加權(quán)平均數(shù)B、局部平均值C、全局平局值D、方差答案:A50.計(jì)算TensorFlow以硬件平臺通常分為哪些版本A、CPU,GPU,TPUB、CPU,GPUC、CPUD、TPU答案:A51.對于選擇超參數(shù),選擇了不同的取值,不可以_____?A、選擇對訓(xùn)練集目標(biāo)而言的最優(yōu)解B、對于開發(fā)集而言的最優(yōu)解C、超參搜索過程中最想優(yōu)化的東西D、簡化參數(shù)調(diào)試答案:D52.像個(gè)性化推薦,機(jī)器創(chuàng)作等這類任務(wù),用到了以下哪個(gè)內(nèi)容A、深度學(xué)習(xí)B、GANC、自編碼D、遷移學(xué)習(xí)答案:A53.以下選項(xiàng)中關(guān)于sigmoid求導(dǎo)之后的值域描述正確的是?A、(0,0.1]B、(0,0.2]C、(0,0.25]D、(0,0.5]答案:C54.LDA模型的隱變量Z是A、每個(gè)詞對應(yīng)的主題B、每篇文檔對應(yīng)的主題C、每段話對應(yīng)的主題D、每個(gè)詞組對應(yīng)的主題答案:A55.tf.concat的作用?A、相加B、兩個(gè)張量拼接C、相減D、求絕對值答案:B56.下面哪個(gè)網(wǎng)絡(luò)常用于NLP任務(wù)中A、ANNB、CNNC、RNND、XNN答案:C57.RNN的意思是什么A、全連接網(wǎng)絡(luò)B、卷積神經(jīng)網(wǎng)絡(luò)C、循環(huán)神經(jīng)網(wǎng)絡(luò)D、感知機(jī)網(wǎng)絡(luò)答案:C58.以下幾個(gè)選項(xiàng)中跟LDA最為接近的模型是?A、pLSAB、線性回歸C、邏輯回歸D、嶺回歸答案:A59.循環(huán)神經(jīng)網(wǎng)絡(luò)RNN的作用描述正確的是A、增大文本數(shù)量B、簡化文本C、特征提取D、文本分類答案:C60.如何對比矩陣是否相等A、c=tf.greater(a,b)B、a=tf.subtract(a,b)C、b=tf.equal(a,b)D、d=tf.matmul(a,b)答案:C61.使用的TensorFlow中的一個(gè)方法進(jìn)行數(shù)據(jù)的計(jì)算tf.subtract,最終會返回什么類型的數(shù)據(jù)A、TensorB、數(shù)組C、矢量D、范數(shù)答案:A62.什么樣的神經(jīng)網(wǎng)絡(luò)模型被稱為深度學(xué)習(xí)模型?A、加入更多層,使神經(jīng)網(wǎng)絡(luò)的深度增加B、有維度更高的數(shù)據(jù)C、當(dāng)這是一個(gè)圖形識別的問題時(shí)D、以上都不正確答案:A63.在pLSA的基礎(chǔ)上加入了什么框架就可以變成LDAA、XGBoostB、LightGBMC、貝葉斯D、隨機(jī)森林答案:C64.learning_rate用于網(wǎng)絡(luò)的什么作用A、調(diào)整學(xué)習(xí)率B、批處理C、dropoutD、過擬合答案:A65.深度學(xué)習(xí)中的“超參數(shù)”指哪個(gè)?A、隱藏層的大小B、激活值C、權(quán)重D、偏置答案:A66.如果對圖像進(jìn)行池化,ksize=[1,4,4,1]那么圖像會變成多大A、縮小到1/2B、擴(kuò)大四倍C、擴(kuò)大兩倍D、縮小到1/16答案:D67.常用的激活函數(shù)其中包括Tanh,它的導(dǎo)數(shù)的范圍是在哪個(gè)區(qū)間?A、(0,1]B、(0,0.1]C、(0,-1]D、(0,10]答案:A68.以下哪個(gè)領(lǐng)域包含文本摘要任務(wù)A、圖像識別B、數(shù)據(jù)挖掘C、自然語言D、不確定答案:C69.訓(xùn)練模型階段,如果想要損失值最小,需要得到什么值?A、鞍點(diǎn)B、局部最優(yōu)解C、轉(zhuǎn)折點(diǎn)D、全局最優(yōu)解答案:D70.以下選項(xiàng)中關(guān)于在圖像特征經(jīng)過幾個(gè)卷積后,特征信號會發(fā)生怎樣的變化:A、減弱B、不變C、增強(qiáng)D、都有可能答案:D71.常用的softmax函數(shù),下列選項(xiàng)中描述正確得是哪個(gè)?A、主要用于二分類B、算出來為概率值C、將最小的概率值所對應(yīng)的類別作為輸入樣本的輸出類別D、所有的概率相加大于1答案:B72.CNN的全稱是什么A、全連接網(wǎng)絡(luò)B、循環(huán)神經(jīng)網(wǎng)絡(luò)C、卷積神經(jīng)網(wǎng)絡(luò)D、以上都不對答案:C73.sigmoid可以將數(shù)據(jù)的特征,映射到哪個(gè)區(qū)間?A、0,1B、0,-1C、10,0D、0,0.1答案:A74.交叉熵函數(shù)一般用作定義什么函數(shù)?A、損失函數(shù)B、激活函數(shù)C、relu函數(shù)D、sigmoid函數(shù)答案:A75.在網(wǎng)絡(luò)模型的構(gòu)建中,關(guān)于dropout運(yùn)行的描述正確的是哪個(gè)?A、dropout能增加新樣本防止過擬合B、隨機(jī)取消一些節(jié)點(diǎn),只是用部分節(jié)點(diǎn)進(jìn)行擬合運(yùn)算,防止過擬合C、dropout進(jìn)行歸一化操作,防止過擬合D、dropout通過給損失函數(shù)增加懲罰項(xiàng),防止過擬合答案:B76.以下哪個(gè)技術(shù)可以用于機(jī)器創(chuàng)作A、深度學(xué)習(xí)B、GANC、自編碼D、遷移學(xué)習(xí)答案:A77.tensoflow中的函數(shù)Graph.get_operations()的作用是什么A、返回圖中的操作節(jié)點(diǎn)列表B、為節(jié)點(diǎn)創(chuàng)建層次化的名稱,并返回一個(gè)上下文管理器C、完成圖的構(gòu)建,即將其設(shè)置為只讀模式D、返回圖中的操作節(jié)點(diǎn)列表答案:D78.BP算法說的是那兩個(gè)參數(shù)之間的誤差率A、最大化實(shí)際輸出與訓(xùn)練集的誤差率B、最小化實(shí)際輸出與訓(xùn)練集的誤差率C、均值化實(shí)際輸出與訓(xùn)練集的誤差率D、范數(shù)化實(shí)際輸出與訓(xùn)練集的誤差率答案:B79.在使用tensorflow提供了很多函數(shù),例如multiply,這個(gè)函數(shù)實(shí)現(xiàn)的功能是什么?A、相除B、相乘C、相與D、相加答案:B80.下列對神經(jīng)網(wǎng)絡(luò)中的relu激活函數(shù),正確的說法是哪個(gè)?A、引用了無效的單元格地址B、過濾無效神經(jīng)元C、不是激發(fā)函數(shù)D、將正數(shù)保留,將負(fù)數(shù)置0答案:D81.在TensorFlow中conv2d(a,b,c,d)中,四個(gè)參數(shù)中的b代表的是什么意思A、被卷積數(shù)據(jù)B、卷積核C、步長D、填充答案:B82.BP算法最早時(shí),是在以下哪個(gè)任務(wù)中得到了最早的應(yīng)用A、手寫數(shù)字識別B、CPUC、GPUD、不確定答案:A83.RNN的中文全稱是什么?A、循環(huán)神經(jīng)網(wǎng)絡(luò)B、標(biāo)準(zhǔn)神經(jīng)網(wǎng)絡(luò)C、卷積神經(jīng)網(wǎng)絡(luò)D、自注意力機(jī)制答案:A84.sigmoid可以把值映射到0,1之間,通常情況下sigmoid的閾值會設(shè)為多少A、0.5B、0.1C、1D、0答案:A85.下列對于Batch歸一化操作的應(yīng)用范圍描述正確的是?A、作用于輸出層B、僅作用于輸入層C、無法在隱藏層起作用D、用于輸入層,甚至深度隱藏層的歸一化過程答案:D86.在NLP自然語言處理中,不可以做以下選項(xiàng)中的那個(gè)任務(wù)A、會話機(jī)器人B、人臉檢測C、推薦系統(tǒng)D、文本糾錯(cuò)答案:B87.哪個(gè)為人工智能之父A、圖靈B、馮-諾依曼C、維納D、牛頓答案:A88.在RNN循環(huán)神經(jīng)網(wǎng)絡(luò)中,在反向傳播過程中很容易發(fā)生梯度消失現(xiàn)象,它與什么因素相關(guān)A、激活函數(shù)求導(dǎo)B、學(xué)習(xí)率C、批處理數(shù)D、網(wǎng)絡(luò)層數(shù)答案:A89.什么是隨機(jī)梯度下降A(chǔ)、隨機(jī)賦值,祈禱它們是正確的B、搜索所有權(quán)重和偏差的組合,直到得到最佳值C、賦予一個(gè)初始值,通過檢查跟最佳值的差值,然后迭代更新權(quán)重D、以上都不正確答案:C90.模型訓(xùn)練階段,使用優(yōu)化算法是為了在迭代的過程中實(shí)現(xiàn)怎么的效果A、增大損失值B、使學(xué)習(xí)率衰減C、降低損失值D、提升正則項(xiàng)范圍答案:B91.網(wǎng)絡(luò)表示(NetworkEmbedding)模型是受到以下哪種模型的啟發(fā)而來?A、LDAB、word2vecC、PageRankD、SVD答案:B92.在使用TensorFlow的過程中,如果想要打印某點(diǎn)值,應(yīng)該怎么操作A、A=tf.run()B、A=S.valueC、A=S.eval()D、tf.assign()答案:A93.上升速度最快的是哪個(gè)函數(shù)A、線性函數(shù)B、指數(shù)函數(shù)C、對數(shù)函數(shù)D、冪函數(shù)答案:C94.在實(shí)際的應(yīng)用中,通常的歸一化和以下哪個(gè)選項(xiàng)中的描述一并使用A、訓(xùn)練集的mini-batchB、測試集的mini-batchC、整個(gè)訓(xùn)練集D、整個(gè)測試集答案:A95.dropout作為神經(jīng)網(wǎng)絡(luò)建模中常用的函數(shù),它有什么用A、沒有激活函數(shù)功能B、一種圖像特征處理算法C、一種語音處理算法D、一種正則化方式答案:D96.以下哪些是神經(jīng)網(wǎng)絡(luò)中的“超參數(shù)”?A、隱藏層的大小B、激活值C、權(quán)重D、偏置答案:A97.以下幾個(gè)選項(xiàng)中,哪個(gè)用來處理多分類任務(wù)A、tanhB、softmaxC、sigmoidD、relu答案:B98.tf開始執(zhí)行每個(gè)variable里的initializer的函數(shù)是哪個(gè)A、sess.runB、global_variables_initializer()C、variables_initializer()D、global_initializer()答案:B99.tf.concat對張量做什么運(yùn)算A、相加B、兩個(gè)張量拼接C、相減D、求絕對值答案:B100.tf里的con1d的作用是什么A、二維卷積B、一維卷積C、lstm操作D、GRU操作答案:B101.關(guān)于Batch歸一化的描述,說法正確的是?A、批量歸一化B、僅對輸入數(shù)據(jù)進(jìn)行歸一化C、僅對隱藏層進(jìn)行歸一化D、提升了參數(shù)搜索難度答案:A102.在實(shí)現(xiàn)前向傳播和反向傳播中使用的“cache”是什么?A、它用于跟蹤我們正在搜索的超參數(shù),以加速計(jì)算。B、用于在訓(xùn)練期間緩存代價(jià)函數(shù)的中間值。C、使用它傳遞反向傳播中計(jì)算的變量到相應(yīng)的前向傳播步驟,它包含對于前向傳播計(jì)算導(dǎo)數(shù)有用的變量。D、使用它傳遞前向傳播中計(jì)算的變量到相應(yīng)的反向傳播步驟,它包含對于反向傳播計(jì)算導(dǎo)數(shù)有用的變量。答案:D解析:cache“緩存”記錄來自正向傳播單元的值,并將其發(fā)送到反向傳播單元,這是鏈?zhǔn)角髮?dǎo)的需要。103.tf.Graph.finalize()的作用是什么A、返回圖中的操作節(jié)點(diǎn)列表B、為節(jié)點(diǎn)創(chuàng)建層次化的名稱,并返回一個(gè)上下文管理器C、返回圖中的操作節(jié)點(diǎn)列表D、完成圖的構(gòu)建,即將其設(shè)置為只讀模式答案:D104.Tanh的導(dǎo)數(shù)范圍是多少?A、(0,1]B、(0,0.1]C、(0,-1]D、(0,10]答案:A105.多分類問題的最后一層一般用什么激活函數(shù)A、sigmoidB、tanhC、softmaxD、relu答案:C106.在下列神經(jīng)網(wǎng)絡(luò)的參數(shù)中,其中的參數(shù)的調(diào)試不包括哪個(gè)?A、學(xué)習(xí)率αB、動量梯度下降的參數(shù)βC、mini-Batch的大小D、輸入圖片大小答案:D107.正則化也是常用的手段,以下關(guān)于正則化描述錯(cuò)誤的是哪個(gè)A、過擬合可以通過正則化方式消除B、常用的正則化方式由L1,L2,以及dropoutC、欠擬合可以通過正則化方式消除D、正則化是損失函數(shù)的一個(gè)補(bǔ)償項(xiàng)答案:C108.tf.to_int64的作用?A、轉(zhuǎn)為64位浮點(diǎn)類型–float64B、轉(zhuǎn)為32位整型–int32C、字符串轉(zhuǎn)為數(shù)字D、轉(zhuǎn)為64位整型–int64答案:D109.tf.tanh的作用是什么A、計(jì)算元素的sigmoid值.B、計(jì)算元素的softmax值.C、計(jì)算元素的雙曲正切值.D、計(jì)算元素的relu值答案:C110.以下哪個(gè)網(wǎng)絡(luò)用于文本表示的網(wǎng)絡(luò)A、RNNB、word2vecC、CNND、Transformer答案:B111.以下選項(xiàng)關(guān)于神經(jīng)網(wǎng)絡(luò)中,在對超參數(shù)的選擇和調(diào)試中,其中最重要的參數(shù)應(yīng)該是什么?A、mini-Batch的大小B、動量梯度下降的參數(shù)βC、學(xué)習(xí)率αD、隱藏層數(shù)目答案:C112.考慮文字背后語義關(guān)聯(lián)的是A、TF(詞頻)B、TF-IDFC、TF,TF-IDFD、LDA主題模型答案:D113.Relu的求導(dǎo),正半?yún)^(qū)的求導(dǎo)之后是多少A、0B、0.25C、1D、-1答案:C114.雙曲正切激活函數(shù),指的是以下哪個(gè)激活函數(shù)?A、ReluB、sigmoidC、tanhD、sin答案:C115.二項(xiàng)分布屬于()A、連續(xù)型分布B、離散型分布C、正態(tài)分布D、伽瑪分布答案:B116.LDA中的一個(gè)采樣是什么采樣A、gamma函數(shù)B、二項(xiàng)分布C、pLSAD、Gibbs采樣答案:D117.下列說法中關(guān)于Batch歸一化的描述,說法正確的是?A、批量歸一化B、僅對輸入數(shù)據(jù)進(jìn)行歸一化C、僅對隱藏層進(jìn)行歸一化D、提升了參數(shù)搜索難度答案:A118.以下四個(gè)選項(xiàng)中關(guān)于二項(xiàng)分布說法正確的是A、連續(xù)型分布B、離散型分布C、正態(tài)分布D、伽瑪分布答案:B119.通常使用到的交叉熵函數(shù)是作為什么作用?A、損失函數(shù)B、激活函數(shù)C、sigmoid函數(shù)D、relu函數(shù)答案:A120.tf.mul的作用是什么A、相乘B、相加C、相減D、相除答案:A121.在動量梯度下降(Momentum)中,其中的參數(shù)β一般的默認(rèn)值是多少?A、0.7B、0.8C、0.9D、1答案:C122.多分類問題一般用什么激活函數(shù)進(jìn)行映射A、sigmoidB、tanhC、softmaxD、relu答案:C123.TensorFlow是一個(gè)開放源碼的軟件庫,通常它有哪些版本A、CPU,GPU,TPUB、CPU,GPUC、CPUD、TPU答案:A124.在下列幾關(guān)于mini-batch的說法當(dāng)中,描述錯(cuò)誤的是哪個(gè)?A、指的是批量梯度下降B、適用于樣本量小的數(shù)據(jù)集C、每一次只運(yùn)算部分?jǐn)?shù)據(jù),最后將全部數(shù)據(jù)進(jìn)行運(yùn)算D、適用于樣本量大的數(shù)據(jù)答案:B125.sigmoid激活函數(shù)有什么致命的缺點(diǎn)?A、反向傳播容易造成梯度消失B、正向傳播容易造成梯度消失C、正向傳播容易造成梯度爆炸D、以上都正確答案:A126.LDA的實(shí)質(zhì)是在做一個(gè)什么東西A、根據(jù)給定的一篇文檔,反推其主題B、可以找出來最優(yōu)的分類超平面C、可以找到因變量和自變量之間的一次關(guān)系D、不確定答案:A127.在tf中常用的Add函數(shù)它的用途是做什么?A、維度轉(zhuǎn)化B、相加C、相乘D、相減答案:B128.NLP中常用的激活函數(shù)Tanh,它的輸出的值域范圍是多少?A、+1和-1B、+0和-1C、+1和0D、+2和-2答案:A129.以下四個(gè)選項(xiàng)中能實(shí)現(xiàn)對比兩個(gè)矩陣是否相等的是哪個(gè)函數(shù)?A、c=tf.greater(a,b)B、a=tf.subtract(a,b)C、b=tf.equal(a,b)D、d=tf.matmul(a,b)答案:C130.下列管Batch歸一化操作的作用描述正確的是?A、作用于輸出層B、僅作用于輸入層C、無法在隱藏層起作用D、用于輸入層,甚至深度隱藏層的歸一化過程答案:D131.下列選項(xiàng)中,處理梯度消失問題效果最好的函數(shù)是哪個(gè)?A、sigmoidB、tanhC、reluD、Leakyrelu答案:D132.下列四個(gè)選項(xiàng)中,對于正則化的描述正確的選項(xiàng)是哪個(gè)?A、每一個(gè)隱層都需要正則化B、正則化可以預(yù)防過擬合C、正則化可以預(yù)防欠擬合D、每一個(gè)模型中都需要正則化,否則無法正確預(yù)測結(jié)果答案:B133.tanh激活函數(shù)相比sigmoid是有優(yōu)勢的,體現(xiàn)在哪些方面A、解決了sigmoid輸出為非0中心的問題B、tanh不易飽和C、tanh解決了sigmoid的指數(shù)運(yùn)算D、tanh不會造成梯度消失答案:A134.在嶺回歸模型中,回歸系數(shù)的先驗(yàn)分布是()。A、拉普拉斯分布B、正態(tài)分布C、正態(tài)分布與拉普拉斯的混合分布D、指數(shù)分布答案:B135.如果使用到了mini-batch去選取樣本,一般對選擇多大批次?A、61B、62C、63D、64答案:D136.Relu的求導(dǎo)非常簡單所以速度快,它正半?yún)^(qū)的求導(dǎo)之后是多少A、0B、0.25C、1D、-1答案:C137.LDA稱為()A、損失分布法B、內(nèi)部衡量法C、打分卡法D、內(nèi)部損失數(shù)據(jù)法答案:A138.下列選項(xiàng)中對于神經(jīng)網(wǎng)絡(luò)中的超參數(shù)調(diào)試的方法的描述,其中描述正確的是哪個(gè)選項(xiàng)?A、隨機(jī)選擇點(diǎn)來試驗(yàn)超參數(shù)效果B、當(dāng)你給超參數(shù)取值時(shí),另一個(gè)慣例是采用由精細(xì)到粗糙的策略。C、只調(diào)試容易的D、給定默認(rèn)值即可答案:A139.在貝葉斯統(tǒng)計(jì)中,如果后驗(yàn)分布與先驗(yàn)分布屬于同類,則被稱為什么A、二項(xiàng)分布B、多項(xiàng)分布C、共軛分布D、Bete分布答案:C140.最簡單常用的sigmoid激活函數(shù)的輸出值的范圍是在以下哪個(gè)區(qū)間中?A、0~1B、0~2C、-1~0D、-1~1答案:A141.batch_size一般設(shè)置為多少A、61B、62C、63D、64答案:D142.tf.nn.softmax_cross_entropy_with_logits的作用是什么?A、信息熵B、信息元C、交叉熵D、logits答案:C143.以下哪個(gè)手段不屬于CNNA、局部連接B、權(quán)值共享C、池化操作D、多層次結(jié)構(gòu)答案:D144.tensorflow的方法expand_dims用于對張量做什么操作A、改變tensor的形狀B、返回?cái)?shù)據(jù)的元素?cái)?shù)量C、插入維度1進(jìn)入一個(gè)tensor中D、返回tensor的rank答案:C145.sigmoid激活函數(shù)最大的問題是容易造成____?A、反向傳播容易造成梯度消失B、正向傳播容易造成梯度消失C、正向傳播容易造成梯度爆炸D、以上都正確答案:A146.下列選項(xiàng)中哪個(gè)可以很好的解決梯度爆炸的問題?A、梯度剪切,正則B、增加擬合數(shù)據(jù)C、增加訓(xùn)練數(shù)據(jù)維度D、增加隱藏層答案:A147.使用withtf.Session()assess創(chuàng)建的會話時(shí),在關(guān)閉的同時(shí)會()釋放資源A、自動B、無法C、不能D、手動答案:A148.在對數(shù)據(jù)或者任務(wù)進(jìn)行建模時(shí),需要對目標(biāo)進(jìn)行怎樣的操作A、度量化B、抽象化C、具體化D、理想化答案:A149.以下哪個(gè)領(lǐng)域包含命名實(shí)體識別任務(wù)A、圖像識別B、數(shù)據(jù)挖掘C、自然語言D、不確定答案:C150.tf.abs的作用是什么A、相加B、相減C、相除D、求絕對值答案:D151.sigmoid激活函數(shù)的模型曲線是()?A、X型B、S型C、U型D、L型答案:B152.softmax是多分類中常用的函數(shù),它又叫什么函數(shù)A、概率B、歸一化C、損失函數(shù)D、空間答案:B153.以下幾個(gè)選項(xiàng)中,哪個(gè)是對relu激活函數(shù)的改進(jìn)A、tanhB、LeakyReluC、sigmoidD、softmax答案:B154.下列四個(gè)選項(xiàng)中,對于正則化(regularization)的描述正確的選項(xiàng)是哪個(gè)?A、每一個(gè)隱層都需要正則化(regularization)B、每一個(gè)模型中都需要正則化,否則無法正確預(yù)測結(jié)果C、正則化可以預(yù)防欠擬合D、正則化可以預(yù)防過擬合答案:D155.GAN網(wǎng)絡(luò)指的是哪個(gè)網(wǎng)路A、生成對抗網(wǎng)絡(luò)B、卷積神經(jīng)網(wǎng)絡(luò)C、循環(huán)神經(jīng)網(wǎng)絡(luò)D、全連接網(wǎng)絡(luò)答案:A156.ReinforcementLearning是什么網(wǎng)絡(luò)A、全連接網(wǎng)絡(luò)B、遷移學(xué)習(xí)C、循環(huán)神經(jīng)網(wǎng)絡(luò)D、強(qiáng)化學(xué)習(xí)答案:D157.以下哪個(gè)不屬于LSTMA、輸入門B、輸出門C、更新門D、遺忘門答案:C158.下列關(guān)于mini-batch原理的說法,描述正確的是?A、選取數(shù)據(jù)中部分?jǐn)?shù)據(jù)進(jìn)行梯度下降B、和批量梯度下降相同,只是將算法進(jìn)行優(yōu)化C、將數(shù)據(jù)每次進(jìn)行一小批次處理,通過迭代將數(shù)據(jù)全部處理D、隨機(jī)選取一些數(shù)據(jù),計(jì)算梯度進(jìn)行下降,每次將學(xué)習(xí)率降低一點(diǎn)答案:C159.常用的操作Batch歸一化,對比到神經(jīng)網(wǎng)絡(luò)中,和下列描述的哪個(gè)步驟很相似?A、reluB、dropoutC、sigmoidD、tanh答案:B160.像TensorFlow這樣的框架,為機(jī)器學(xué)習(xí)和()提供了方便靈活的接口A、機(jī)器學(xué)習(xí)B、算法重構(gòu)C、NPLD、深度學(xué)習(xí)答案:D161.tf中的conv2d(a,b,c,d),參數(shù)b代表什么?A、被卷積數(shù)據(jù)B、步長C、卷積核D、填充答案:C162.softmax又可以稱為什么函數(shù)A、概率B、歸一化C、損失函數(shù)D、空間答案:B163.以下哪個(gè)激活函數(shù)的執(zhí)行速度是最快的A、reluB、tanhC、sigmoidD、不能確定答案:A164.實(shí)際的應(yīng)用中在數(shù)據(jù)預(yù)處理階段會有數(shù)據(jù)劃分,下列關(guān)于訓(xùn)練,測試以及驗(yàn)證說法錯(cuò)誤的是哪個(gè)?A、訓(xùn)練集用于算子的擬合B、可以直接使用訓(xùn)練集來驗(yàn)證算子的準(zhǔn)確率C、驗(yàn)證集和測試集用來評判算子的準(zhǔn)確度D、可以不配置驗(yàn)證集答案:B165.神經(jīng)網(wǎng)絡(luò)的運(yùn)行流程是從輸入層到()再到輸出層A、輸出層B、隱藏層C、輸出層D、激活函數(shù)層答案:B166.tanh的取值范圍是多少?A、+1和-1B、+0和-1C、+1和0D、+2和-2答案:A167.以下幾個(gè)描述中,關(guān)于優(yōu)化算法減小學(xué)習(xí)率的原因,說法正確的是?A、一種默認(rèn)定式B、減少內(nèi)存容量C、避免在最優(yōu)解附近大幅度擺動D、減少迭代次數(shù)答案:C168.tf.reshape()的用途是?A、相乘B、相加C、維度轉(zhuǎn)化D、相減答案:C169.像sigmoid,relu,tanh等等這類叫做什么函數(shù)A、非激活B、激活C、極值D、修正線答案:B170.自動駕駛是如何起源的A、BP算法B、神經(jīng)網(wǎng)絡(luò)C、前向算法D、NFC答案:A171.通過以下哪種方式可以得到加權(quán)平均值A(chǔ)、局部平均值B、局部方差C、全局平均值D、全局方差答案:A172.以下幾個(gè)選項(xiàng)中,哪個(gè)選項(xiàng)沒描述神經(jīng)網(wǎng)絡(luò)的超參數(shù)是正確的A、權(quán)重B、偏置C、神經(jīng)網(wǎng)絡(luò)的層數(shù)D、激活值答案:C173.下列哪個(gè)說法是正確的?A、神經(jīng)網(wǎng)絡(luò)的更深層通常比前面層計(jì)算更復(fù)雜的輸入特征。B、神經(jīng)網(wǎng)絡(luò)的前面層通常比更深層計(jì)算更復(fù)雜的輸入特性。C、神經(jīng)網(wǎng)絡(luò)由輸入和隱藏層構(gòu)成D、神經(jīng)網(wǎng)絡(luò)的隱藏層只能是一層答案:A174.在NLP中,不可以做以下選項(xiàng)中的那個(gè)任務(wù)A、聊天機(jī)器人B、車牌檢測C、推薦系統(tǒng)D、文本糾錯(cuò)答案:B175.哪個(gè)技術(shù)可以用來解決過擬合問題?A、DorpoutB、正則化C、批規(guī)范化D、以上技術(shù)均可以答案:D176.在使用tf時(shí),其中有很多的接口,例如multiply,這個(gè)接口實(shí)現(xiàn)的功能是?A、相與B、相乘C、相除D、相加答案:B177.使用了mini-batch后,可以得到怎樣的下降效果?A、損失函數(shù)值一直下降B、損失函數(shù)值總體趨勢下降C、比梯度下降速度快D、梯度下降不明顯答案:B178.人工智能起源于哪個(gè)年代?A、20世紀(jì)50年代B、20世紀(jì)60年代C、20世紀(jì)70年代D、20世紀(jì)80年代答案:A179.tf.Graph.get_operations()的作用是什么A、返回圖中的操作節(jié)點(diǎn)列表B、為節(jié)點(diǎn)創(chuàng)建層次化的名稱,并返回一個(gè)上下文管理器C、返回圖中的操作節(jié)點(diǎn)列表D、完成圖的構(gòu)建,即將其設(shè)置為只讀模式答案:C180.以下幾個(gè)選項(xiàng)中,哪個(gè)選項(xiàng)是超參數(shù)A、權(quán)重B、偏置C、網(wǎng)絡(luò)層數(shù)D、激活值答案:C181.對于超參數(shù)調(diào)試的方法的描述,其中描述正確的是哪個(gè)選項(xiàng)?A、隨機(jī)選擇點(diǎn)來試驗(yàn)超參數(shù)效果B、當(dāng)你給超參數(shù)取值時(shí),另一個(gè)慣例是采用由精細(xì)到粗糙的策略。C、只調(diào)試容易的D、給定默認(rèn)值即可答案:A182.哪個(gè)激活函數(shù)的用于表示LSTM的“門”的概念A(yù)、reluB、tanhC、LeakyReluD、sigmoid答案:D183.在tf中常用的reshape函數(shù)它的用途是做什么?A、維度轉(zhuǎn)化B、相加C、相乘D、相減答案:A184.以下幾個(gè)網(wǎng)絡(luò)在NLP中最為常用的是哪個(gè)?A、CNNB、NNC、RNND、SVM答案:C185.tf.to_int32的作用是什么A、字符串轉(zhuǎn)為數(shù)字B、轉(zhuǎn)為64位浮點(diǎn)類型–float64C、轉(zhuǎn)為32位整型–int32D、轉(zhuǎn)為64位整型–int64答案:C186.以下幾個(gè)函數(shù)中,上升速度最快的是哪個(gè)A、線性函數(shù)B、指數(shù)函數(shù)C、冪函數(shù)D、對數(shù)函數(shù)答案:D187.哪個(gè)激活函數(shù)用于表示GRU的“門”A、reluB、tanhC、LeakyReluD、sigmoid答案:D188.在實(shí)現(xiàn)前向傳播和反向傳播中使用的“cache”(緩存)指哪個(gè)?A、它用于跟蹤我們正在搜索的超參數(shù),以加速計(jì)算。B、用于在訓(xùn)練期間緩存代價(jià)函數(shù)的中間值。C、使用它傳遞反向傳播中計(jì)算的變量到相應(yīng)的前向傳播步驟,它包含對于前向傳播計(jì)算導(dǎo)數(shù)有用的變量。D、使用它傳遞前向傳播中計(jì)算的變量到相應(yīng)的反向傳播步驟,它包含對于反向傳播計(jì)算導(dǎo)數(shù)有用的變量。答案:D解析:cache“緩存”記錄來自正向傳播單元的值,并將其發(fā)送到反向傳播單元,這是鏈?zhǔn)角髮?dǎo)的需要。189.在以下四個(gè)選項(xiàng)中哪些屬于神經(jīng)網(wǎng)絡(luò)中的參數(shù)A、學(xué)習(xí)率B、權(quán)重C、迭代次數(shù)D、隱藏層的大小答案:B190.梯度消失是RNN模型中的常見問題,以下四個(gè)選項(xiàng)中,哪個(gè)不能緩解梯度消失A、調(diào)整激活函數(shù)類型B、使用batchnormC、訓(xùn)練值預(yù)處理D、增大隱藏層數(shù)量答案:D191.以下描述正確的是哪個(gè)?A、欠擬合是指驗(yàn)證集和測試集的準(zhǔn)確率都無法保證正常業(yè)務(wù)使用B、欠擬合的現(xiàn)象是訓(xùn)練集和測試集準(zhǔn)確率相近C、盡量不要出現(xiàn)適度擬合,會造成新數(shù)據(jù)準(zhǔn)確率低D、過擬合的現(xiàn)象是訓(xùn)練集準(zhǔn)確率低,而測試集準(zhǔn)確率高答案:A192.下面哪個(gè)個(gè)關(guān)于softmax函數(shù)的說法是正確的?A、主要用于二分類B、算出來為概率值C、將最小的概率值所對應(yīng)的類別作為輸入樣本的輸出類別D、所有的概率相加大于1答案:B193.計(jì)算圖模型是哪個(gè)框架中存在的A、pytorchB、tensorflowC、caffeD、paddle答案:B194.tensorflow的split()函數(shù)有什么用A、沿著某一維度連結(jié)tensorB、沿著某一維度將tensor分離為num_splittensorsC、對tensor進(jìn)行切片操作D、沿著某維度進(jìn)行序列反轉(zhuǎn)答案:B195.下面哪個(gè)隊(duì)tf.reverse的解釋是正確的A、沿著某一維度連結(jié)tensorB、沿著某一維度將tensor分離為num_splittensorsC、對tensor進(jìn)行切片操作D、沿著某維度進(jìn)行序列反轉(zhuǎn)答案:D196.哪個(gè)激活函數(shù)運(yùn)行效率最高?A、reluB、tanhC、sigmoidD、不能確定答案:A197.下列幾個(gè)選項(xiàng)中,關(guān)于RMSprop算法的特點(diǎn)描述正確的優(yōu)哪些?A、指數(shù)加權(quán)平均數(shù)求和B、指數(shù)加權(quán)平均數(shù)先平方再開方C、指數(shù)加權(quán)平均數(shù)求微分D、指數(shù)加權(quán)平均數(shù)求均方誤差答案:B198.在優(yōu)化算法的計(jì)算當(dāng)中,使用到了以下哪種方式A、標(biāo)準(zhǔn)差加權(quán)平均B、方差加權(quán)平均C、對數(shù)加權(quán)平均D、指數(shù)加權(quán)平均答案:D199.以下說法當(dāng)中,LDA是可以做什么的A、對圖像進(jìn)行文本B、對圖像進(jìn)行特征提取C、對文檔的主題進(jìn)行分類或聚類D、以上都正確答案:C200.以下哪個(gè)激活函數(shù)常用于解決類似文本分類的多分類任務(wù)A、tanhB、sigmoidC、reluD、softmax答案:D201.數(shù)據(jù)歸一化通常和以下哪個(gè)選項(xiàng)中一起使用A、訓(xùn)練集的mini-batchB、測試集的mini-batchC、整個(gè)訓(xùn)練集D、整個(gè)測試集答案:A202.最早的自動駕駛汽車是在80年代,它是基于哪種形式制造出來的A、BP算法B、神經(jīng)網(wǎng)絡(luò)C、前向算法D、NFC答案:A203.以下幾個(gè)選項(xiàng),哪一個(gè)常賦值給batch_sizeA、128B、127C、126D、125答案:A204.深度學(xué)習(xí)常用框架TensorFlow,在該框架下如何正確調(diào)用dropout函數(shù)A、tf.nn.dropoutB、tf.train.dropoutC、tf.dropoutD、tf.dropOut答案:A205.在模型訓(xùn)練的階段,使用的優(yōu)化算法中,超參數(shù)學(xué)習(xí)率會怎么變化A、保持不變B、持續(xù)較小C、持續(xù)增大D、不變答案:B206.在動量梯度下降中,其中的參數(shù)β一般的默認(rèn)值是多少,下列哪個(gè)選項(xiàng)是正確的A、0.7B、0.8C、0.9D、1答案:C207.下列哪個(gè)激活函數(shù),處理梯度消失問題效果最好?A、sigmoidB、LeakyreluC、reluD、tanh答案:B208.哪個(gè)激活函數(shù)修正了Relu激活函數(shù)的缺點(diǎn)A、tanhB、leaky-ReluC、softmaxD、sigmoid答案:B209.深度學(xué)習(xí)中最常使用的框架就是TensorFlow,該框架中的matmul方法的作用是什么A、相與B、乘積C、相除D、相加答案:B210.tensoflow中的圖函數(shù)Graph.finalize()有什么用處?A、返回圖中的操作節(jié)點(diǎn)列表B、為節(jié)點(diǎn)創(chuàng)建層次化的名稱,并返回一個(gè)上下文管理器C、返回圖中的操作節(jié)點(diǎn)列表D、完成圖的構(gòu)建,即將其設(shè)置為只讀模式答案:D211.神經(jīng)網(wǎng)絡(luò)的訓(xùn)練過程,經(jīng)常要做數(shù)據(jù)劃分,以下說法正確的是?A、可以不設(shè)置訓(xùn)練集B、可以不設(shè)置測試集C、可以不設(shè)置驗(yàn)證集D、不確定答案:C212.tensorflow中的concat函數(shù)有什么用途?A、沿著某一維度連結(jié)tensorB、沿著某一維度將tensor分離為num_splittensorsC、對tensor進(jìn)行切片操作D、沿著某維度進(jìn)行序列反轉(zhuǎn)答案:A213.以下四個(gè)選項(xiàng)中,哪個(gè)激活函數(shù)的的輸出在0~1的范圍之間A、reluB、tanhC、LeakyReluD、sigmoid答案:D214.以下幾個(gè)選項(xiàng)中關(guān)于梯度消失的說法描述正確的是哪個(gè)選項(xiàng)?A、通過優(yōu)化算法,處理梯度,可以更快做梯度下降,獲取最優(yōu)解B、由于數(shù)據(jù)處理或者激活函數(shù)選擇不合理等原因,無法獲取梯度,從而不能獲得最優(yōu)解C、由于隱藏層數(shù)量過少,無法獲取梯度,從而不能獲得最優(yōu)解D、通過更多隱藏層,減少梯度迭代,從而更快的進(jìn)行計(jì)算,獲取最優(yōu)解答案:B215.模型中可能會出現(xiàn)擬合的情況,下列選項(xiàng)中關(guān)于擬合說法正確的是?A、過擬合只發(fā)生在理論階段,實(shí)際不會發(fā)生這種情況B、欠擬合是數(shù)據(jù)量過多,造成無法全部計(jì)算的現(xiàn)象C、訓(xùn)練準(zhǔn)確率高,測試準(zhǔn)確率低的情況,數(shù)據(jù)過擬合D、過擬合是指數(shù)據(jù)量大,計(jì)算復(fù)雜的情況答案:C216.以下哪個(gè)技術(shù)可以用于機(jī)器寫詩、機(jī)器閱讀A、深度學(xué)習(xí)B、GANC、自編碼D、遷移學(xué)習(xí)答案:A217.relu是常用的激活函數(shù),它可以將小于()的數(shù)輸出為0A、-1B、0C、1D、x答案:B218.tanh相比sigmoid的優(yōu)勢之處何以體現(xiàn)A、解決了sigmoid輸出為非0中心的問題B、tanh不易飽和C、tanh解決了sigmoid的指數(shù)運(yùn)算D、tanh不會造成梯度消失答案:A219.修正線性函數(shù)指的是哪個(gè)函數(shù)A、sigmoidB、tanhC、reluD、Leakyrelu答案:C220.Relu函數(shù)存在一定的缺陷,以下哪個(gè)激活函數(shù)是對其進(jìn)行的改進(jìn)A、sigmoidB、LeakyreluC、reluD、tanh答案:B221.人工智能近幾年大火,它最早是在什么時(shí)候出現(xiàn)的?A、20世紀(jì)50年代B、20世紀(jì)60年代C、20世紀(jì)70年代D、20世紀(jì)80年代答案:A222.正常的將數(shù)據(jù)集進(jìn)行切分為三個(gè)集合,其中不包括下列哪個(gè)集合?A、測試集B、確認(rèn)集C、驗(yàn)證集D、訓(xùn)練集答案:B223.以下哪個(gè)與LSTM無關(guān)A、遺忘門B、輸入門C、輸出門D、更新門答案:D224.下面哪個(gè)不屬于超參數(shù)?A、學(xué)習(xí)率αB、動量梯度下降的參數(shù)βC、mini-Batch的大小D、輸入圖片大小答案:D225.為模型選擇超參數(shù),選擇了不同的取值,不可以_____?A、選擇對訓(xùn)練集目標(biāo)而言的最優(yōu)解B、對于開發(fā)集而言的最優(yōu)解C、超參搜索過程中最想優(yōu)化的東西D、簡化參數(shù)調(diào)試答案:D226.Batch歸一化操作用于網(wǎng)絡(luò)的什么層?A、輸出層B、輸入層C、無法在隱藏層起作用D、用于輸入層,甚至深度隱藏層的歸一化過程答案:D227.backpropagation算法,其中的backpropagation指的什么方向進(jìn)行傳播?A、反向B、前后向C、全連接D、正向答案:A228.在神經(jīng)網(wǎng)絡(luò)中常使用到的非線性激活函數(shù)sigmoid,該函數(shù)的模型曲線是()?A、X型B、S型C、L型D、U型答案:B229.tensorflow的reshape方法可以對張量起什么用A、插入維度1進(jìn)入一個(gè)tensor中B、改變tensor的形狀C、改變tensor的數(shù)據(jù)類型D、轉(zhuǎn)為32位整型–int32答案:B230.下列是對于Batch歸一化的描述,其中它的流程步驟不包括下列哪個(gè)選項(xiàng)?A、求每個(gè)訓(xùn)練批次數(shù)據(jù)的均值B、求每個(gè)訓(xùn)練批次數(shù)據(jù)的方差C、使用求得的均值和方差對該批次的訓(xùn)練數(shù)據(jù)做歸一化,獲得0-1分布D、求每個(gè)訓(xùn)練批次的和答案:D231.在TensorFlow中的conv2d(a,b,c,d)函數(shù)中有四個(gè)參數(shù),哪個(gè)參數(shù)是被卷積的數(shù)據(jù)?A、bB、aC、cD、d答案:B232.dropout作為常用的函數(shù),它能起到什么作用A、沒有激活函數(shù)功能B、一種正則化方式C、一種圖像特征處理算法D、一種語音處理算法答案:B233.現(xiàn)有一份大小為n的數(shù)據(jù)集,如果采用mini-batch的方式,那么它的大小應(yīng)該是多少A、1B、mC、0D、大于2,小于m答案:A234.tf.expand_dims是什么意思A、改變tensor的形狀B、返回tensor的rankC、插入維度1進(jìn)入一個(gè)tensor中D、返回?cái)?shù)據(jù)的元素?cái)?shù)量答案:C235.實(shí)際的應(yīng)用中會有很多的數(shù)據(jù),下列關(guān)于數(shù)據(jù)劃分后的訓(xùn)練,測試以及驗(yàn)證說法錯(cuò)誤的是哪個(gè)?A、可以直接使用訓(xùn)練集來驗(yàn)證算子的準(zhǔn)確率B、訓(xùn)練集用于算子的擬合C、驗(yàn)證集和測試集用來評判算子的準(zhǔn)確度D、可以不配置驗(yàn)證集答案:A236.使用TensorFlow去定義常量的操作,以下正確得是?A、tensor=tf.constant(1)B、tensor=tf.constant([1,2])C、tensor=tf.constant(-1,shape=[2,3])D、a=tf.constant([1.0,2.0],name="a)答案:D237.以下幾個(gè)機(jī)器學(xué)習(xí)算法中,哪個(gè)算法是比較常用的無監(jiān)督學(xué)習(xí)算法A、聚類B、K-近鄰算法C、回歸算法D、決策樹答案:A238.什么情況下神經(jīng)網(wǎng)絡(luò)模型被稱為深度學(xué)習(xí)模型?A、加入更多層,使神經(jīng)網(wǎng)絡(luò)的深度增加B、有維度更高的數(shù)據(jù)C、當(dāng)這是一個(gè)圖形識別的問題時(shí)D、以上都不正確答案:A239.Adam動態(tài)優(yōu)化器,下列關(guān)于它的說法正確的是?A、強(qiáng)化了RMSprop算法B、強(qiáng)化了動量梯度算法C、同時(shí)使用Momentum和RMSprop算法D、沒有核心答案:C240.tf如何定義常量?A、tensor=tf.constant([1,2])B、tensor=tf.constant(1)C、tensor=tf.constant(-1,shape=[2,3])D、a=tf.constant([1.0,2.0],name="a)答案:D241.以下哪個(gè)超參數(shù)的調(diào)試,對神經(jīng)網(wǎng)絡(luò)最重要?A、mini-Batch的大小B、動量梯度下降的參數(shù)βC、學(xué)習(xí)率αD、隱藏層數(shù)目答案:C242.tf.to_float的作用是什么A、將張量轉(zhuǎn)換為float32類型.B、轉(zhuǎn)為64位浮點(diǎn)類型–float64C、轉(zhuǎn)為32位整型–int32D、轉(zhuǎn)為64位整型–int64答案:A243.以下四個(gè)選項(xiàng)中,哪個(gè)操作不能解決梯度消失的問題A、調(diào)整激活函數(shù)類型B、使用batchnormC、增大隱藏層數(shù)量D、訓(xùn)練值預(yù)處理答案:C244.tensorflow里的函數(shù)con1d是進(jìn)行什么操作A、二維卷積B、一維卷積C、GRU操作D、lstm操作答案:B245.下面哪個(gè)函數(shù)的現(xiàn)狀是S曲線型的A、Sigmoid函數(shù)B、tanh函數(shù)C、ReLUD、cosh答案:C246.tf.slice的作用是什么A、沿著某一維度連結(jié)tensorB、沿著某一維度將tensor分離為num_splittensorsC、對tensor進(jìn)行切片操作D、沿著某維度進(jìn)行序列反轉(zhuǎn)答案:C247.以下哪個(gè)函數(shù)常用于解決二分類問題A、tanhB、sigmoidC、softmaxD、relu答案:B248.在人工智能領(lǐng)域中,提出的一個(gè)重要的什么框架A、機(jī)器學(xué)習(xí)B、深度學(xué)習(xí)C、開源算法D、tensorflow答案:B249.文本糾錯(cuò),機(jī)器翻譯屬于哪個(gè)領(lǐng)域的任務(wù)A、圖像識別B、自然語言C、數(shù)據(jù)挖掘D、不確定答案:B250.以下四個(gè)框架當(dāng)中,在深度學(xué)習(xí)領(lǐng)域應(yīng)用最多的框架是哪個(gè)?A、caffeB、torchC、tensorflowD、mxnet答案:C251.遷移學(xué)習(xí)的英文表示是什么?A、RNNB、CNNC、NLPD、TransferLearning答案:D252.Batch歸一化,在神經(jīng)網(wǎng)絡(luò)中有很強(qiáng)的作用,系列描述中,哪個(gè)選項(xiàng)說的不是它的作用A、減少了隱藏值分布變化的數(shù)量B、減少了輸入值改變的問題C、有輕微的正則化效果D、增加了輸入值改變的問題答案:D253.GAN網(wǎng)絡(luò)的全稱是什么A、生成對抗網(wǎng)絡(luò)B、卷積神經(jīng)網(wǎng)絡(luò)C、循環(huán)神經(jīng)網(wǎng)絡(luò)D、全連接網(wǎng)絡(luò)答案:A254.相比con1d,conv2d的作用是什么A、lstm操作B、一維卷積C、GRU操作D、二維卷積答案:D255.下列哪一項(xiàng)在神經(jīng)網(wǎng)絡(luò)中引入了非線性?A、隨機(jī)梯度下降B、修正線性單元(ReLU)C、卷積函數(shù)D、以上都不正確答案:B256.下面哪個(gè)選項(xiàng)說的不是Batch歸一化的作用A、減少了隱藏值分布變化的數(shù)量B、減少了輸入值改變的問題C、有輕微的正則化效果D、增加了輸入值改變的問題答案:D257.對圖像特征經(jīng)過做幾個(gè)卷積操作后,特征信號會有什么變化:A、減弱B、不變C、增強(qiáng)D、都有可能答案:D258.在進(jìn)行池化的時(shí)候,如果參數(shù)ksize=[1,4,4,1]那么圖像會發(fā)生什么樣的變化A、縮小到1/2B、縮小到1/16C、擴(kuò)大兩倍D、擴(kuò)大四倍答案:B259.LDA中的五個(gè)分布其中的二項(xiàng)分布,是一個(gè)什么分布A、離散的隨機(jī)分布B、連續(xù)的隨機(jī)分布C、連續(xù)的分布D、不確定答案:A260.卷積神經(jīng)網(wǎng)絡(luò)包含如下哪個(gè)概念A(yù)、視野域B、循環(huán)結(jié)構(gòu)C、梯度消失D、以上都不包含答案:A261.tf.conv2d(a,b,c,d)函數(shù)的四個(gè)參數(shù),哪個(gè)參數(shù)表示輸入數(shù)據(jù)?A、bB、aC、cD、d答案:B262.初始學(xué)習(xí)率一般設(shè)置為多大合適A、1000B、10C、100D、0.01答案:D263.知識圖譜用到了哪個(gè)領(lǐng)域的技術(shù)A、計(jì)算機(jī)視覺B、數(shù)據(jù)挖掘C、自然語言處理D、機(jī)器學(xué)習(xí)答案:C264.在圖像的人臉識別中,深度學(xué)習(xí)有哪些應(yīng)用,使用到的是哪個(gè)網(wǎng)絡(luò)結(jié)構(gòu)A、LeNET5B、(CNN:AlexNet)C、VGGD、ResNet答案:B265.以下哪個(gè)與卷積神經(jīng)網(wǎng)絡(luò)無關(guān)A、局部連接B、權(quán)值共享C、池化操作D、多層次結(jié)構(gòu)答案:D266.構(gòu)建神經(jīng)網(wǎng)絡(luò)模型,經(jīng)常會發(fā)生過擬合現(xiàn)象,下列選項(xiàng)中關(guān)于擬合說法正確的是?A、過擬合只發(fā)生在理論階段,實(shí)際不會發(fā)生這種情況B、欠擬合是數(shù)據(jù)量過多,造成無法全部計(jì)算的現(xiàn)象C、過擬合是指數(shù)據(jù)量大,計(jì)算復(fù)雜的情況D、訓(xùn)練準(zhǔn)確率高,測試準(zhǔn)確率低的情況,數(shù)據(jù)過擬合答案:D267.反向傳播指的是哪個(gè)變量的傳遞?A、訓(xùn)練輪次B、批處理數(shù)C、誤差D、網(wǎng)絡(luò)層數(shù)答案:C268.前項(xiàng)算法中,除了需要有聯(lián)合權(quán)重w,還需要有一個(gè)什么函數(shù),才能正常的進(jìn)行計(jì)算A、激活函數(shù)B、正弦函數(shù)C、余弦函數(shù)D、都可以答案:A269.關(guān)于tf.conv2d函數(shù),該方法接收到的張量維度是多大?A、[batch,in_height,in_width,in_channels]B、[Size,in_height,in_width,in_channels]C、[batch,in_width,in_height,in_channels]D、[batch,in_channels,in_height,in_width]答案:A270.以下四個(gè)任務(wù)當(dāng)中LDA可以很好的完成哪個(gè)任務(wù)?A、對圖像進(jìn)行文本B、對圖像進(jìn)行特征提取C、對文檔的主題進(jìn)行分類或聚類D、以上都正確答案:C271.tf.Variable(tf.random_normal([20,10,3,16])),在該操作中,關(guān)于定義的卷積核的高度,下列選項(xiàng)中描述正確的是?A、10B、20C、16D、3答案:B272.下列選項(xiàng)中,關(guān)于激活函數(shù)的描述,說法正確的是哪個(gè)?A、神經(jīng)網(wǎng)絡(luò)中最好的激活函數(shù)是sigmoidB、激活函數(shù)有正則化作用C、dropout是CNN中的激活函數(shù)D、神經(jīng)元輸出后需要給定一個(gè)激活函數(shù)答案:D273.哪個(gè)激活函數(shù)用于類似文本分類的二分類任務(wù)A、tanhB、reluC、softmaxD、sigmoid答案:D274.如果從一個(gè)區(qū)間[a,b],從中隨機(jī)出一個(gè)值y,下列說法中不正確的是?A、取最小值的對數(shù)得到a的值B、取最小值的對數(shù)得到b的值C、取最大值的對數(shù)得到b的值D、取任意值r,則超參數(shù)設(shè)置為10的r次方答案:B275.下面哪一個(gè)說法更能解釋隨機(jī)梯度下降的原理A、隨機(jī)賦值,祈禱它們是正確的B、搜索所有權(quán)重和偏差的組合,直到得到最佳值C、賦予一個(gè)初始值,通過檢查跟最佳值的差值,然后迭代更新權(quán)重D、以上都不正確答案:C276.RNN是什么的簡稱A、全連接網(wǎng)絡(luò)B、卷積神經(jīng)網(wǎng)絡(luò)C、循環(huán)神經(jīng)網(wǎng)絡(luò)D、感知機(jī)網(wǎng)絡(luò)答案:C277.AutoEncoder是什么網(wǎng)絡(luò)和技術(shù)A、自編碼器B、強(qiáng)化學(xué)習(xí)C、遷移學(xué)習(xí)D、循環(huán)神經(jīng)網(wǎng)絡(luò)答案:A278.對于超參數(shù)隨機(jī)取值指的是?A、隨機(jī)選擇標(biāo)尺取值B、隨機(jī)取值就是有效范圍內(nèi)隨機(jī)均勻取值C、選擇合適的標(biāo)尺進(jìn)行取值D、隨機(jī)的進(jìn)行均勻的取值答案:C279.如果網(wǎng)絡(luò)中遇到了梯度爆炸問題,下列選項(xiàng)中哪個(gè)可以很好的解決?A、梯度剪切,正則B、增加擬合數(shù)據(jù)C、增加訓(xùn)練數(shù)據(jù)維度D、增加隱藏層答案:A280.可以如何選擇神經(jīng)網(wǎng)絡(luò)的參數(shù)或超參A、通過常識選擇B、隨機(jī)選擇點(diǎn)來試驗(yàn)超參數(shù)效果C、選擇輸入的參數(shù)即可D、取離散參數(shù)的平均值答案:B281.LDA中的一個(gè)函數(shù)指的是以下哪個(gè)?A、Gibbs采樣B、pLSAC、beta分布D、gamma函數(shù)答案:D282.以下幾個(gè)選項(xiàng)中,哪個(gè)用來處理多類別任務(wù)A、tanhB、softmaxC、sigmoidD、relu答案:B283.tf.cast函數(shù)的返回值數(shù)據(jù)類型是什么A、整數(shù)型B、布爾型C、浮點(diǎn)型D、字符串答案:C284.在預(yù)處理極端,關(guān)于數(shù)據(jù)歸一化的描述正確的哪個(gè)選項(xiàng)A、通過中值和均值進(jìn)行確定B、通過方差和均值確定C、通過平均值和最小值確定D、通過標(biāo)準(zhǔn)差和均值確定答案:B285.關(guān)于梯度消失的解釋,下面哪個(gè)是準(zhǔn)確的?A、通過優(yōu)化算法,處理梯度,可以更快做梯度下降,獲取最優(yōu)解B、由于數(shù)據(jù)處理或者激活函數(shù)選擇不合理等原因,無法獲取梯度,從而不能獲得最優(yōu)解C、由于隱藏層數(shù)量過少,無法獲取梯度,從而不能獲得最優(yōu)解D、通過更多隱藏層,減少梯度迭代,從而更快的進(jìn)行計(jì)算,獲取最優(yōu)解答案:B286.關(guān)于選擇超參數(shù)的范圍,下列選項(xiàng)中描述正確的是?A、隨機(jī)取值可以提升搜索效率B、隨機(jī)取值就是隨機(jī)均勻取值C、范圍就是[0,1]D、隨機(jī)取值對搜索無影響答案:A287.以下哪個(gè)激活函數(shù)經(jīng)常用來解決二分類問題A、tanhB、LeakyReluC、sigmoidD、relu答案:C288.文本分類,情感識別等等屬于以下哪個(gè)選項(xiàng)的子任務(wù)A、數(shù)據(jù)挖掘B、不確定C、圖像識別D、自然語言答案:D289.以下幾個(gè)選項(xiàng)中,哪個(gè)選項(xiàng)指的是“修正線性單元”A、tanhB、LeakyReluC、sigmoidD、relu答案:D290.以下哪個(gè)不屬于無監(jiān)督學(xué)習(xí)A、聚類B、降維C、回歸算法D、PCA答案:C291.以下哪個(gè)函數(shù)表示雙曲正切激活函數(shù)?A、ReluB、sigmoidC、tanhD、sin答案:C292.tf.reshape有什么作用A、插入維度1進(jìn)入一個(gè)tensor中B、改變tensor的形狀C、改變tensor的數(shù)據(jù)類型D、轉(zhuǎn)為32位整型–int32答案:B293.在自然語言中,主要應(yīng)用到的是深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)是以下哪個(gè)A、ANNB、CNNC、RNND、XNN答案:C294.以下哪個(gè)參數(shù)屬于超參數(shù)?A、學(xué)習(xí)率B、激活值C、損失值D、偏置答案:A295.在人工智能領(lǐng)域中,提出的一個(gè)重要的技術(shù)是什么A、機(jī)器學(xué)習(xí)B、深度學(xué)習(xí)C、開源算法D、tensorflow答案:B296.下面哪個(gè)不是常用的激活函數(shù)?A、dropoutB、reluC、sigmoidD、tanh答案:A297.在TensorFlow框架中,如何正確的調(diào)用Adam優(yōu)化器?A、tf.example.AdamOptimizerB、tf.train.AdamOptimizerC、tf.nn.AdamOptimizerD、tf.AdamOptimizer答案:B298.激活函數(shù)也在不斷的更新,以下哪個(gè)激活函數(shù)是在Relu的基礎(chǔ)上優(yōu)化的A、sigmoidB、tanhC、reluD、Leakyrelu答案:D299.tf.Variable(tf.random_normal([20,10,5,16])),在該操作中,關(guān)于定義的卷積核高度是多少?A、10B、6C、16D、20答案:D300.tf.to_double的作用?A、將張量轉(zhuǎn)換為float64類型B、轉(zhuǎn)為32位整型–int32C、轉(zhuǎn)為64位整型–int64D、字符串轉(zhuǎn)為數(shù)字答案:A301.指數(shù)分布的均值的倒數(shù)的共軛先驗(yàn)分布是()A、貝塔分布B、泊松分布C、伽馬分布D、指數(shù)分布答案:B302.以下四個(gè)選項(xiàng)中,哪個(gè)說的是修正線性函數(shù)A、sigmoidB、tanhC、reluD、Leakyrelu答案:C303.以下四個(gè)選項(xiàng)中關(guān)于sigmoid的圖形曲線描述正確的是?A、U型B、M型C、X型D、S型答案:D304.tanh激活函數(shù)也有造成梯度消失等問題和sigmoid相比,()sigmoidA、優(yōu)于B、劣與C、等于D、小于等于答案:A305.自動駕駛是基于哪種技術(shù)提出的A、BP算法B、神經(jīng)網(wǎng)絡(luò)C、前向算法D、NFC答案:A306.以下選項(xiàng)中關(guān)于擬合的問題,說法描述正確的是?A、過擬合的現(xiàn)象是訓(xùn)練集準(zhǔn)確率低,而測試集準(zhǔn)確率高B、欠擬合的現(xiàn)象是訓(xùn)練集和測試集準(zhǔn)確率相近C、盡量不要出現(xiàn)適度擬合,會造成新數(shù)據(jù)準(zhǔn)確率低D、欠擬合是指驗(yàn)證集和測試集的準(zhǔn)確率都無法保證正常業(yè)務(wù)使用答案:D307.google開發(fā)的深度學(xué)習(xí)框架叫什么A、pytorchB、tensorflowC、caffeD、mxnet答案:B308.以下的四個(gè)選項(xiàng)中,哪個(gè)選項(xiàng)不是激活函數(shù)?A、reluB、sigmoidC、tanhD、dropout答案:D309.tanh激活函數(shù)的輸出值在什么區(qū)間A、[0,1]B、[-1,1]C、[-1,0]D、[-0.5,0.5]答案:B310.tf.reverse的正確說法是哪一項(xiàng)?A、沿著某一維度連結(jié)tensorB、沿著某一維度將tensor分離為num_splittensorsC、對tensor進(jìn)行切片操作D、沿著某維度進(jìn)行序列反轉(zhuǎn)答案:D311.tensorflow中的cast方法,返回值的數(shù)據(jù)類型是什么樣的A、整數(shù)型B、布爾型C、浮點(diǎn)型D、字符串答案:C312.CNN中,一般選擇有多個(gè)卷積核是為了什么A、同時(shí)提取多個(gè)圖像的特征B、提取某些圖像多個(gè)特征C、圖像有多個(gè)通道D、與多特征無關(guān)答案:B313.pytorch框架是哪個(gè)公司開發(fā)的A、MITB、facebookC、googleD、apple答案:B314.像sigmoid,relu,tanh等等這類做非線性映射的函數(shù)叫做什么A、非激活B、激活C、極值D、修正線答案:B315.實(shí)際的開發(fā)問題中,需要根據(jù)需求和實(shí)際問題,構(gòu)建相應(yīng)的__?A、架構(gòu)B、流程圖C、數(shù)學(xué)模型D、數(shù)據(jù)集答案:C316.網(wǎng)絡(luò)結(jié)構(gòu)中常用的dropout函數(shù),對其描述正確的是哪個(gè)?A、用于分割數(shù)據(jù)集B、一個(gè)激活函數(shù)C、屬于正則處理D、用于將數(shù)據(jù)樣本多樣化答案:C317.文本分類,會話機(jī)器人等等屬于以下哪個(gè)選項(xiàng)的子任務(wù)A、數(shù)據(jù)挖掘B、不確定C、圖像識別D、自然語言答案:D318.conv2d的作用是什么A、一維卷積B、lstm操作C、GRU操作D、二維卷積答案:D319.前向傳播過程中,除了需要有權(quán)重w,還需要有一個(gè)什么函數(shù)做非線性變換,才能較好的進(jìn)行計(jì)算A、激活函數(shù)B、正弦函數(shù)C、余弦函數(shù)D、都可以答案:A320.關(guān)于對于數(shù)據(jù)切分的問題,以下說法正確的是?A、可以不設(shè)置訓(xùn)練集B、可以不設(shè)置測試集C、可以不設(shè)置驗(yàn)證集D、不確定答案:C321.CNN中設(shè)置多個(gè)卷積核是為了什么目的A、同時(shí)提取多個(gè)圖像的特征B、提取某些圖像多個(gè)特征C、圖像有多個(gè)通道D、與多特征無關(guān)答案:B322.交叉熵函數(shù)是常用的損失函數(shù),它是通過度量兩個(gè)什么分布的差異性A、概率B、矢量C、矩陣信息D、空間答案:A323.LDA屬于一個(gè)什么模型A、語言模型B、詞袋子模型C、預(yù)訓(xùn)練模型D、不確定答案:B324.tf.split是什么意思A、沿著某一維度連結(jié)tensorB、沿著某一維度將tensor分離為num_splittensorsC、對tensor進(jìn)行切片操作D、沿著某維度進(jìn)行序列反轉(zhuǎn)答案:B325.以下幾個(gè)選項(xiàng)中,可以通過哪種方式來選擇參數(shù)或超參A、通過常識選擇B、隨機(jī)選擇點(diǎn)來試驗(yàn)超參數(shù)效果C、選擇輸入的參數(shù)即可D、取離散參數(shù)的平均值答案:B326.如果一個(gè)[a,b]的區(qū)間,從中隨機(jī)出一個(gè)值x,那么下列說法中不正確的是?A、取最小值的對數(shù)得到a的值B、取最小值的對數(shù)得到b的值C、取最大值的對數(shù)得到b的值D、取任意值r,則超參數(shù)設(shè)置為10的r次方答案:B327.在框架TensorFlow下conv2d(),該方法接收到的張量維度是多大?A、[batch,in_height,in_width,in_channels]B、[Size,in_height,in_width,in_channels]C、[batch,in_width,in_height,in_channels]D、[batch,in_channels,in_height,in_width]答案:A328.以下四個(gè)選項(xiàng)中,哪個(gè)函數(shù)的取值范圍在[0~1]A、reluB、tanhC、LeakyReluD、sigmoid答案:D329.TensorFlow內(nèi)置的dropoutAPI是哪個(gè)A、tf.train.dropoutB、tf.dropoutC、tf.dropOutD、tf.nn.dropout答案:D330.TensorFlow作為深度學(xué)習(xí)常用的框架,其中的tf.nn.softmax_cross_entropy_with_logits的作用是做什么的?A、信息熵B、信息元C、logitsD、交叉熵答案:D331.以下哪個(gè)函數(shù)常用于解決多分類問題A、tanhB、sigmoidC、softmaxD、relu答案:C332.BP算法,其中的BP指的怎樣傳播?A、反向B、正向C、前后向D、全連接答案:A多選題1.CNN模型的核心包括下面哪些選項(xiàng)A、局部連接B、權(quán)值共享C、多層次結(jié)構(gòu)D、池化操作答案:ABD2.以下哪個(gè)任務(wù)是NLP中的常見任務(wù)A、文本摘要B、機(jī)器翻譯C、閱讀理解D、以上都不正確答案:ABC3.LDA中包含一個(gè)理念和一個(gè)概念A(yù)、共軛先驗(yàn)B、貝葉斯框架C、二項(xiàng)分布D、gamma函數(shù)答案:AB4.關(guān)于神經(jīng)網(wǎng)絡(luò)的層數(shù)說法,正確的分為哪幾層A、輸入層B、輸出層C、隱藏層D、以上都正確答案:ABCD5.關(guān)于神經(jīng)網(wǎng)絡(luò),由哪幾部分組成A、輸入層B、輸出層C、隱藏層D、以上都正確答案:ABCD6.下列選項(xiàng)中,哪些是比較常用的梯度下降優(yōu)化器?A、dropoutB、動量梯度下降法C、RMSpropD、Adam答案:BCD7.BP算法中最重要的兩個(gè)環(huán)節(jié),分別是什么?A、激勵(lì)傳播B、權(quán)重更新C、信息傳播D、激活函數(shù)答案:AB8.在神經(jīng)網(wǎng)絡(luò)中,單個(gè)神經(jīng)元能解決什么問題A、與B、或C、非D、異或答案:ABC9.以下哪些是CNN的內(nèi)容A、卷積B、池化C、循環(huán)神經(jīng)結(jié)構(gòu)D、以上都不對答案:AB10.以下哪些屬于GRUA、更新門B、重置門C、輸入門D、輸出門答案:AB11.經(jīng)過Batch歸一化的操作會產(chǎn)生相應(yīng)的良性效果,那么為什么會該操作會產(chǎn)生作用A、通過歸一化所有的輸入特征值,以獲得類似范圍的值,加速學(xué)習(xí)B、將參數(shù)歸一化可以減緩學(xué)習(xí)速率C、可以使權(quán)重比你的網(wǎng)絡(luò)更滯后或更深D、可以使權(quán)重比你的網(wǎng)絡(luò)更超前或更深答案:AC12.LightGBM的優(yōu)化方向有哪些A、帶深度限制的Leaf-wise的葉子生長策略B、直方圖做差加速直接C、支持類別特征(CategoricalFeature)D、以上不都是答案:ABC13.pytorch框架可用于解決以下哪些問題A、NLPB、CVC、DMD、都不能答案:ABC14.以下哪些網(wǎng)絡(luò)結(jié)構(gòu)可用于做語料情感分析A、fastTextB、textRNNC、textCNND、以上都不可以答案:ABC15.在tensorflow中reshape函數(shù)其中的參數(shù)有(tensor,shape,name)等等,以下選項(xiàng)中描述正確的是A、函數(shù)的作用是將tensor變換為參數(shù)shape形式B、其中的shape為一個(gè)列表形式C、name可省略D、1所代表的含義是我們不用親自去指定這一維的大小,函數(shù)會自動進(jìn)行計(jì)算答案:ABCD16.下面哪些損失函數(shù)可以作為分類任務(wù)的損失函數(shù)A、信息熵B、概率模型C、最小二乘平方損失D、距離模型答案:ABCD17.從區(qū)間[a,b]中隨機(jī)獲取一個(gè)x值,對于該操作,下列選項(xiàng)中描述正確的有哪些?A、取最小值的對數(shù)得到a的值B、取最小值的對數(shù)得到b的值C、取最大值的對數(shù)得到a的值D、取最大值的對數(shù)得到b的值答案:AD18.下面哪些描述與AI的符號主義有關(guān)?A、又稱邏輯主義B、又稱心理學(xué)派C、基礎(chǔ)理論是數(shù)理邏輯D、是研究生物的答案:ABC19.以下哪些網(wǎng)絡(luò)是NLP中常用的網(wǎng)絡(luò)結(jié)構(gòu)A、RNNB、LSTMC、GRUD、以上都是的答案:ABCD20.LightGBM有什么樣的優(yōu)點(diǎn)A、速度快B、支持分布式C、占用內(nèi)存小D、代碼清晰易懂答案:ABCD21.下列關(guān)于LightGBM有什么優(yōu)點(diǎn),說法正確的是A、更快的訓(xùn)練速度B、更低的內(nèi)存消耗C、更好的準(zhǔn)確率D、分布式支持,可以快速處理海量數(shù)據(jù)答案:ABCD22.下面哪些關(guān)于特征工程正則化的描述是正確的?A、正則化可以防止欠擬合B、relu函數(shù)具有正則化效果C、正則化可以防止過擬合D、dropout具有正則化效果答案:CD23.LightGBM選擇的優(yōu)化方向有哪些A、帶深度限制的Leaf-wise的葉子生長策略B、直方圖做差加速直接C、支持類別特征(CategoricalFeature)D、以上不都是答案:ABC24.深度學(xué)習(xí)在自然語言中的應(yīng)用有哪些A、機(jī)器創(chuàng)作B、個(gè)性化推薦C、文本分類D、情感分析答案:ABCD25.在預(yù)處理階段,我們一般將數(shù)據(jù)集分為哪幾個(gè)類別A、訓(xùn)練集B、驗(yàn)證集C、測試集D、批處理集答案:ABC26.人工智能機(jī)器人AlphaGo戰(zhàn)勝了圍棋大師,它程序中使用到的技術(shù)有哪些?A、決策神經(jīng)網(wǎng)絡(luò)B、評估神經(jīng)網(wǎng)絡(luò)C、歷史經(jīng)驗(yàn)D、線性代數(shù)答案:AB27.Batch歸一化操作的具體流程是怎樣的?A、求每個(gè)訓(xùn)練批次數(shù)據(jù)的均值B、求每個(gè)訓(xùn)練批次數(shù)據(jù)的方差C、使用求得的均值和方差對該批次的訓(xùn)練數(shù)據(jù)做歸一化,獲得0-1分布D、尺度變換和偏移答案:ABCD28.LDA當(dāng)中的Topic個(gè)數(shù)怎么確定A、基于經(jīng)驗(yàn)主觀判斷、不斷調(diào)試、操作性強(qiáng)、最為常用。B、基于困惑度C、使用Log-邊際似然函數(shù)的方法,這種方法也挺常用的。D、基于主題之間的相似度:計(jì)算主題向量之間的余弦距離,KL距離等。答案:ABCD29.以下四個(gè)選項(xiàng)中,哪些說的是LightGBM的優(yōu)點(diǎn)A、更快的訓(xùn)練速度B、更低的內(nèi)存消耗C、更好的準(zhǔn)確率D、分布式支持,可以快速處理海量數(shù)據(jù)答案:ABCD30.關(guān)于如下運(yùn)算:a=tf.Variable([3,4,5])和b=tf.Variable(a),以下描述正確的是A、合法B、非法C、合法但a需要提前初始化D、合法但不夠安全答案:ACD31.關(guān)于LightGBM的優(yōu)點(diǎn),說法正確的是A、更快的訓(xùn)練速度B、更低的內(nèi)存消耗C、更好的準(zhǔn)確率D、分布式支持,可以快速處理海量數(shù)據(jù)答案:ABCD32.下列幾個(gè)優(yōu)化器中,可以跳出局部最優(yōu)的分別有哪些?A、AdamB、MomentumC、RMSpropD、Lasso答案:ABC33.關(guān)于集合外一個(gè)點(diǎn),到該集合的距離,描述正確的是哪些選項(xiàng)A、是該點(diǎn)到集合邊界點(diǎn)的最短距離B、是該點(diǎn)到集合內(nèi)所有點(diǎn)的最短距離C、是該點(diǎn)到集合內(nèi)任意一點(diǎn)的距離D、是該點(diǎn)到集合內(nèi)非邊界點(diǎn)的某點(diǎn)的距離答案:AB34.CNN的池化層包括哪幾種A、卷積B、最大池化C、最小池化D、平均池化答案:BD35.以下四個(gè)選項(xiàng)中,哪些對LightGBM的優(yōu)點(diǎn)說法是準(zhǔn)確的A、更好的準(zhǔn)確率B、分布式支持,可以快速處理海量數(shù)據(jù)C、更快的訓(xùn)練速度D、更低的內(nèi)存消耗答案:ABCD36.LightGBM在哪些地方進(jìn)行了優(yōu)化(區(qū)別XGBoost)?A、基于Histogram的決策樹算法B、帶深度限制的Leaf-wise的葉子生長策略C、直方圖做差加速直接D、支持類別特征(CategoricalFeature)答案:ABCD37.下列幾個(gè)選項(xiàng)當(dāng)中,有哪些是屬于梯度下降的A、BGDB、SGDC、mini-batchD、dropout答案:ABC38.在人工智能中包括三大領(lǐng)域,分別是以下哪些?A、符號主義B、連接主義C、行為主義D、深度學(xué)習(xí)答案:ABC39.常用的池化包含哪兩種A、最小池化B、最大池化C、平均池化D、方差池化答案:BC40.關(guān)于TensorFlow中的語句,tf.variables_initializer以下描述正確的是A、初始化一個(gè)變量B、初始化多個(gè)變量C、初始化全部變量D、初始化常量答案:ABC41.LDA中有四個(gè)分布分別是哪四個(gè)分布A、二項(xiàng)分布B、多項(xiàng)分布C、beta分布D、Dirichlet分布答案:ABCD42.下列選項(xiàng)中,關(guān)于數(shù)據(jù)歸一化描述正確的有哪些?A、更容易收斂得到最優(yōu)解B、權(quán)重值較小C、權(quán)重值大D、無特點(diǎn)答案:AB43.CNN中的pooling手段一般包含哪兩種A、最小池化B、最大池化C、平均池化D、方差池化答案:BC44.在Histogram算法之上,LightGBM還做了哪些優(yōu)化A、帶深度限制的Leaf-wise的葉子生長策略B、直方圖做差加速直接C、支持類別特征(CategoricalFeature)D、不確定答案:ABC45.tf.train.AdamOptimizer(1e-4).minimize(cross_entropy),以下四個(gè)選項(xiàng)中,關(guān)于上述代碼描述正確的是哪些選項(xiàng)A、定義學(xué)習(xí)步長B、優(yōu)化器C、交叉熵?fù)p失函數(shù)D、開始訓(xùn)練答案:ABC46.自然語言的落地成品有哪些A、知識圖譜B、機(jī)器人C、人臉檢測D、推薦系統(tǒng)答案:ABD47.下列選項(xiàng)中關(guān)于tf.nn.SoftMax函數(shù)的描述以下正確的是哪些選項(xiàng)?A、用于多類別分類B、映射到概率空間C、壓縮數(shù)據(jù)D、用于卷積層答案:ABC48.數(shù)據(jù)切分階段中,下列關(guān)于數(shù)據(jù)的訓(xùn)練集和驗(yàn)證集的劃分,描述正確的有哪些?A、不一定需要驗(yàn)證集B、數(shù)據(jù)集數(shù)量較少時(shí),訓(xùn)練集和測試集比例可以是7:3C、任何數(shù)量的數(shù)據(jù)集,都應(yīng)遵守訓(xùn)練集和測試集比例7:3的原則D、大數(shù)據(jù)量的驗(yàn)證集,可以不遵循訓(xùn)練集和測試集比例7:3的原則答案:ABD49.下列損失函數(shù)中,哪些損失函數(shù)可以作為分類任務(wù)的損失函數(shù)A、信息熵B、最小二乘平方損失C、距離模

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論