版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)
文檔簡介
試卷科目:人工智能深度學(xué)習(xí)技術(shù)練習(xí)人工智能深度學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷7)PAGE"pagenumber"pagenumber/SECTIONPAGES"numberofpages"numberofpages人工智能深度學(xué)習(xí)技術(shù)練習(xí)第1部分:單項選擇題,共132題,每題只有一個正確答案,多選或少選均不得分。[單選題]1.Anacoda的中文翻譯是()。A)蟒蛇B)爬蟲C)算法D)矩陣[單選題]2.relu()的結(jié)果是多少A)0B)0.5563543C)10D)1[單選題]3.關(guān)于TensorFlow的描述,以下選項中錯誤的是()。A)TensorFlow是Python語育的一套優(yōu)秀的CU圖形庫B)TensorFlow是谷歌公司基于DistBelief進(jìn)行研發(fā)的第二代人工智能學(xué)習(xí)系統(tǒng)C)Tensor(張遜)指N維數(shù)組,Flow(流)指燕于數(shù)據(jù)流圖的計算D)TensorFlow描述張量從流圖的一端流動到另三端的計算過程[單選題]4.連續(xù)詞袋模型的英文縮寫是A)CBOWB)CBOMC)CCOWD)BBOW[單選題]5.獨(dú)熱編碼描述錯誤的是A)可以對特征使用B)可以對標(biāo)簽使用C)二分類必須做獨(dú)熱D)獨(dú)熱長度和類別數(shù)量一致[單選題]6.如果我們使用了一個過大的學(xué)習(xí)速率會發(fā)生什么()。A)神經(jīng)網(wǎng)絡(luò)快速收斂B)不好說C)都不對D)神經(jīng)網(wǎng)絡(luò)不會收斂[單選題]7.在面向?qū)ο蠓椒ㄖ?一個對象請求另一對象為其服務(wù)的方式是通過哪個選項發(fā)送()。A)調(diào)用語句B)命令C)口令D)消息[單選題]8.損失函數(shù)使用哪個值衡量()。A)最大值B)平均值C)中間值D)均方誤差[單選題]9.()是定義在單個樣本上的,是指一個樣本的誤差A(yù))損失函數(shù)(LossFunction)B)代價函數(shù)(CostFunction)C)目標(biāo)函數(shù)(ObjectFunction)D)范數(shù)[單選題]10.RNN中使用的激活函數(shù)是A)reluB)sigmoidC)tanhD)softmax[單選題]11.二分類sigmoid函數(shù)描述錯誤的是A)輸出的是正類別結(jié)果B)可以做多分類C)可以做激活函數(shù)D)數(shù)值范圍+1到-1[單選題]12.Tf.nn.conv2d(),其中遇到的圖像張量,格式是A)[batch,in_height,in_width,in_channels]B)[Size,in_height,in_width,in_channels]C)[batch,in_width,in_height,in_channels]D)[batch,in_channels,in_height,in_width][單選題]13.關(guān)于mini-batch說法錯誤的是A)指的是批量梯度下降B)適用于樣本量小的數(shù)據(jù)集C)每一次只運(yùn)算部分?jǐn)?shù)據(jù),最后將全部數(shù)據(jù)進(jìn)行運(yùn)算D)適用于樣本量大的數(shù)據(jù)[單選題]14.使用函數(shù)tf.nn.conv2d()主要的目的是()A)增強(qiáng)圖像B)簡化圖像C)特征提取D)圖像處理[單選題]15.批規(guī)范化(BatchNormalization)的好處都有啥?AA)讓每一層的輸入的范圍都大致固定B)它將權(quán)重的歸一化平均值和標(biāo)準(zhǔn)差C)它是一種非常有效的反向傳播(BP)方法D)均不是[單選題]16.已知-大腦是有很多個叫做神經(jīng)元的東西構(gòu)成,神經(jīng)網(wǎng)絡(luò)是對大腦的簡單的數(shù)學(xué)表達(dá)。-每一個神經(jīng)元都有輸入、處理函數(shù)和輸出。-神經(jīng)元組合起來形成了網(wǎng)絡(luò),可以擬合任何函數(shù)。-為了得到最佳的神經(jīng)網(wǎng)絡(luò),我們用梯度下降方法不斷更新模型給定上述關(guān)于神經(jīng)網(wǎng)絡(luò)的描述,什么情況下神經(jīng)網(wǎng)絡(luò)模型被稱為深度學(xué)習(xí)模型?A)加入更多層,使神經(jīng)網(wǎng)絡(luò)的深度增加B)有維度更高的數(shù)據(jù)C)當(dāng)這是一個圖形識別的問題時D)以上都不正確[單選題]17.對于神經(jīng)網(wǎng)絡(luò)中超參數(shù)調(diào)試方法正確的是A)隨機(jī)選擇點(diǎn)來試驗超參數(shù)效果B)當(dāng)你給超參數(shù)取值時,另一個慣例是采用由精細(xì)到粗糙的策略。C)只調(diào)試容易的D)給定默認(rèn)值即可[單選題]18.百度飛槳中訓(xùn)練過程流程的內(nèi)層循環(huán)順序是()。A)數(shù)據(jù)準(zhǔn)備》前向計算》計算損失函數(shù)》執(zhí)行梯度反向傳播B)前向計算》數(shù)據(jù)準(zhǔn)備》計算損失函數(shù)》執(zhí)行梯度反向傳播C)數(shù)據(jù)準(zhǔn)備》前向計算》執(zhí)行梯度反向傳播》計算損失函數(shù)D)前向計算》計算損失函數(shù)》數(shù)據(jù)準(zhǔn)備》執(zhí)行梯度反向傳播[單選題]19.以下最能體現(xiàn)ufunc特點(diǎn)的是()。A)其又稱通用函數(shù)(UniversalB)對ndarray中的每一個元素進(jìn)行逐一操作C)對整個ndarray進(jìn)行操作D)ndarray中的元素是相同類型的[單選題]20.損失函數(shù)的作用是()A)判斷預(yù)測值的真實性B)計算預(yù)測值與真實值的差距C)優(yōu)化預(yù)測值D)以上都不對[單選題]21.在深度學(xué)習(xí)網(wǎng)絡(luò)中,以下哪種技術(shù)不是主要用來做網(wǎng)絡(luò)正則化的?A)dropoutB)參數(shù)共享C)EarlystoppingD)Pooling[單選題]22.輸入大小為64X64的黑白圖像,卷積核5X5,步長為1,填充方式為?VALID?,卷積后圖像尺寸為A)59B)60C)58D)61[單選題]23.下圖中的數(shù)據(jù)是線性可分的么?A)是B)否C)圖片有誤D)可能可以[單選題]24.下列不屬于MLPClassifier對象方法的是()。A)predictB)scoreC)fitD)predict_proba[單選題]25.距離空間有多種多樣,他們的目的是A)度量后比較B)求相關(guān)性C)求信息熵D)構(gòu)成線性空間[單選題]26.對于圖像識別問題(比如識別照片中的貓),神經(jīng)網(wǎng)絡(luò)模型結(jié)構(gòu)更適合解決哪類問題?A)多層感知器B)卷積神經(jīng)網(wǎng)絡(luò)C)循環(huán)神經(jīng)網(wǎng)絡(luò)D)感知器[單選題]27.所有rnn中的門使用()激活函數(shù)處理A)RELUB)sigmoidC)softmaxD)tanh[單選題]28.如果輸入一張3通道的圖像,下面表述方式正確的是:A)model.add(Dense(40,input_dim=[1,3,20,20]))B)model.add(Dense(40,input_dim=[1,20,20,3]))C)model.add(Dense(40,input_dim=[3,1,20,20]))D)model.add(Dense(40,input_dim=[3,1,20,20]))[單選題]29.以下文件操作方法中,不能從train.csv格式文件中讀取數(shù)據(jù)的是()。A)readlineB)readlinesC)readD)seek[單選題]30.Conv2d(x_image,W_conv1)+b_conv)中b_conv1是A)對圖像池化B)偏置項C)激活函數(shù)D)平均[單選題]31.()是一種深度學(xué)習(xí)中減少泛化誤差的正則化方法,主要是通過緩解梯度下降加速網(wǎng)絡(luò)的訓(xùn)練,防止過擬合,降低了參數(shù)初始化的要求。A)L1正則化B)BatchNormalizationC)L2正則化D)DROPOUT[單選題]32.下列函數(shù)能實現(xiàn)對比兩個矩陣是否相等,或者向量是否相等的元素的函數(shù)是哪一個?A)c=tf.greater(a,b)B)a=tf.subtract(a,b)C)b=tf.equal(a,b)D)d=tf.matmul(a,b)[單選題]33.以下關(guān)于深度神經(jīng)網(wǎng)絡(luò)的說法中錯誤的是A)使用梯度裁剪(gradientclipping)有助于減緩梯度爆炸問題B)若batchsize過小,batchnormalization的效果會出現(xiàn)退化C)在使用SGD訓(xùn)練時,若訓(xùn)練loss的變化逐漸平緩不再明顯下降時,通??梢酝ㄟ^減小learningrate的方式使其再進(jìn)一步下降D)增大L2正則項的系數(shù)有助于減緩梯度消失問題[單選題]34.當(dāng)我們將input_shape指定為(300,300,3)時,這意味著什么?A)將有300匹馬和300名人類,分3批B)將有300張圖片,每個尺寸300,分3批C)每個圖像將為300x300像素,有3個通道D)每個圖像將為300x300像素,并且應(yīng)該有3個卷積層[單選題]35.pytorch中可視化參數(shù)分布:A)writer.add_graphB)writer.add_scalarC)writer.add_histogramD)writer.add_figure[單選題]36.merge函數(shù)用于主鍵合并,下列說法錯誤的是()。A)on參數(shù)用于指定主鍵B)sort參數(shù)為True時將對合并的數(shù)據(jù)進(jìn)行排序C)suffixes參數(shù)用于對重疊列加尾綴D)join參數(shù)表示表連接的方式[單選題]37.()翻譯為?VanishingGradientProblem?,這種問題通常是基于梯度的方法訓(xùn)練神經(jīng)網(wǎng)絡(luò)的過程中才會出現(xiàn)的。A)梯度消失問題B)卷積C)池化D)全連接[單選題]38.以下選項中那個是TensorFlow的計算模型A)計算圖B)張量C)會話D)變量[單選題]39.哪個網(wǎng)絡(luò)模型首次使用relu激活函數(shù)A)LeNetB)AlexNetC)ResNetD)Inception[單選題]40.Tf.convert_to_tensor用于將不同()變成張量:比如可以讓數(shù)組變成張量、也可以讓列表變成張量。A)數(shù)據(jù)B)變量C)高度D)范數(shù)[單選題]41.可以幫助將數(shù)據(jù)大小縮小的方式是A)卷積層B)池化層C)全連接層D)激活層[單選題]42.最大池化max_pool有幾個參數(shù),如value,ksize參數(shù),strides參數(shù),padding參數(shù),name=None參數(shù),用于池化窗口的參量是那一個?A)valueB)ksizeC)stridesD)padding[單選題]43.Tf.nn.dropout是TensorFlow里面為了防止或減輕過擬合而使用的函數(shù),它一般用在()A)卷積層B)全連接層C)池化層D)激活函數(shù)層[單選題]44.神經(jīng)網(wǎng)絡(luò)中參數(shù)的調(diào)試不包括A)學(xué)習(xí)率αB)動量梯度下降的參數(shù)βC)mini-Batch的大小D)輸入圖片大小[單選題]45.在數(shù)學(xué)模型開發(fā)過程中,經(jīng)常會使用例如數(shù)學(xué)符號、數(shù)學(xué)式子以及()來抽象和描述該模型A)范數(shù)B)程序或圖形C)卷積D)池化[單選題]46.resnet和Inception使用()代替全連接處理A)平均池化B)最大池化C)1*1卷積D)3*3卷積[單選題]47.深度學(xué)習(xí)典型應(yīng)用:自然語言處理主要指應(yīng)用了()神經(jīng)網(wǎng)絡(luò)A)ANNB)CNNC)RNND)XNN[單選題]48.考慮某個具體問題時,你可能只有少量數(shù)據(jù)來解決這個問題。不過幸運(yùn)的是你有一個類似問題已經(jīng)預(yù)先訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)??梢杂孟旅婺姆N方法來利用這個預(yù)先訓(xùn)練好的網(wǎng)絡(luò)?A)把除了最后一層外所有的層都凍結(jié),重新訓(xùn)練最后一層B)對新數(shù)據(jù)重新訓(xùn)練整個模型C)對每-層模型進(jìn)行評估,選擇其中的少數(shù)來用D)只對最后幾層進(jìn)行調(diào)參(finetune)[單選題]49.我們會發(fā)現(xiàn)累乘會導(dǎo)致激活函數(shù)導(dǎo)數(shù)的累乘,進(jìn)而會導(dǎo)致?()?和?梯度爆炸?現(xiàn)象的發(fā)生A)梯度消失B)梯度上升C)梯度下降D)梯度反向[單選題]50.Tensorflow.global_variables_initializer()的作用是什么?A)始化列表中的變量B)局部變量初始化C)初始化所有的變量(GraphKeys.VARIABLES)D)不清楚[單選題]51.縮小圖像尺寸后,訓(xùn)練結(jié)果有所不同。為什么?A)圖片的信息變少了B)我們刪除了一些卷積以處理較小的圖像C)圖像中壓縮了更多信息D)訓(xùn)練更快[單選題]52.同一組云資源需要被多個不同賬戶控制時,用戶可以使用()管理對云資源的訪問權(quán)限。A)策略控制B)安全組C)安全管理D)賬戶管理[單選題]53.執(zhí)行后查看Python版本的是()。A)importB)importC)importD)import[單選題]54.你認(rèn)為下面那個命令是驗證paddle安裝成功的()。A)pythonB)importC)pythonD)python[單選題]55.compile函數(shù)中沒有以下哪一個參數(shù)A)迭代次數(shù)B)優(yōu)化算法C)評估指標(biāo)D)損失值[單選題]56.通常說的范數(shù)它是具有()的概念的函數(shù)A)長度B)刻度C)距離D)范數(shù)[單選題]57.關(guān)于Python語言和人工智能,以下哪個說法不正確?()。A)人工智能算法在計算機(jī)底層的并行和加速都采用Python語言實現(xiàn)B)人工智能(機(jī)器學(xué)習(xí)和深度學(xué)習(xí))框架基本都采用Python語言開發(fā)C)掌握"人工智能應(yīng)用"能力,必須學(xué)習(xí)并掌握Python語言D)Python是支撐"人工智能應(yīng)用"的主流語言[單選題]58.當(dāng)練一個神經(jīng)網(wǎng)絡(luò)來作圖像識別任務(wù)時,通常會繪制一張訓(xùn)練集誤差和交叉訓(xùn)練集誤差圖來進(jìn)行調(diào)試。在上圖中,最好在哪個時間停止訓(xùn)練?CA)DB)AC)CD)B[單選題]59.RNN的關(guān)鍵點(diǎn)之一就是他們可以用來連接()的信息到當(dāng)前的任務(wù)上A)先前B)之后C)丟失D)LSTM[單選題]60.人工智能是()的一個分支,它企圖了解智能的實質(zhì),并生產(chǎn)出一種新的能以人類智能相似的方式做出反應(yīng)的智能機(jī)器A)生物醫(yī)學(xué)B)計算機(jī)科學(xué)C)數(shù)學(xué)D)文學(xué)[單選題]61.神經(jīng)網(wǎng)絡(luò)LenNet-5共有7層(不包括輸入層),主要有2個()、2個下抽樣層(池化層)、3個全連接層3種連接方式A)輸入層B)卷積層C)池化層D)FC層[單選題]62.那個命令等價于等價于在命令行中執(zhí)行tensorboard--logdir./data/tensorboardA)notebook.start("--logdir./data/tensorboard")B)notebook.list()C)load_exttensorboardD)都不是[單選題]63.卷積中控制步長的參數(shù)是A)strideB)kerner_sizeC)in_channelsD)out_channels[單選題]64.在輸出層不能使用以下哪種激活函數(shù)來分類圖像?CA)sigmoidB)TanhC)ReLUD)If(x>5,1,0)[單選題]65.學(xué)習(xí)速率的設(shè)置()。A)越大越好B)越小越好C)隨機(jī)設(shè)置D)看情況調(diào)整[單選題]66.閱讀以下文字:假設(shè)我們擁有一個已完成訓(xùn)練的、用來解決車輛檢測問題的深度神經(jīng)網(wǎng)絡(luò)模型,訓(xùn)練所用的數(shù)據(jù)集由汽車和卡車的照片構(gòu)成,而訓(xùn)練目標(biāo)是檢測出每種車輛的名稱(車輛共有10種類型)?,F(xiàn)在想要使用這個模型來解決另外一個問題,問題數(shù)據(jù)集中僅包含一種車(福特野馬)而且標(biāo)變?yōu)槎ㄎ卉囕v在照片中的位置。BA)絡(luò)一,結(jié)所有然后重新訓(xùn)練B)網(wǎng)絡(luò)中最層進(jìn)行調(diào),同時將最后一層(分類層)更改為回歸層C)使用新的數(shù)據(jù)集重新訓(xùn)練模型D)所有答案均不對[單選題]67.pytorch導(dǎo)入numpy數(shù)據(jù)的方式A)from_numpyB)into_numpyC)numpyD)data.numpy[單選題]68.想象一下,你有一個28x28的圖片,并使用輸入深度為3和輸出深度為8在上面運(yùn)行一個3x3的卷積神經(jīng)網(wǎng)絡(luò)。注意,步幅padding是1,你正在使用相同的填充(padding)。當(dāng)使用給定的參數(shù)時,輸出特征圖的尺寸是多少?A)28寬、28高、8深B)13寬、13高、8深C)28寬、13高、8深D)13寬、28高、8深[單選題]69.sparse_categorical_crossentropy屬性的使用場景是:A)回歸類型問題B)邏輯回歸處理C)多分類,標(biāo)簽沒有經(jīng)過獨(dú)熱處理D)多分類,標(biāo)簽經(jīng)過獨(dú)熱處理[單選題]70.關(guān)于通道理解錯誤的是A)單通道為灰度圖B)卷積后的通道越多,效果越好C)彩色圖進(jìn)行卷積處理只能是三通道D)彩色圖是三通道[單選題]71.假定你在神經(jīng)網(wǎng)絡(luò)中的隱藏層中使用激活函數(shù)X。在特定神經(jīng)元給定任意輸入,你會得到輸出「-0.0001」。X可能是以下哪一個激活函數(shù)?A)ReLUB)tanhC)SIGMOIDD)以上都不是[單選題]72.pytorch四舍五入的函數(shù)是A)roundB)floorC)ceilD)trunc[單選題]73.數(shù)據(jù)管道從文件夾獲取數(shù)據(jù)的方式是:A)from_tensor_slicesB)flow_from_directoryC)make_csv_datasetD)list_files[單選題]74.Tf在圖像處理的4維度張量,按照次序,它的意義是:A)batch、height、weight、channelB)height、weight、channel,batchC)batch、height、width、channelD)channel、height、weight、batch[單選題]75.下列有關(guān)循環(huán)神經(jīng)網(wǎng)絡(luò)中的Embedding層的描述,錯誤的是()A)Fmbedding層通常用在神經(jīng)網(wǎng)絡(luò)的第一層。B)Embedding層將正整數(shù)(索引)轉(zhuǎn)換為固定大小的向量。C)mbedding層后得到的密集向量的每個元素只能是0或!。D)若Embedding層的輸入的大小為(batchsizeinputlength),則輸出的大小為(batchsize,inputlength,outputdim),outputdim是密集向量的維數(shù)。[單選題]76.假設(shè)在訓(xùn)練中我們突然遇到了一個問題,在幾次循環(huán)之后,誤差瞬間降低你認(rèn)為數(shù)據(jù)有問題,于是你畫出了數(shù)據(jù)并且發(fā)現(xiàn)也許是數(shù)據(jù)的偏度過大造成了這個問題。你打算怎么做來處理這個問題?A)對數(shù)據(jù)做歸一化B)對數(shù)據(jù)取對數(shù)變化C)都不對D)對數(shù)據(jù)做主成分分析(PCA)和歸一化[單選題]77.對一個概率空間,進(jìn)行多種劃分,其信息熵是A)一定相等B)一定不等C)不確定無關(guān)聯(lián)D)互有關(guān)聯(lián)[單選題]78.語句euclideanmetric的意思是?A)歐幾里得B)歐幾里得度量C)歐幾里得范數(shù)D)歐幾里得空間[單選題]79.梯度消失的現(xiàn)象是A)導(dǎo)數(shù)為0B)參數(shù)不再更新C)達(dá)到最優(yōu)梯度D)到達(dá)最優(yōu)解[單選題]80.Dropout包括在訓(xùn)練中每次更新時,將輸入單元的按比率隨機(jī)設(shè)置為0,這有助于防止()。A)噪聲B)欠擬合C)過擬合D)漂移[單選題]81.什么是卷積?A)縮小圖像的技術(shù)B)放大圖像的技術(shù)C)提取圖像特征的技術(shù)D)過濾掉不需要的圖像的技術(shù)[單選題]82.Tf.slice函數(shù)作用是:從tf的一個張量中,A)取出部分張量數(shù)據(jù)B)取出矩陣C)取出數(shù)D)取出向量[單選題]83.占位符實質(zhì)上也是一種A)常量B)變量C)函數(shù)D)模型[單選題]84.pytorch代碼中:model=nn.Linear(1,1,bias=True),第一個參數(shù)代表的是A)神經(jīng)元數(shù)量B)輸入的特征數(shù)量C)層數(shù)D)以上都不對[單選題]85.交叉熵作為()可以衡量p與q的相似性。A)損失函數(shù)B)激活函數(shù)C)sigmoid函數(shù)D)RELU函數(shù)[單選題]86.下列關(guān)于Tensorflow說法錯誤的是A)是一款神經(jīng)網(wǎng)絡(luò)的Python外部結(jié)構(gòu)包B)可以繪制計算結(jié)構(gòu)圖C)由Facebook進(jìn)行開發(fā)D)可以把編輯好的文件轉(zhuǎn)換成更高效的C++,并在后端運(yùn)行[單選題]87.在Keras中有兩類主要的模型:Sequential順序模型和使用函數(shù)式API的Model類模型。這些模型有許多共同的方法和屬性,其中?以JSON字符串的形式返回模型的表示?的方法是:A)model.to_json()B)model.to_yaml()C)model.get_weights()D)model.get_config()[單選題]88.使用CNN處理數(shù)據(jù)時,數(shù)據(jù)以()維的方式存在A)1B)2C)3D)4[單選題]89.模型順序簡單,最使用使用()方式創(chuàng)建模型A)SequentialB)函數(shù)式API創(chuàng)建任意結(jié)構(gòu)模型C)Model子類化創(chuàng)建自定義模型D)自定義函數(shù)[單選題]90.屬于百度飛槳的開發(fā)套件()。A)PaddleClasB)PaddleC)PaddleSlimD)Paddle.js[單選題]91.()方法是2D卷積層(例如對圖像的空間卷積)。A)con2DB)image2DC)filter2DD)conv2D[單選題]92.如果我將dropout參數(shù)設(shè)置為0.2,我將丟失多少個節(jié)點(diǎn)?A)其中20%B)其中2%C)未經(jīng)訓(xùn)練的20%D)未經(jīng)訓(xùn)練的2%[單選題]93.能消除過擬合的方法是A)線性化B)非線性化C)歸一化D)正則化[單選題]94.Tf.cast(x,tf.float32)將x類型轉(zhuǎn)化成A)返回整數(shù)值B)返回布爾值C)返回浮點(diǎn)值D)返回字符[單選題]95.于Python的全局變量和局部變量,以下選項中描述錯誤的是()。A)局部變量指在函數(shù)內(nèi)部使用的變量,當(dāng)函數(shù)退出時,變量依然存在,下次函數(shù)調(diào)用可以繼續(xù)使用B)全局變量指在函數(shù)之外定義的變量,-般沒有縮進(jìn),在程序執(zhí)行全過程有效C)使用global保留字聲明簡單數(shù)據(jù)類型變量后,該變量作為全局變量使用D)簡單數(shù)據(jù)類型變量無論是否與全局變量重名,僅在函數(shù)內(nèi)部創(chuàng)建和使用,函數(shù)退出后變量被釋放[單選題]96.科學(xué)計算包PyTorch是由()公司主持開發(fā)的。A)百度B)FacebookC)AmazonD)Google[單選題]97.數(shù)據(jù)處理的最小單位是()。A)數(shù)據(jù)B)數(shù)據(jù)結(jié)構(gòu)C)數(shù)據(jù)元素D)數(shù)據(jù)項[單選題]98.Tensorflow.nn.conv2d(batch,in_height,in_width,in_channels),其中參數(shù)in_channels表示的是A)卷積核B)圖像數(shù)C)步長D)通道數(shù)[單選題]99.非常經(jīng)典的LeNet-5神經(jīng)網(wǎng)絡(luò)其FC層處理完成以后,輸出的結(jié)果會再經(jīng)過那一個激活函數(shù)輸出()?A)RelUB)sigmoidC)tanhD)sin[單選題]100.彩色圖片的通道數(shù)為()A)1B)2C)3D)4[單選題]101.數(shù)學(xué)建模工作,首先要對目標(biāo)事物進(jìn)行(),然后再進(jìn)行下一步工作。A)度量化B)抽象化C)具體化D)理想化[單選題]102.GRU獨(dú)有的是A)遺忘門B)輸入門C)輸出門D)更新門[單選題]103.深度神經(jīng)網(wǎng)絡(luò)的縮寫是?A)CNNB)RNNC)SNND)DNN[單選題]104.關(guān)于擬合說法正確的是A)過擬合只發(fā)生在理論階段,實際不會發(fā)生這種情況B)欠擬合是數(shù)據(jù)量過多,造成無法全部計算的現(xiàn)象C)訓(xùn)練準(zhǔn)確率高,測試準(zhǔn)確率低的情況,數(shù)據(jù)過擬合D)過擬合是指數(shù)據(jù)量大,計算復(fù)雜的情況[單選題]105.下圖顯示了訓(xùn)練過的3層卷積神經(jīng)網(wǎng)絡(luò)準(zhǔn)確度,與參數(shù)數(shù)量(特征核的數(shù)量)的關(guān)系。從圖中趨勢可見,如果增加神經(jīng)網(wǎng)絡(luò)的寬度,精確度會增加到一個特定閾值后,便開始降低。造成這一現(xiàn)象的可能原因是什么?CA)即使增加卷積核的數(shù)量,只有少部分的核會被用作預(yù)測B)增時,神經(jīng)網(wǎng)絡(luò)預(yù)測能力(Power)會降低C)當(dāng)卷積核數(shù)量增加時,導(dǎo)致過擬合D)以上都不正確[單選題]106.將E-R圖轉(zhuǎn)換為關(guān)系模式時,可以表示實體與聯(lián)系的是()。A)屬性B)域C)關(guān)系D)鍵[單選題]107.四維張量一般用來表示A)灰度圖B)彩色圖C)視頻D)時間[單選題]108.現(xiàn)實世界中,信息傳播的速度,是以()數(shù)量級進(jìn)行A)線性B)冪函數(shù)C)指數(shù)D)常數(shù)[單選題]109.在不使用輔助庫的情況下,Matplotlib不能繪制的圖形是()。A)箱線圖B)折線圖C)3D圖D)條形圖[單選題]110.早期的機(jī)器學(xué)習(xí)算法中,如果有兩個超參數(shù),通常通過什么方式來選擇參數(shù)A)網(wǎng)格中取樣點(diǎn),然后系統(tǒng)的研究這些數(shù)值B)比較參數(shù)的大小C)對參數(shù)進(jìn)行迭代選擇D)對參數(shù)進(jìn)行平均[單選題]111.損失函數(shù)求導(dǎo)的方法是()。A)微分B)積分C)差分D)微積分[單選題]112.為了屏蔽一些不必要的警告和錯誤,常使用編程語句例如os.environ['TF_CPP_MIN_LOG_LEVEL']='2'主要作用是屏蔽什么?A)警告B)錯誤C)警告和錯誤D)反匯編過程[單選題]113.隨機(jī)旋轉(zhuǎn)的函數(shù)是A)RandomHorizontalFlip()B)RandomVerticalFlip()C)RandomRotationD)RandomCrop[單選題]114.被稱為LSTM低配的神經(jīng)單元是A)rnnB)cnnC)gruD)SimpleRNN[單選題]115.LSTM中,哪個門的作用是?確定輸出,把前面的信息保存到隱層中去??A)輸入門B)遺忘門C)輸出門D)更新門[單選題]116.tensorboard的默認(rèn)端口號是A)8000B)8080C)6006D)6000[單選題]117.在貝努力實驗是()的理論基礎(chǔ)A)交叉熵?fù)p失函數(shù)B)最小二乘損失函數(shù)C)與二項式分布有關(guān)D)與信息量有關(guān)[單選題]118.面部識別軟件還有其他幾個用途:()、取款身份驗證、計算機(jī)安全等A)消除投票欺詐B)身份證認(rèn)證C)互聯(lián)網(wǎng)D)銀行[單選題]119.在jupyternotebook中使用()以交互模式打開獨(dú)立的GUI窗口,對同一個figure的繪制都自動刷新到對應(yīng)的GUI窗口A)%matplotlibinlineB)matplotlibinlineC)%mptinlineD)%inline[單選題]120.如果從python一側(cè),想得到tf的節(jié)點(diǎn)S對應(yīng)的值,需要下列:A)A=tf.run(S)B)A=S.valueC)A=S.eval()D)tf.assign(A,S)[單選題]121.在深度神經(jīng)網(wǎng)絡(luò)中,全連接層的作用是A)濾波B)One-hot處理C)用于特征提取D)用于分類[單選題]122.Python機(jī)器學(xué)習(xí)方向的第三方庫是()。A)requesisB)TensorFlowC)scipyD)pandas[單選題]123.經(jīng)典的網(wǎng)絡(luò)LeNet-5第七層是全連接層Output.這個層共有10個節(jié)點(diǎn)分別代表輸出數(shù)字范圍是()A)0和9B)0*9C)0到9D)0到10[單選題]124.神經(jīng)網(wǎng)絡(luò)模型(NeuralNetwork)因受人類大腦的啟發(fā)而得名,神經(jīng)網(wǎng)絡(luò)由許多神經(jīng)元(Neuron)組成,每個神經(jīng)元接受一個輸入,對輸入進(jìn)行處理后給出一個輸出。請問下列關(guān)于神經(jīng)元的描述中,哪一項是正確的?A)每個神經(jīng)元可以有多個輸入和一個輸出B)每個神經(jīng)元可以有一個輸入和多個輸出C)每個神經(jīng)元可以有多個輸入和多個輸出D)以上都是[單選題]125.pytorch中構(gòu)建模型最常見的方式為:A)繼承nn.Module基類構(gòu)建自定義模型B)使用nn.Sequential按層順序構(gòu)建模型C)繼承nn.Module基類構(gòu)建模型并輔助應(yīng)用模型容器進(jìn)行封裝(nn.Sequential,nn.ModuleList,nn.ModuleDict)D)使用model直接處理[單選題]126.動量優(yōu)化算法的特點(diǎn)是A)如果梯度同方向速度會越來越快B)梯度可以最快速度迭代到最優(yōu)解C)學(xué)習(xí)率不斷衰減D)沒有方法可以越過鞍點(diǎn)[單選題]127.對于正則化函數(shù)dropout描述正確的是A)直接刪除神經(jīng)元B)讓神經(jīng)元隨機(jī)失活C)dropout過擬合效果有限D(zhuǎn))只能使用在CNN網(wǎng)絡(luò)中[單選題]128.判斷當(dāng)前時間步信息是否存儲入狀態(tài)的門是:A)遺忘門B)輸入門C)輸出門D)更新門[單選題]129.Adagrad優(yōu)化器缺點(diǎn)是:A)學(xué)習(xí)率自動更新,隨著更新次數(shù)增加,學(xué)習(xí)率隨之變慢。B)需要維護(hù)兩個超參數(shù)C)分母會不斷累積,這樣學(xué)習(xí)率就會后所并最終變得非常小,算法會失去效用。D)迭代次數(shù)越多,學(xué)習(xí)率越大[單選題]130.Tf語句y=tf.multiply(a,B,的意思是A)構(gòu)造一個變量B)構(gòu)造一個op(操作)C)構(gòu)造一個任務(wù)D)構(gòu)造一個函數(shù)[單選題]131.用距離空間實現(xiàn)的分類問題,一般:A)需要權(quán)重訓(xùn)練B)不需要權(quán)值訓(xùn)練C)不能分類D)需要選定特殊距離空間[單選題]132.關(guān)于import引用,以下選項中描述錯誤的是()A)使用B)可以使用C)使用D)importE)<classF)<classG)<classH)<class第2部分:多項選擇題,共41題,每題至少兩個正確答案,多選或少選均不得分。[多選題]133.使用relu激活函數(shù)的網(wǎng)絡(luò)結(jié)構(gòu)有A)LeNetB)AlexNetC)ResNetD)Inception[多選題]134.深度學(xué)習(xí)訓(xùn)練中,包含以下步驟;A)準(zhǔn)備樣本集合B)前向傳遞,求出lossC)求出反向的梯度dYD)按照梯度dY,確定的更新參數(shù),更新X,繼續(xù)循環(huán)[多選題]135.能實現(xiàn)總體加和或平均的函數(shù)分別是:A)tf.reduce_sumB)tf.multiplyC)tf.reduce_meanD)tf.norm[多選題]136.Batch歸一化步驟A)求每個訓(xùn)練批次數(shù)據(jù)的均值B)求每個訓(xùn)練批次數(shù)據(jù)的方差C)使用求得的均值和方差對該批次的訓(xùn)練數(shù)據(jù)做歸一化,獲得0-1分布D)尺度變換和偏移[多選題]137.遷移學(xué)習(xí)是一種機(jī)器學(xué)習(xí)的方法,包含以下兩種開發(fā)方法?A)開發(fā)模型的方法B)預(yù)訓(xùn)練模型的方法C)數(shù)據(jù)清洗D)似然變換[多選題]138.()可以使用writer.add_histogramA)損失B)評估指標(biāo)C)權(quán)重D)截距[多選題]139.在一個概率空間,經(jīng)過不同劃分后,A)信息熵不同B)構(gòu)成新概率空間C)信息熵不變D)不可能有多種劃分[多選題]140.Mini-batch比較好的取值有A)16B)32C)64D)128[多選題]141.如果?connectionism?是AI三大主義之一,則對connectionism描述正確的有()A)基礎(chǔ)理論是神經(jīng)網(wǎng)絡(luò)B)深度學(xué)習(xí)屬于連接主義C)又稱仿生學(xué)派D)產(chǎn)生在20世紀(jì)50年代產(chǎn)生[多選題]142.以下哪些框架可以用于深度學(xué)習(xí)領(lǐng)域A)caffeB)torchC)tensorflowD)mxnet[多選題]143.如果是填充后求卷積,圖像尺寸不變化A)以0填充B)填充厚度為卷積核厚度減1的一半C)步長為1D)圖像尺寸變小[多選題]144.通常所用的函數(shù),可以描述為?A)一個集合B)一個映射C)一個概率空間D)一個線性空間[多選題]145.目前,深度學(xué)習(xí)主要包括()?A)前饋神經(jīng)網(wǎng)絡(luò)B)卷積神經(jīng)網(wǎng)絡(luò)C)循環(huán)神經(jīng)網(wǎng)絡(luò)D)對抗神經(jīng)網(wǎng)絡(luò)[多選題]146.在深度學(xué)習(xí)中,從結(jié)構(gòu)上說,卷積神經(jīng)網(wǎng)絡(luò)由()和()層構(gòu)成A)卷積層B)全連接層C)圖像濾波層D)邊緣提取層[多選題]147.計算圖創(chuàng)建中包含的流程有A)創(chuàng)建日志B)開啟autograph跟蹤C(jī))執(zhí)行autographD)將計算圖信息寫入日志[多選題]148.程序語句tf.nn.dropout(x,keep_prob,noise_shape=None,seed=None,name=None)正確的描述為?A)第一個參數(shù)x:指輸入。train的時候才是dropout起作用的時候B)第二個參數(shù)keep_prob:設(shè)置神經(jīng)元被選中的概率,在初始化時keep_prob是一個占位符C)noise_shape:干擾形狀。此字段默認(rèn)是None,表示第一個元素的操作都是獨(dú)立D)第五個參數(shù)name:指定該操作的名字[多選題]149.比alexnet網(wǎng)絡(luò)性能好的網(wǎng)絡(luò)有A)lenetB)alexnetC)resnetD)inception[多選題]150.對于矩陣A可以求逆,那么A必須A)是方陣B)行列式不為零C)任意矩陣D)行列式為1[多選題]151.隨機(jī)梯度下降的特點(diǎn)是:A)mini-batch大小為1B)每次迭代有可能原理最優(yōu)解C)永遠(yuǎn)不會收斂D)不能使用向量化加速[多選題]152.語句tf.nn.dropout(h_fc1,keep_prob)的意義是A)停止某些節(jié)點(diǎn)更新B)保留百分率為keep_prob的節(jié)點(diǎn)更新C)在全鏈接層有效D)可以停止任意層節(jié)點(diǎn)更新[多選題]153.被譽(yù)為近代人工智能領(lǐng)域的三駕馬車的人物是:A)楊立坤YanLeCuB)辛頓C)BenGioD)比爾·蓋茨[多選題]154.反向傳播算法BP主要由兩個環(huán)節(jié)()()反復(fù)循環(huán)迭代,直到網(wǎng)絡(luò)的對輸入的響應(yīng)達(dá)到預(yù)定的目標(biāo)范圍為止。A)激勵傳播B)權(quán)重更新C)消息傳播D)激活函數(shù)[多選題]155.神經(jīng)風(fēng)格遷移過程包括?A)創(chuàng)建網(wǎng)絡(luò)B)損失函數(shù)最小化C)梯度下降過程LOSS最小化D)數(shù)據(jù)清洗[多選題]156.人工智能目前也分為:()A)強(qiáng)人工智能B)微型人工智能C)弱人工智能D)大型人工智能[多選題]157.dropout描述正確的是A)將部分?jǐn)?shù)據(jù)永久失活B)訓(xùn)練時數(shù)據(jù)失活,測試時數(shù)據(jù)激活C)每次運(yùn)算失活的神經(jīng)元不同D)屬于正則化處理方式[多選題]158.屬于卷積的參數(shù)有A)strideB)kerner_sizeC)in_channelsD)out_channels[多選題]159.神經(jīng)網(wǎng)絡(luò)中超參數(shù)調(diào)試方法A)隨機(jī)選擇點(diǎn)來試驗超參數(shù)效果B)當(dāng)你給超參數(shù)取值時,另一個慣例是采用由粗糙到精細(xì)的策略。C)只調(diào)試容易的D)給定默認(rèn)值即可[多選題]160.Logistic回歸又稱logistic(),是一種廣義的(),常用于()等領(lǐng)域A)回歸分析B)線性回歸分析模型C)數(shù)據(jù)挖掘,經(jīng)濟(jì)預(yù)測D)疾病自動診斷[多選題]161.卷積操作的主要目的就是對圖像進(jìn)行()A)增強(qiáng)B)降維C)理解D)特征提取[多選題]162.定義卷積核W_conv1=weight_variable([5,5,5,10])后A)尺寸5X5B)輸入通道5C)輸出通道5D)有10個卷積核[多選題]163.Sigmoid激活函數(shù)的用途是:A)解決非線性分類B)數(shù)據(jù)壓縮至(0,1)C)是核函數(shù)D)解決線性分類問題[多選題]164.哪些是tensorflow的算術(shù)運(yùn)算函數(shù)?A)add()B)subtract()C)multiply()D)div()[多選題]165.pytorch中l(wèi)stm的輸出值有A)每個時間步的預(yù)測B)最后的狀態(tài)值C)最后的預(yù)測值D)每個時間步的狀態(tài)值[多選題]166.對于w_data=np.mat([[1.0,3.0]]).T生成的張量維度是A)維度是(2,1)的張量B)是向量,值為[1,3]C)是矩陣[[1],[3]]D)是向量[[1,3]]的轉(zhuǎn)置[多選題]167.Adagrad優(yōu)化器需要執(zhí)行的步驟是A)計算梯度B)累計平方梯度C)計算更新D)應(yīng)用更新[多選題]168.關(guān)于sigmoid函數(shù),它的性質(zhì)有什么?A)概率平均B)能解決非線性分類問題C)將負(fù)的權(quán)值映射到正值D)將正權(quán)值映射到負(fù)數(shù)[多選題]169.在循環(huán)神經(jīng)網(wǎng)絡(luò)中,LSTM有哪幾個門?A)輸入門B)遺忘門C)輸出門D)更新門[多選題]170.CNN的網(wǎng)絡(luò)訓(xùn)練后,形成模塊model,其中數(shù)據(jù)包括A)所有卷積核B)所有的poolingC)連接層權(quán)重D)relu[多選題]171.邏輯回歸S型曲線描述正確的是:A)輸出結(jié)果是-1~+1B)0.5是分類的閾值C)輸出的結(jié)果為正類別概率D)導(dǎo)數(shù)范圍為0~0.25[多選題]172.對于tf.nn.SoftMax函數(shù),它可以:A)用于多類別分類B)映射到概率空間C)壓縮數(shù)據(jù)D)用于卷積層[多選題]173.(Non-maximumsuppression,NMS)的本質(zhì)是?A)搜索局部極大值B)抑制非極大值元素C)尋找出最小值D)尋找出閾值第3部分:判斷題,共54題,請判斷題目是否正確。[判斷題]174.在tf語句中X.Value是將x中的內(nèi)容取出。A)正確B)錯誤[判斷題]175.梯度和損失函數(shù)一樣,也是數(shù)量函數(shù)A)正確B)錯誤[判斷題]176.RNN的結(jié)構(gòu)與全連接網(wǎng)絡(luò)基本不一致A)正確B)錯誤[判斷題]177.隱藏層層數(shù)增加,模型能力增加。A)正確B)錯誤[判斷題]178.使用池化的目的是降低圖片的分辨率,減少參數(shù)學(xué)習(xí)的數(shù)量。A)正確B)錯誤[判斷題]179.卷積神經(jīng)網(wǎng)絡(luò)的tensorflow框架中,tf.nn.avg_pool()可實現(xiàn)平均池化操作。A)正確B)錯誤[判斷題]180.Mini-Batch梯度下降算法是批量梯度下降和隨機(jī)梯度下降的折中。A)正確B)錯誤[判斷題]181.出租車幾何或曼哈頓距離(ManhattanDistance)是由十九世紀(jì)的赫爾曼·閔可夫斯基所創(chuàng)詞匯A)正確B)錯誤[判斷題]182.用sigmoid函數(shù)不能將運(yùn)算映射到概率空間。A)正確B)錯誤[判斷題]183.使用torchvision.datasets.ImageFolder根據(jù)圖片目錄創(chuàng)建圖片數(shù)據(jù)集A)正確B)錯誤[判斷題]184.每個神經(jīng)元可以有多個輸入和一個輸出。A)正確B)錯誤[判斷題]185.計算圖只有在會話提供的環(huán)境中才能運(yùn)行,分配計算資源。A)正確B)錯誤[判斷題]186.循環(huán)神經(jīng)網(wǎng)絡(luò)的權(quán)重系數(shù)是共享的,即在一次迭代中,循環(huán)節(jié)點(diǎn)使用相同的權(quán)重系數(shù)處理所有的時間步。A)正確B)錯誤[判斷題]187.人臉識別數(shù)據(jù)集通常是2分類圖片A)正確B)錯誤[判斷題]188.損失函數(shù)(lossfunction)是用來估量模型的預(yù)測值f(x)與真實值Y的不一致程度,它是一個非負(fù)實值函數(shù),通常使用L(Y,f(x))來表示,損失函數(shù)越大,模型的魯棒性就越好。A)正確B)錯誤[判斷題]189.前向傳播算法的作用是計算輸入層結(jié)點(diǎn)對隱藏層結(jié)點(diǎn)的影響A)正確B)錯誤[判斷題]190.LSTM(Longshort-termmemory),主要由四個Component組成:InputGate,OutputGate,MemoryCell以及ForgetGateA)正確B)錯誤[判斷題]191.Sigmoid激活函數(shù)在神經(jīng)網(wǎng)絡(luò)中引入了非線性。A)正確B)錯誤[判斷題]192.內(nèi)置fit方法該方法功能非常強(qiáng)大可以通過設(shè)置回調(diào)函數(shù)實現(xiàn)對訓(xùn)練過程的復(fù)雜控制邏輯A)正確B)錯誤[判斷題]193.在被卷積的2D圖像上進(jìn)行滑動,并在每個位置上與該像素點(diǎn)及其相領(lǐng)的像素點(diǎn)進(jìn)行內(nèi)積,這就是二維卷積的功能A)正確B)錯誤[判斷題]194.對于一個固定劃分,信息熵是針對全體概率事件的。A)正確B)錯誤[判斷題]195.卷積函數(shù)在神經(jīng)網(wǎng)絡(luò)中引入了非線性。A)正確B)錯誤[判斷題]196.在一個神經(jīng)網(wǎng)絡(luò)里,知道每一個神經(jīng)元的權(quán)值和偏差值是最重要的一步。如果以某種方法知道了神經(jīng)元準(zhǔn)確的權(quán)重和偏差,就可以近似任何函數(shù)。實現(xiàn)這個最佳的辦法是賦予一個初始值,通過檢查跟最佳值的差值,然后迭代更新權(quán)重。A)正確B)錯誤[判斷題]197.多分類是做人類驗證的首選方式A)正確B)錯誤[判斷題]198.|A|一定大于AA)正確B)錯誤[判斷題]199.計算圖也叫數(shù)據(jù)流圖,可以把計算圖看做是一種有向圖,Tensorflow中的每一個節(jié)點(diǎn)都是計算圖上的一個Tensor,也就是張量,而節(jié)點(diǎn)之間的邊描述了計算之間的依賴關(guān)系(定義時)和數(shù)學(xué)操作(運(yùn)算時)。A)正確B)錯誤[判斷題]200.用卷積實現(xiàn)圖像特征提取,就是借用共振原理。A)正確B)錯誤[判斷題]201.Batch歸一化增加了隱藏值分布變化的數(shù)量A)正確B)錯誤[判斷題]202.獨(dú)熱編碼沒有什么作用A)正確B)錯誤[判斷題]203.在卷積神經(jīng)網(wǎng)絡(luò)中,通過卷積核在圖像滑動所生成的圖像稱為特征圖。A)正確B)錯誤[判斷題]204.BP傳播算法,主要由兩個環(huán)節(jié)即(激勵傳播、權(quán)重更新)反復(fù)循環(huán)迭代,直到網(wǎng)絡(luò)對輸入的響應(yīng)達(dá)到預(yù)定的目標(biāo)/期望范圍為止A)正確B)錯誤[判斷題]205.歐幾里得距離,和曼哈頓距離的定義,互有矛盾。A)正確B)錯誤[判斷題]206.如果增加神經(jīng)網(wǎng)絡(luò)的寬度,精確度會增加到一個閾值,然后開始降低。造成這一現(xiàn)象的原因可能是當(dāng)核數(shù)量增加,其相關(guān)性增加,導(dǎo)致過擬合。A)正確B)錯誤[判斷題]207.hinge是回歸的損失函數(shù)A)正確B)錯誤[判斷題]208.歸一化是指將數(shù)據(jù)集數(shù)據(jù)縮放到0~1A)正確B)錯誤[判斷題]209.信息熵是針對有限個概率事件的。A)正確B)錯誤[判斷題]210.常用用的池化方式為mean-pooling,max-poolingA)正確B)錯誤[判斷題]211.如果需要自己定義回調(diào)函數(shù)類的話,應(yīng)該繼承keras.callbacks.Callback類A)正確B)錯誤[判斷題]212.激活函數(shù)會將數(shù)據(jù)變?yōu)榉蔷€性模式A)正確B)錯誤[判斷題]213.在一個神經(jīng)網(wǎng)絡(luò)里,知道每一個神經(jīng)元的權(quán)值和偏差值是最重要的一步。如果以某種方法知道了神經(jīng)元準(zhǔn)確的權(quán)重和偏差,就可以近似任何函數(shù)。實現(xiàn)這個最佳的辦法是隨機(jī)賦值。A)正確B)錯誤[判斷題]214.一個循環(huán)神經(jīng)網(wǎng)絡(luò)可以被展開成為一個完全連接的,具有無限長度的普通神經(jīng)網(wǎng)絡(luò),這種說法是AA)正確B)錯誤[判斷題]215.損失函數(shù)是經(jīng)驗風(fēng)險函數(shù)的核心部分,也是結(jié)構(gòu)風(fēng)險函數(shù)重要組成部分A)正確B)錯誤[判斷題]216.GRU單元有記憶細(xì)胞CellA)正確B)錯誤[判斷題]217.所謂損失函數(shù),只有在訓(xùn)練的時候才參與運(yùn)算,在訓(xùn)練以后,測試或應(yīng)用中無需損失函數(shù)。A)正確B)錯誤[判斷題]218.動態(tài)計算圖無序開啟sessionA)正確B)錯誤[判斷題]219.兩個信號序列形狀相似,其相關(guān)系數(shù)也大。A)正確B)錯誤[判斷題]220.在使用DropOut機(jī)制的模型中,預(yù)測時所有節(jié)點(diǎn)都會被打開。A)正確B)錯誤[判斷題]221.若batchsize過小,batchnormalization的效果會出現(xiàn)退化。A)正確B)錯誤[判斷題]222.概率空間的樣本點(diǎn),其對應(yīng)概率必須相等。A)正確B)錯誤[判斷題]223.Alexnet網(wǎng)絡(luò)最早使用一塊GPU完成運(yùn)算A)正確B)錯誤[判斷題]224.MNIST驗證集數(shù)據(jù)樣本的形狀為(10000,784)。A)正確B)錯誤[判斷題]225.BP神經(jīng)網(wǎng)絡(luò)也被稱為全連接神經(jīng)網(wǎng)絡(luò)。A)正確B)錯誤[判斷題]226.深度學(xué)習(xí)是隱藏層更多的人工神經(jīng)網(wǎng)絡(luò)模型A)正確B)錯誤[判斷題]227.張量維度或形狀,是用一個向量描述。A)正確B)錯誤第4部分:問答題,共33題,請在空白處填寫正確答案。[問答題]228.importtensorflowastfX=tf.Variable([1,2])A=tf.constant([3,3])Sub=tf.subtract(x,a)Add=tf.add(x,a)Init=tf.global_variables_initializer()Withtf.Session()assess:sess.run(init)print(sess.run(add))該程序輸出結(jié)果為______。[問答題]229.簡述tensorflow深度學(xué)習(xí)框架的特點(diǎn)[問答題]230.什么是過擬合?什么是欠擬合?[問答題]231.聲明一個常量c,初值為4,代碼為_____。[問答題]232.占位符和變量的區(qū)別是什么?[問答題]233.什么是dropout操作?[問答題]234.請你說說深度學(xué)習(xí)你都知道哪些框架?[問答題]235.簡述卷積的物理意義。[問答題]236.一個設(shè)計良好的CNN架構(gòu)會突出那些重要的信息,而將()忽略。[問答題]237.深度學(xué)習(xí)的應(yīng)用領(lǐng)域包括_____、語音識別、自然語言處理和智能醫(yī)療等。[問答題]238.簡述神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)的步驟[問答題]239.使用深度學(xué)習(xí)的情感分析是多對一的預(yù)測任務(wù)AA)對B)錯[問答題]240.CNN中padding的作用是什么?[問答題]241.尋找最優(yōu)參數(shù)問題的結(jié)果過程稱為_______[問答題]242.神經(jīng)網(wǎng)絡(luò)的激活函數(shù)必須使用_______[問答題]243.在MNIST數(shù)據(jù)集中,標(biāo)簽數(shù)據(jù)為_______表示。[問答題]244.編程:分別在兩個不同的命令空間中定義兩個變量,并在會話中輸出變量名稱。[問答題]245.指數(shù)衰減學(xué)習(xí)率函數(shù)中,參數(shù)衰減系數(shù)的大小區(qū)間為______。[問答題]246.Relu激活函數(shù)的優(yōu)缺點(diǎn)?[問答題]247.在TensorFlow中,占位符和變量的區(qū)別是什么?[問答題]248.梯度下降算法的一般步驟?[問答題]249.循環(huán)神經(jīng)網(wǎng)絡(luò),為什么好?[問答題]250.編程:給定神經(jīng)網(wǎng)絡(luò)的輸入,神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)以及邊上權(quán)重,就可以通過前向傳播算法來計算出神經(jīng)網(wǎng)絡(luò)的輸出。[問答題]251.權(quán)值的初始值應(yīng)設(shè)定為較_______值[問答題]252.修改x軸刻度的方法_______[問答題]253.編程:使用dropout機(jī)制防過擬合,留存率為50%。[問答題]254.編程:創(chuàng)建常量op實現(xiàn)乘法運(yùn)算。[問答題]255.反向傳播的原理是基于_______[問答題]256.tensor表示_____。[問答題]257.間距運(yùn)算中,增大步幅后,輸出大小會_______[問答題]258.state=tf.Variable(0,name='counter')New_value=tf.add(state,1)Update=tf.assign(state,new_value)Init=tf.global_variables_initializer()Withtf.Session()assess:sess.run(init)print(sess.run(state))for_inrange(5)sess.run(update)print(sess.run(state))該程序輸出結(jié)果為_______。[問答題]259.加深層可以_______地傳遞信息[問答題]260.reduce_sum()函數(shù)所做的操作為________。1.答案:A解析:難易程度:易題型:2.答案:C解析:3.答案:A解析:難易程度:易題型:4.答案:A解析:5.答案:C解析:6.答案:B解析:難易程度:易題型:7.答案:D解析:難易程度:易題型:8.答案:D解析:難易程度:易題型:9.答案:A解析:10.答案:C解析:11.答案:D解析:12.答案:A解析:13.答案:B解析:14.答案:C解析:15.答案:A解析:16.答案:A解析:難易程度:易題型:17.答案:A解析:18.答案:A解析:難易程度:易題型:19.答案:C解析:難易程度:中題型:20.答案:B解析:21.答案:B解析:22.答案:B解析:23.答案:A解析:24.答案:D解析:難易程度:中題型:25.答案:A解析:26.答案:B解析:27.答案:B解析:28.答案:B解析:29.答案:D解析:難易程度:易題型:30.答案:B解析:31.答案:B解析:BatchNormalization是一種深度學(xué)習(xí)中減少泛化誤差的正則化方法,主要是通過緩解梯度下降加速網(wǎng)絡(luò)的訓(xùn)練,防止過擬合,降低了參數(shù)初始化的要求32.答案:C解析:33.答案:D解析:34.答案:C解析:35.答案:C解析:36.答案:D解析:難易程度:中題型:37.答案:A解析:38.答案:A解析:39.答案:B解析:alexnet首次使用relu函數(shù)40.答案:A解析:41.答案:B解析:42.答案:B解析:43.答案:B解析:44.答案:D解析:45.答案:B解析:46.答案:A解析:47.答案:C解析:48.答案:D解析:49.答案:A解析:50.答案:C解析:51.答案:A解析:52.答案:A解析:同一組云資源需要被多個不同賬戶控制時,用戶可以使用策略控制管理對云資源的訪問權(quán)限。53.答案:D解析:print(sys.version)print(system.version)print(sys.Version)print(sys.version)難易程度:易題型:54.答案:B解析:難易程度:易題型:55.答案:A解析:56.答案:A解析:57.答案:A解析:難易程度:易題型:58.答案:C解析:59.答案:A解析:60.答案:B解析:人工智能是計算機(jī)科學(xué)的一個分支,它企圖了解智能的實質(zhì),并生產(chǎn)出一種新的能以人類智能相似的方式做出反應(yīng)的智能機(jī)器61.答案:B解析:62.答案:A解析:63.答案:A解析:64.答案:C解析:65.答案:D解析:難易程度:易題型:66.答案:B解析:67.答案:A解析:68.答案:A解析:69.答案:C解析:70.答案:C解析:71.答案:D解析:72.答案:A解析:73.答案:D解析:74.答案:C解析:75.答案:C解析:76.答案:D解析:77.答案:C解析:78.答案:B解析:79.答案:B解析:80.答案:C解析:Dropout包括在訓(xùn)練中每次更新時,將輸入單元的按比率隨機(jī)設(shè)置為0,這有助于防止過擬合。81.答案:C解析:82.答案:A解析:83.答案:B解析:84.答案:B解析:85.答案:A解析:86.答案:B解析:87.答案:A解析:88.答案:D解析:卷積中數(shù)據(jù)維度為[樣本個數(shù),高度,寬度,通道數(shù)]89.答案:A解析:90.答案:A解析:難易程度:易題型:91.答案:D解析:92.答案:A解析:93.答案:D解析:94.答案:C解析:95.答案:A解析:難易程度:易題型:96.答案:B解析:97.答案:D解析:難易程度:易題型:98.答案:D解析:99.答案:B解析:100.答案:C解析:101.答案:A解析:102.答案:D解析:103.答案:D解析:104.答案:C解析:105.答案:C解析:106.答案:C解析:難易程度:易題型:107.答案:C解析:批量圖片,視頻都可以是四維的108.答案:C解析:109.答案:C解析:難易程度:中題型:110.答案:A解析:111.答案:A解析:難易程度:易題型:112.答案:C解析:113.答案:C解析:114.答案:C解析:115.答案:C解析:116.答案:C解析:117.答案:A解析:118.答案:A解析:119.答案:A解析:120.答案:A解析:121.答案:D解析:122.答案:B解析:難易程度:易題型:123.答案:C解析:124.答案:D解析:125.答案:A解析:126.答案:A解析:127.答案:B解析:128.答案:B解析:129.答案:C解析:130.答案:B解析:131.答案:B解析:132.答案:B解析:難易程度:易題型:下面代碼的輸出結(jié)果是x=12.34print(type(x))()難易程度:易題型:133.答案:BCD解析:134.答案:ABCD解析:135.答案:AC解析:136.答案:ABCD解析:137.答案:AB解析:138.答案:CD解析:139.答案:AB解析:140.答案:ABCD解析:141.答案:ABCD解析:142.答案:ABCD解析:143.答案:ABC解析:144.答案:AB解析:145.答案:ABCD解析:146.答案:AB解析:147.答案:ABCD解析:148.答案:ABCD解析:149.答案:CD解析:150.答案:AB解析:151.答案:ABCD解析:152.答案:ABCD解析:153.答案:ABC解析:154.答案:AB解析:155.答案:ABC解析:156.答案:AC解析:人工智能目前也分為:強(qiáng)人工智能(BOTTOM-UPAI)和弱人工智能(TOP-DOWNAI)157.答案:BCD解析:158.答案:ABCD解析:159.答案:AB解析:160.答案:ABCD解析:161.答案:BD解析:162.答案:ABD解析:163.答案:AB解析:164.答案:ABCD解析:165.答案:ABC解析:166.答案:ACD解析:167.答案:ABCD解析:168.答案:BC解析:169.答案:ABC解析:170.答案:ABCD解析:171.答案:BCD解析:172.答案:ABC解析:173.答案:AB解析:174.答案:錯解析:175.答案:錯解析:176.答案:錯解析:177.答案:錯解析:178.答案:對解析:179.答案:對解析:180.答案:對解析:181.答案:對解析:182.答案:錯解析:183.答案:對解析:184.答案:對解析:185.答案:對解析:186.答案:對解析:187.答案:對解析:188.答案:錯解析:189.答案:對解析:190.答案:對解析:191.答案:對解析:192.答案:對解析:193.答案:對解析:194.答案:對解析:195.答案:錯解析:196.答案:對解析:197.答案:錯解析:198.答案:錯解析:199.答案:對解析:200.答案:錯解析:201.答案:錯解析:202.答案:錯解析:203.答案:對解析:204.答案:對解析:205.答案:錯解析:206.答案:對解析:207.答案:錯解析:208.答案:對解析:209.答案:對解析:210.答案:對解析:211.答案:對解析:212.答案:對解析:213.答案:錯解析:214.答案:對解析:215.答案:對解析:21
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 廚衛(wèi)家電項目備案申請報告可行性研究報告
- 2025年度個人別墅防水防霉處理合同范本4篇
- 2025年無紡環(huán)保袋定制及環(huán)保理念推廣合同3篇
- 《全球物流巨頭運(yùn)營策略》課件
- 2025年綠色建筑用地土地平整及配套基礎(chǔ)設(shè)施建設(shè)合同3篇
- 2025年國家管網(wǎng)集團(tuán)西氣東輸公司招聘筆試參考題庫含答案解析
- 二零二五年度明光幼兒園食堂改造與后勤服務(wù)提升合同4篇
- 2025年浙江永嘉投資集團(tuán)有限公司招聘筆試參考題庫含答案解析
- 二零二五版二手房買賣合同中的違約賠償標(biāo)準(zhǔn)約定3篇
- 2025年安徽宿州市城市建設(shè)投資集團(tuán)控股有限公司招聘筆試參考題庫附帶答案詳解
- 帶狀皰疹護(hù)理查房課件整理
- 年月江西省南昌市某綜合樓工程造價指標(biāo)及
- 奧氏體型不銹鋼-敏化處理
- 作物栽培學(xué)課件棉花
- 交通信號控制系統(tǒng)檢驗批質(zhì)量驗收記錄表
- 弱電施工驗收表模板
- 絕對成交課件
- 探究基坑PC工法組合鋼管樁關(guān)鍵施工技術(shù)
- 國名、語言、人民、首都英文-及各地區(qū)國家英文名
- API SPEC 5DP-2020鉆桿規(guī)范
- 組合式塔吊基礎(chǔ)施工專項方案(117頁)
評論
0/150
提交評論