人工智能深度學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷13)_第1頁
人工智能深度學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷13)_第2頁
人工智能深度學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷13)_第3頁
人工智能深度學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷13)_第4頁
人工智能深度學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷13)_第5頁
已閱讀5頁,還剩20頁未讀 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡介

試卷科目:人工智能深度學(xué)習(xí)技術(shù)練習(xí)人工智能深度學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷13)PAGE"pagenumber"pagenumber/SECTIONPAGES"numberofpages"numberofpages人工智能深度學(xué)習(xí)技術(shù)練習(xí)第1部分:單項(xiàng)選擇題,共47題,每題只有一個正確答案,多選或少選均不得分。[單選題]1.當(dāng)練一個神經(jīng)網(wǎng)絡(luò)來作圖像識別任務(wù)時,通常會繪制一張訓(xùn)練集誤差和交叉訓(xùn)練集誤差圖來進(jìn)行調(diào)試。在上圖中,最好在哪個時間停止訓(xùn)練?CA)DB)AC)CD)B[單選題]2.雙曲正切函數(shù)即(),取值范圍為[-1,1]A)RelU函數(shù)B)sigmoid函數(shù)C)tanh函數(shù)D)sin函數(shù)[單選題]3.要建立數(shù)學(xué)模型,其詳細(xì)過程是必須經(jīng)過數(shù)據(jù)測量、數(shù)據(jù)比較、()過程,才能達(dá)到最優(yōu)。A)逐漸逼近B)校準(zhǔn)C)回歸D)監(jiān)督[單選題]4.你有一個15x15x8的輸入,并使用?pad=2?進(jìn)行填充,填充后的尺寸是多少?A)17x17x10B)19x19x8C)19x19x12D)17x17x8[單選題]5.對于二元分類問題,您會選擇以下哪種架構(gòu)?CA)1B)2C)任何一個D)都不用[單選題]6.面向?qū)ο缶幊痰恼n程中,老師使用什么家電設(shè)備作為例子類比封裝的特點(diǎn)()A)洗衣機(jī)B)電視機(jī)C)空調(diào)D)冰箱[單選題]7.在一個32X32大小的圖像,通過步長為1,不考慮填充,大小為5X5的卷積核卷積后,結(jié)果尺寸成為A)28X28B)14X14C)31X31D)32X32[單選題]8.()只是單CPU模擬雙CPU來平衡程序運(yùn)行性能,這兩個模擬出來的CPU是不能分離的,只能協(xié)同工作。A)多任務(wù)B)超線程技術(shù)C)虛擬化D)多線程[單選題]9.A=2133?21,B=12?2?1?30,求BA()。A)9438B)?9437C)?9438D)9?4?38[單選題]10.一幅彩色數(shù)字圖像,分辨率為1024*768,請問在計(jì)算機(jī)中存儲需要多少空間?A)0.28MBB)1.28MBC)2.28MBD)3.28MB[單選題]11.當(dāng)在卷積神經(jīng)網(wǎng)絡(luò)中加入池化層(poolinglayer)時,變換的不變性會被保留,是嗎?A)不知道B)看情況C)是D)否[單選題]12.pytorch中隨機(jī)失活使用的是A)nn.LinearB)nn.FlattenC)nn.DropoutD)nn.BatchNorm2d[單選題]13.假設(shè)你有5個大小為7x7、邊界值為O的卷積核,同時卷積神經(jīng)網(wǎng)絡(luò)第一層的深度為1。此時如果你向這一層傳入一個維度為224x224x3的數(shù)據(jù),那么神經(jīng)網(wǎng)絡(luò)下一層所接收到的數(shù)據(jù)維度是多少?()A)218x218x5B)217x217x8C)217x217x3D)220x220x5[單選題]14.與Inception同年提出的優(yōu)秀網(wǎng)絡(luò)還有(),它相比于AlexNet有更小的卷積核和更深的層級A)VGG-NetB)InceptionC)ResNetD)LeNet-5[單選題]15.opout是一種在深度學(xué)習(xí)環(huán)境中應(yīng)用的正規(guī)化手段。它是這樣運(yùn)作的:在一次循環(huán)中我們先隨機(jī)選擇神經(jīng)層中的一些單元并將其臨時隱藏,然后再進(jìn)行該次循環(huán)中神經(jīng)網(wǎng)絡(luò)的訓(xùn)練和優(yōu)化過程。在下一次循環(huán)中,我們又將隱藏另外一些神經(jīng)元,如此直至訓(xùn)練結(jié)束。根據(jù)以上描述,Dropout技術(shù)在下列哪種神經(jīng)層中將無法發(fā)揮顯著優(yōu)勢?CA)仿射層B)卷積層C)RNN層D)均不對[單選題]16.pytorch中,LSTM中神經(jīng)元數(shù)量設(shè)定的參數(shù)為A)input_sizeB)batch_firstC)biasD)hidden_size[單選題]17.c=tf.constant([3,2.0,5],[1,6,0],[9,0,0]]),print(c.dtype),該程序輸出結(jié)果為A)<dtype:?int32?>B)<dtype:?float32?>C)<dtype:?string?>D)<dtype:?int64?>[單選題]18.BP算法是通過梯度下降的方法對聯(lián)結(jié)權(quán)重進(jìn)行優(yōu)化,即需要計(jì)算誤差函數(shù)對聯(lián)結(jié)權(quán)重的()。A)導(dǎo)數(shù)B)偏導(dǎo)數(shù)C)平方差D)標(biāo)準(zhǔn)偏差[單選題]19.下列哪個函數(shù)不可以做激活函數(shù)?DA)y=tanh(x)B)y=sin(x)C)y=max(x,0)D)y=2x[單選題]20.閱讀以下文字:假設(shè)我們擁有一個已完成訓(xùn)練的、用來解決車輛檢測問題的深度神經(jīng)網(wǎng)絡(luò)模型,訓(xùn)練所用的數(shù)據(jù)集由汽車和卡車的照片構(gòu)成,而訓(xùn)練目標(biāo)是檢測出每種車輛的名稱(車輛共有10種類型)?,F(xiàn)在想要使用這個模型來解決另外一個問題,問題數(shù)據(jù)集中僅包含一種車(福特野馬)而目標(biāo)變?yōu)槎ㄎ卉囕v在照片中的位置。我們應(yīng)該如何操作?()A)除去神經(jīng)網(wǎng)絡(luò)中的最后一層,凍結(jié)所有層然后重新訓(xùn)練B)對神經(jīng)網(wǎng)絡(luò)中的最后幾層進(jìn)行微調(diào),同時將最后一層(分類層)更改為回歸層C)使用新的數(shù)據(jù)集重新訓(xùn)練模型D)所有答案均不對[單選題]21.二分類和多分類直接說法正確的是A)使用相同的激活函數(shù)B)使用相同的代價函數(shù)公式C)二分類使用softmax激活,多分類使用sigmoid激活D)得到的結(jié)果都是概率形式[單選題]22.情感分析屬于下列哪一種分析方式A)多對一B)一對多C)多對多D)以上都不對[單選題]23.tensorflow中,數(shù)據(jù)喂入主要使用什么參數(shù)完成?A)PlaceholderB)ConstantC)Feed_dictD)Variable[單選題]24.混沌度(Perplexitv)是一種常見的應(yīng)用在使用深度學(xué)習(xí)處理NLP問題過程中的評估技術(shù),關(guān)于混沌度,哪種說法是正確的?BA)度沒什么影響B(tài))混沌度越低越好C)混度越高越好D)于果的影響不一定[單選題]25.動量優(yōu)化算法的特點(diǎn)是A)如果梯度同方向速度會越來越快B)梯度可以最快速度迭代到最優(yōu)解C)學(xué)習(xí)率不斷衰減D)沒有方法可以越過鞍點(diǎn)[單選題]26.Tanh函數(shù)會把輸入的數(shù)值映射到()區(qū)間內(nèi)。A)[-1,1]B)[-1,0]C)[0,1]D)以上都不對[單選題]27.ImporttensorflowastfInput=tf.variable(tf.random_normal([1,3,3,1]))Filter=tf.variable(tf.random_normal([3,3,1,1]))Result=tf.nn.conv2d(input,filter,strides=[1,1,1,1]),padding='VALID')該程序中,卷積操作中步長為()A)3B)0C)1D)4[單選題]28.在下圖中,我們可以觀察到誤差出現(xiàn)了許多小的"漲落"。這種情況我們應(yīng)該擔(dān)心嗎?A)需要,也許意味著神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)速率存在問題B)不需要,集交驗(yàn)證上有累積的下降就可以了C)不知道D)不好說[單選題]29.編程中,通常要進(jìn)行全局變量初始化操作,可以使用下列那一個語句()A)init_op=tf.global_variables_initializer()B)init_op=tf.variables_initializer()C)init_op=tf.initializer()D)init_op=np.global_variables_initializer()[單選題]30.梯度爆炸可以使用的解決方式有:A)梯度剪切,正則B)增加擬合數(shù)據(jù)C)增加訓(xùn)練數(shù)據(jù)維度D)增加隱藏層[單選題]31.啟動圖/會話的第一步是創(chuàng)建一個Session對象,如:A)sess=tf.Session()B)sess.close()C)tf.addD)tf.eqeal[單選題]32.下列哪項(xiàng)關(guān)于模型能力(modelcapacity)的描述是正確的?(指神經(jīng)網(wǎng)絡(luò)模型能擬合復(fù)雜函數(shù)的能力)A)隱藏層層數(shù)增加,模型能力增加B)Dropout的比例增加,模型能力增加C)學(xué)習(xí)率增加,模型能力增加D)都不正確[單選題]33.數(shù)量積(dotproduct;scalarproduct,也稱為()是接受在實(shí)數(shù)R上的兩個向量并返回一個實(shí)數(shù)值標(biāo)量的二元運(yùn)算,它是歐幾里得空間的標(biāo)準(zhǔn)內(nèi)積。A)平方差B)和差化積C)內(nèi)積D)點(diǎn)積[單選題]34.二分類算法可以處理以下哪種場景?A)人臉驗(yàn)證B)識別動物種類C)語音識別D)股票預(yù)測[單選題]35.下列有關(guān)循環(huán)神經(jīng)網(wǎng)絡(luò)中的Embedding層的描述,錯誤的是()A)Fmbedding層通常用在神經(jīng)網(wǎng)絡(luò)的第一層。B)Embedding層將正整數(shù)(索引)轉(zhuǎn)換為固定大小的向量。C)mbedding層后得到的密集向量的每個元素只能是0或!。D)若Embedding層的輸入的大小為(batchsizeinputlength),則輸出的大小為(batchsize,inputlength,outputdim),outputdim是密集向量的維數(shù)。[單選題]36.灰度數(shù)字圖像是每個()只有一個采樣顏色的圖像。A)像素B)坐標(biāo)C)數(shù)值D)元素[單選題]37.訓(xùn)練模型最靈活的方式是:A)內(nèi)置fitB)內(nèi)置train_on_batchC)自定義訓(xùn)練循環(huán)D)內(nèi)置compile[單選題]38.在深度學(xué)習(xí)網(wǎng)絡(luò)中,以下哪種技術(shù)不是主要用來做網(wǎng)絡(luò)正則化的?A)dropoutB)參數(shù)共享C)EarlystoppingD)Pooling[單選題]39.在手寫數(shù)字大作業(yè)中,網(wǎng)上普遍使用的算法是()A)CNNB)CNNDC)GAND)GAND[單選題]40.關(guān)于dropout描述正確的是:A)屬于正則處理B)一個激活函數(shù)C)用于分割數(shù)據(jù)集D)用于將數(shù)據(jù)樣本多樣化[單選題]41.關(guān)于符號主義描述正確是A)是人工智能的主流B)是人工智能的基礎(chǔ)C)是人工智能的全部D)不是人工智能[單選題]42.在深度學(xué)習(xí)中,對于正則化,以下哪個說法是正確的?A)每一個隱層都需要正則化B)正則化可以預(yù)防過擬合C)正則化可以預(yù)防欠擬合D)每一個模型中都需要正則化,否則無法正確預(yù)測結(jié)果[單選題]43.Tf.convert_to_tensor用于將不同()變成張量:比如可以讓數(shù)組變成張量、也可以讓列表變成張量。A)數(shù)據(jù)B)變量C)高度D)范數(shù)[單選題]44.在tf中My_var_times_two=my_var.assign(2*my_var)A)讓my_var對應(yīng)變量翻倍賦值給My_var_times_twoB)沒有賦值C)賦值不翻倍D)my_var對應(yīng)變量翻倍[單選題]45.安裝第三方庫的命令正確的是()。A)importB)pipC)installD)pip[單選題]46.keras中dataset中過濾某些樣本的參數(shù)是A)mapB)filterC)shuffleD)batch[單選題]47.Tf.nn.softmax_cross_entropy_with_logits函數(shù)是TensorFlow中常用的求()的函數(shù),即計(jì)算labels和logits之間的交叉熵(crossentropy)A)信息熵B)信息元C)logitsD)交叉熵第2部分:多項(xiàng)選擇題,共17題,每題至少兩個正確答案,多選或少選均不得分。[多選題]48.pytorch構(gòu)建模型的三種方式A)繼承nn.Module基類構(gòu)建自定義模型B)使用nn.Sequential按層順序構(gòu)建模型C)繼承nn.Module基類構(gòu)建模型并輔助應(yīng)用模型容器進(jìn)行封裝(nn.Sequential,nn.ModuleList,nn.ModuleDict)D)使用model直接處理[多選題]49.關(guān)于深度神經(jīng)網(wǎng)絡(luò)的構(gòu)成,將卷積層放在前面,將全連接層放在后面,它們的作用是A)用卷積層提取特征B)pooling的下采樣能夠降低overfittingC)激活函數(shù)relu可以用到卷積層D)全連接層負(fù)責(zé)分類[多選題]50.在《深度學(xué)習(xí)》網(wǎng)絡(luò)中,神經(jīng)網(wǎng)絡(luò)層的卷積部份一般都有什么層構(gòu)成?A)卷積層B)RELUC)POOLING層D)pedding[多選題]51.對于集合外一個點(diǎn),到該集合的距離是A)是該點(diǎn)到集合邊界點(diǎn)的最短距離B)是該點(diǎn)到集合內(nèi)所有點(diǎn)的最短距離C)是該點(diǎn)到集合內(nèi)任意一點(diǎn)的距離D)是該點(diǎn)到集合內(nèi)非邊界點(diǎn)的某點(diǎn)的距離[多選題]52.計(jì)算機(jī)視覺特征檢測點(diǎn)檢測中,點(diǎn)特征的優(yōu)勢是?A)點(diǎn)特征屬于局部特征,對遮擋有一定魯棒性B)通常圖像中可以檢測到成百上千的點(diǎn)特征,以量取勝C)點(diǎn)特征有較好的辨識性,不同物體上的點(diǎn)容易區(qū)分D)點(diǎn)特征提取通常速度很快[多選題]53.keras中包含的庫有A)activationB)layersC)lossesD)metrics[多選題]54.Keras中卷積相關(guān)的層有A)Conv1DB)Conv2DC)MaxPool2DD)GlobalAvgPool2D[多選題]55.是一個基于POSIX的()支持()和()的操作系統(tǒng)。A)多用戶B)多任務(wù)C)多線程D)多CPU[多選題]56.在循環(huán)神經(jīng)網(wǎng)絡(luò)中,GRU中有幾個門?A)輸入門B)遺忘門C)重置門D)更新門[多選題]57.Sigmoid激活函數(shù)的用途是:A)解決非線性分類B)數(shù)據(jù)壓縮至(0,1)C)是核函數(shù)D)解決線性分類問題[多選題]58.關(guān)于sigmoid函數(shù),它的性質(zhì)有什么?A)概率平均B)能解決非線性分類問題C)將負(fù)的權(quán)值映射到正值D)將正權(quán)值映射到負(fù)數(shù)[多選題]59.可以理解為壓縮求和,常用于降維的函數(shù)和計(jì)算張量的各個維度上的元素的平均值的函數(shù)分別是?A)tf.reduce_sumB)tf.multiplyC)tf.reduce_meanD)tf.norm[多選題]60.控制控制cnn降采樣的方式有A)卷積B)最大池化C)平均池化D)全連接[多選題]61.歸一化的特點(diǎn):A)更容易收斂得到最優(yōu)解B)權(quán)重值較小C)權(quán)重值大D)無特點(diǎn)[多選題]62.以下哪條tf語句能夠描述損失函數(shù)A)loss=tf.reduce_mean(tf.square(y-y_datA.)B)loss=tf.reduce_sum(tf.square(y-y_datA.)C)loss=tf.reduce_mean(tf.add(y,y_datA.)D)loss=tf.reduce_mean(tf.subtract(y,y_datA.)第3部分:判斷題,共20題,請判斷題目是否正確。[判斷題]63.Mini-Batch梯度下降算法是批量梯度下降和隨機(jī)梯度下降的折中。A)正確B)錯誤[判斷題]64.Linux不僅系統(tǒng)性能穩(wěn)定,而且是非開源軟件。其核心防火墻組件性能高效、配置簡單,保證了系統(tǒng)的安全。A)正確B)錯誤[判斷題]65.深度學(xué)習(xí)與機(jī)器學(xué)習(xí)算法之間的區(qū)別在于,后者過程中無需進(jìn)行特征提取工作,也就是說,我們建議在進(jìn)行深度學(xué)習(xí)過程之前要首先完成特征提取的工作。A)正確B)錯誤[判斷題]66.fit函數(shù)返回一個History的對象,其History.history屬性記錄了損失函數(shù)和其他指標(biāo)的數(shù)值隨epoch變化的情況,如果有驗(yàn)證集的話,也包含了驗(yàn)證集的這些指標(biāo)變化情況A)正確B)錯誤[判斷題]67.使用torchvision.datasets.ImageFolder根據(jù)圖片目錄創(chuàng)建圖片數(shù)據(jù)集A)正確B)錯誤[判斷題]68.訓(xùn)練集準(zhǔn)確率高,測試集準(zhǔn)確率低是欠擬合A)正確B)錯誤[判斷題]69.增大權(quán)重和偏置的初始化值在神經(jīng)網(wǎng)絡(luò)中引入了非線性。A)正確B)錯誤[判斷題]70.Tensorboard中,可以使用tf.summary.scalar記錄標(biāo)量A)正確B)錯誤[判斷題]71.孿生網(wǎng)絡(luò)又稱為連體網(wǎng)絡(luò),網(wǎng)絡(luò)中的連體是通過共享權(quán)值來實(shí)現(xiàn)。A)正確B)錯誤[判斷題]72.一個循環(huán)神經(jīng)網(wǎng)絡(luò)可以被展開成為一個完全連接的,具有無限長度的普通神經(jīng)網(wǎng)絡(luò),這種說法是AA)正確B)錯誤[判斷題]73.自然語言理解是所有支持計(jì)算機(jī)理解文本內(nèi)容的方法的總稱,其任務(wù)主要包括文本分類、詞法分析、實(shí)體分割、語義分析、文本匹配、信息抽取以及閱讀理解等。()A)正確B)錯誤[判斷題]74.pytorch不支持廣播A)正確B)錯誤[判斷題]75.CNN中常用的正則化手段是dropoutA)正確B)錯誤[判斷題]76.Tf.argmax可以認(rèn)為就是np.argmax。tensorflow使用numpy實(shí)現(xiàn)的這個APIA)正確B)錯誤[判斷題]77.用卷積實(shí)現(xiàn)圖像特征提取,就是借用共振原理。A)正確B)錯誤[判斷題]78.在深度多層感知機(jī)網(wǎng)絡(luò)中,梯度爆炸會引起網(wǎng)絡(luò)不穩(wěn)定,最好的結(jié)果是無法從訓(xùn)練數(shù)據(jù)中學(xué)習(xí),而最壞的結(jié)果是出現(xiàn)無法再更新的NaN權(quán)重值。A)正確B)錯誤[判斷題]79.在tf可以定義多個Session對話。A)正確B)錯誤[判斷題]80.神經(jīng)元越多,計(jì)算量越大A)正確B)錯誤[判斷題]81.深度學(xué)習(xí)是含有一個隱含層的多層神經(jīng)網(wǎng)絡(luò)模型的強(qiáng)化學(xué)習(xí),訓(xùn)練過程加入了激活函數(shù)。()A)正確B)錯誤第4部分:問答題,共16題,請?jiān)诳瞻滋幪顚懻_答案。[問答題]82.什么是權(quán)值衰減?權(quán)值的初始值應(yīng)該如何設(shè)置,為什么不能設(shè)置為0?[問答題]83.numpy的效率比pythonlist_______[問答題]84.編程:定義兩個常量,通過損失函數(shù),計(jì)算兩個常量的均方誤差。[問答題]85.神經(jīng)網(wǎng)絡(luò)將權(quán)重參數(shù)沿著_______方向進(jìn)行更新[問答題]86.編程:利用ConfigProto實(shí)現(xiàn)GPU環(huán)境的配置,并實(shí)現(xiàn)在兩塊GPU上運(yùn)行程序。[問答題]87.應(yīng)用濾波器的位置間隔稱為_______[問答題]88.softmax函數(shù)的輸出可以解釋為_______[問答題]89.編程:實(shí)現(xiàn)計(jì)算真實(shí)值與輸入值之間的交叉熵,并將結(jié)果輸出。注:輸入值為變量,形狀為2行3列,數(shù)據(jù)類型為32位浮點(diǎn)型。真實(shí)值為變量,形狀為2行3列,數(shù)據(jù)類型為32位浮點(diǎn)型。[問答題]90.保存文件后會在當(dāng)前目錄的model文件夾下會產(chǎn)生四個文件,簡述每個文件的名稱。[問答題]91.數(shù)字5用獨(dú)熱表示的形式為_______。[問答題]92.BatchNorm的思想是調(diào)整各層的激活值分布使其擁有適當(dāng)?shù)腳______[問答題]93.tf.clip_by_value(A,min,max)函數(shù)的作用是什么?[問答題]94.數(shù)據(jù)集一般劃分為_______、_______、_______[問答題]95.在tensorflow構(gòu)建階段,節(jié)點(diǎn)的執(zhí)行步驟被描述成為____。[問答題]96.為什么需要BatchNormalization層?具體是做什么?[問答題]97.編程:使用梯度下降法實(shí)現(xiàn)y=x2,x初始值為5,求y的最小值。學(xué)習(xí)率設(shè)置為0.001,每1000輪更新一次y的值。[多選題]98.根據(jù)數(shù)字圖像在計(jì)算機(jī)中的表示方法不同,分為()A)灰度圖像B)多幀圖像C)RGB圖像D)二進(jìn)制圖像E)索引圖像[多選題]99.騰訊云CVM為您提供全面廣泛的服務(wù)內(nèi)容。多地域多可用區(qū):中國大陸地域覆蓋()四個地域。境外節(jié)點(diǎn)覆蓋東南亞、亞太、北美、美西及歐洲五個地域。在靠近您用戶的地域部署應(yīng)用可獲得較低的時延。A)華南B)華北C)華西D)東北E)西南F)華東[判斷題]100.在神經(jīng)網(wǎng)絡(luò)中,每個參數(shù)只能有唯一的學(xué)習(xí)率。()A)正確B)錯誤1.答案:C解析:2.答案:C解析:3.答案:A解析:4.答案:B解析:5.答案:C解析:6.答案:A解析:難易程度:易題型:7.答案:A解析:8.答案:B解析:超線程技術(shù)只是單CPU模擬雙CPU來平衡程序運(yùn)行性能,這兩個模擬出來的CPU是不能分離的,只能協(xié)同工作。9.答案:C解析:難易程度:易題型:10.答案:C解析:11.答案:C解析:12.答案:C解析:13.答案:A解析:14.答案:A解析:15.答案:C解析:16.答案:D解析:17.答案:B解析:18.答案:B解析:19.答案:D解析:20.答案:B解析:21.答案:D解析:22.答案:A解析:23.答案:C解析:24.答案:B解析:25.答案:A解析:26.答案:A解析:27.答案:C解析:28.答案:B解析:29.答案:A解析:30.答案:A解析:31.答案:A解析:32.答案:A解析:33.答案:D解析:34.答案:A解析:35.答案:C解析:36.答案:A解析:灰度數(shù)字圖像是每個像素只有一個采樣顏色的圖像。37.答案:C解析:38.答案:B解析:39.答案:A解析:難易程度:易題型:40.答案:A解析:41.答案:A解析:42.答案:B解析:43.答案:A解析:44.答案:D解析:45.答案:B解析:難易程度:易題型:46.答案:B解析:47.答案:D解析:48.答案:ABC解析:49.答案:ABCD解析:50.答案:ABC解析:51.答案:AB解析:52.答案:ABCD解析:53.答案:ABCD解析:54.答案:ABCD解析:55.答案:ABCD解析:是一個基于POSIX的多用戶、多任務(wù)、支持多線程和多CPU的操作系統(tǒng)。56.答案:CD解析:57.答案:AB解析:58.答案:BC解析:59.答案:AC解析:60.答案:ABC解析:61.答案:AB解析:62.答案:AB解析:63.答案:對解析:64.答案:錯解析:Linux不僅系統(tǒng)性能穩(wěn)定,而且是開源軟件。其核心防火墻組件性能高效、配置簡單,保證了系統(tǒng)的安全。65.答案:錯解析:66.答案:對解析:fit函數(shù)返回一個History的對象,其History.history屬性記錄了損失函數(shù)和其他指標(biāo)的數(shù)值隨epoch變化的情況,如果有驗(yàn)證集的話,也包含了驗(yàn)證集的這些指標(biāo)變化情況67.答案:對解析:68.答案:錯解析:69.答案:錯解析:70.答案:對解析:71.答案:對解析:72.答案:對解析:73.答案:錯解析:74.答案:錯解析:75.答案:對解析:76.答案:對解析:77.答案:錯解析:78.答案:對解析:79.答案:對解析:80.答案:對解析:81.答案:錯解析:82.答案:①以減小權(quán)重參數(shù)的值為目的的進(jìn)行學(xué)習(xí)的方法。②在誤差反向傳播法中,所有權(quán)重值都會進(jìn)行相同的更新解析:83.答案:高解析:84.答案:ImporttensorflowastfA=tf.constant([[4.0,4.0,4.0],[3.0,3.0,3.0],[1.0,1.0,1.0]])B=tf.constant([[1.0,1.0,1.0],[1.0,1.0,1.0],[2.0,2.0,2.0]])Mse=tf.reduce_mean(tf.square(a-b))Withtf.Session()assess:Print(sess.run(mse))解析:85.答案:梯度解析:86.答案:ImporttensorflowastfImportosOs.environ['CUDA_VISIBLE_DEVICES']='0,1?Config=tf.ConfigProto()Config.gpu_options.allow_growth=TrueConfig.log_device_placement=TrueV1=tf.constant([1.0,2.0,3.0],shape=[3],name='v1?)V2=tf.constant([1.0,2.0,3.0],shape=[3],name='v2?)Sum=v1+v2Withtf.Session(config=config)assess:Print(sess.run(sum))解析:87.答案:步幅解析:88.答案:概率解析:89.答案:ImporttensorflowastfInput_data=tf.Variable([[0.2,0.1,0.9],[0.3,0.4,0.6]],

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論