大數(shù)據(jù)相關(guān)知識(shí)練習(xí)題題庫及答案_第1頁
大數(shù)據(jù)相關(guān)知識(shí)練習(xí)題題庫及答案_第2頁
大數(shù)據(jù)相關(guān)知識(shí)練習(xí)題題庫及答案_第3頁
大數(shù)據(jù)相關(guān)知識(shí)練習(xí)題題庫及答案_第4頁
大數(shù)據(jù)相關(guān)知識(shí)練習(xí)題題庫及答案_第5頁
已閱讀5頁,還剩203頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

大數(shù)據(jù)相關(guān)知識(shí)試題一、選擇題1.高斯核也稱為()[單選題]*A、多項(xiàng)式核B、拉普拉斯核C、RBF核√D、Sigmoid核2.Flink的數(shù)據(jù)轉(zhuǎn)換操作在:()環(huán)節(jié)中完成[單選題]*A、channelB、Transformation√C、sinkD、source3.以下選項(xiàng)中可用作Python標(biāo)識(shí)符的是[單選題]*A、3B9909B、__√C、classD、it's4.導(dǎo)入模塊的方式錯(cuò)誤的是()[單選題]*A、importmoB、frommoimport*C、importmoasmD、importmfrommo√5.保護(hù)數(shù)據(jù)本身安全,即為保護(hù)商業(yè)秘密和業(yè)務(wù)正常運(yùn)行而必須保障數(shù)據(jù)()、完整性、可用性[單選題]A、及時(shí)性B、準(zhǔn)確性C、機(jī)密性√D、一致性6.下列關(guān)于對(duì)大數(shù)據(jù)特點(diǎn)的說法中,錯(cuò)誤的是()[單選題]*A、數(shù)據(jù)規(guī)模大B、數(shù)據(jù)類型多樣C、數(shù)據(jù)價(jià)值密度高√D、數(shù)據(jù)處理速度快7.對(duì)連續(xù)圖像的離散化采樣決定了圖像的(____)[單選題]*A、空間分辨率√B、時(shí)間分辨率C、地面分辨率D、灰度值8.MapReduce任務(wù)map輸出結(jié)果將被寫入(____)[單選題]*A、HDFS文件系統(tǒng)B、新的記錄文件C、磁盤(Linux文件系統(tǒng))√D、主數(shù)據(jù)庫9.ROC曲線是基于()得出的[單選題]*A、混淆矩陣√B、協(xié)方差矩陣C、關(guān)聯(lián)矩陣D、f1-score10.某公司要建立資料庫,該資料庫要用ElasticSearch進(jìn)行檢索,請(qǐng)問下列哪些選項(xiàng)可以放到資料庫中?A、Word文檔B、公司宣傳視頻C、產(chǎn)品設(shè)計(jì)圖D、以上全部正確√11.以下不符合大數(shù)據(jù)問題處理范疇的是[單選題]*A、1TB數(shù)據(jù),秒級(jí)提交結(jié)果B、1TB數(shù)據(jù),分鐘級(jí)提交結(jié)果C、1TB數(shù)據(jù),半小時(shí)內(nèi)提交結(jié)果D、1TB數(shù)據(jù),一天內(nèi)提交結(jié)果√12.以下選項(xiàng)不屬于Python語言特點(diǎn)的是()[單選題]*A、執(zhí)行高效√B、支持中文C、平臺(tái)無關(guān)D、語法簡(jiǎn)潔13.數(shù)據(jù)庫利用()進(jìn)行死鎖檢測(cè)[單選題]*A、DAGB、RPCC、WFG√D、DLC14.利用print格式化輸出,以下能控制浮點(diǎn)數(shù)的小數(shù)點(diǎn)后兩位輸出的是()[單選題]*A、{.2}B、{:.2f}√C、{:.2}D、{.2f}15.DLI支持以下()字符碼的數(shù)據(jù)[單選題]*A、UTF-8√B、ASCIIC、GB2312D、Base6416.-cLOG日志緩沖區(qū)使用()算法[單選題]*A、FIFOB、LRUC、SLRU√D、RANDOM17.國網(wǎng)數(shù)據(jù)中臺(tái),是在下面()數(shù)據(jù)中心階段的基礎(chǔ)上發(fā)展過來的[單選題]*A、營銷服務(wù)中心B、全業(yè)務(wù)統(tǒng)一數(shù)據(jù)中心√C、海量歷史/實(shí)時(shí)數(shù)據(jù)中心D、電網(wǎng)GIS數(shù)據(jù)中心18.Redis中List列表是什么數(shù)據(jù)結(jié)構(gòu)實(shí)現(xiàn)的?[單選題]*A、平衡二又B、雙向鏈表√C、循環(huán)鏈表D、紅黑樹19.在機(jī)器學(xué)習(xí)算法中,支持向量機(jī)的支持向量是指()[單選題]*A、樣本數(shù)據(jù)B、模型參數(shù)C、距超平面最近的樣本點(diǎn)√D、距超平面最遠(yuǎn)的樣本點(diǎn)20.(__)是神經(jīng)網(wǎng)絡(luò)的基本單位[單選題]*A、神經(jīng)系統(tǒng)B、神經(jīng)網(wǎng)絡(luò)C、神經(jīng)元√D、感知機(jī)21.回歸問題和分類問題的區(qū)別是[單選題]*A、回歸問題有標(biāo)簽,分類問題沒有B、回歸問題輸出值是離散的,分類問題輸出值是連續(xù)的C、回歸問題輸出值是連續(xù)的,分類問題輸出值是離散的√D、回歸問題與分類問題在輸入屬性值上要求不同22.當(dāng)訓(xùn)練數(shù)據(jù)很多時(shí),可以通過另一個(gè)學(xué)習(xí)器來進(jìn)行結(jié)合,該結(jié)合策略為()[單選題]*A、平均法B、投票法C、學(xué)習(xí)法√D、加權(quán)法23.以下哪些方法不能用于處理過擬合?[單選題]*A、減少特征維度,防止維災(zāi)難B、增大數(shù)據(jù)的訓(xùn)練量C、利用正則化技術(shù)D、增加特征維度√24.Apriori算法是用來進(jìn)行()[單選題]*A、關(guān)聯(lián)分析√B、數(shù)據(jù)分類C、數(shù)據(jù)預(yù)處理D、聚類分析25.對(duì)數(shù)值型輸出,最常見的結(jié)合策略是()[單選題]*A、投票法B、平均法√C、學(xué)習(xí)法D、排序法26.關(guān)于L1正則和L2正則下面的說法正確的是[單選題]*A、L2范數(shù)可以防止過擬合,提升模型的泛化能力。但L1正則做不到這一點(diǎn)B、L2正則化標(biāo)識(shí)各個(gè)參數(shù)的平方的和C、L2正則化又叫做LassoregularizationD、L1范數(shù)會(huì)使權(quán)值稀疏√27.(__)是將特征選擇過程與學(xué)習(xí)器訓(xùn)練過程融為一體,兩者在同一個(gè)優(yōu)化過程中完成,即在學(xué)習(xí)器訓(xùn)練過程中自動(dòng)地進(jìn)行了特征選擇[單選題]*A、過濾式選擇B、包裹式選擇C、嵌入式選擇√D、正則化28.下列是監(jiān)督學(xué)習(xí)算法的是()[單選題]*A、決策樹算法、支持向量機(jī)算法、K-近鄰算法√B、支持向量機(jī)算法、K-近鄰算法、主成分分析算法C、支持向量機(jī)算法、主成分分析算法、K-Means聚類算法D、決策樹算法、支持向量機(jī)算法、K-Means聚類算法29.(__)在訓(xùn)練的每一輪都要檢查當(dāng)前生成的基學(xué)習(xí)器是否滿足基本條件[單選題]*A、支持向量機(jī)B、Boosting算法√C、貝葉斯分類器D、神經(jīng)網(wǎng)絡(luò)30.人工智能的快速發(fā)展推動(dòng)數(shù)據(jù)規(guī)模不斷提升。據(jù)IDC測(cè)算,2025年全球數(shù)據(jù)規(guī)模將達(dá)到163__,其中80%~90%是非結(jié)構(gòu)化數(shù)據(jù)[單選題]*A、PBB、EBC、ZB√D、YB31.(__)通過構(gòu)建并結(jié)合多個(gè)學(xué)習(xí)器來完成學(xué)習(xí)任務(wù)[單選題]*A、支持向量機(jī)B、貝葉斯分類器C、神經(jīng)網(wǎng)絡(luò)D、集成學(xué)習(xí)√32.下列關(guān)于樸素貝葉斯分類器,說法正確的是[單選題]*A、樸素貝葉斯分類器是一個(gè)判別模型B、樸素貝葉斯分類器不需要假設(shè)各變量是相互獨(dú)立的C、是基于后驗(yàn)概率,推導(dǎo)出先驗(yàn)概率D、可以用極大似然估計(jì)法解貝葉斯分類器√33.“給定訓(xùn)練樣例集,設(shè)法將樣例投影到一條直線上,使得同類樣例的投影點(diǎn)盡可能接近、異類樣例的投影點(diǎn)盡可能遠(yuǎn)離”,這說的是(__)算法[單選題]*A、PCAB、SVMC、K-meansD、LDA√34.下列關(guān)于線性回歸和邏輯回歸,說法不正確的是()[單選題]*A、線性回歸主要對(duì)連續(xù)性數(shù)值進(jìn)行預(yù)測(cè)B、邏輯回歸不屬于分類算法√C、邏輯回歸的本質(zhì)是概率性回歸,是廣義線性模型的一種D、線性回歸中,“最小二乘法”是基于均方誤差最小化來進(jìn)行模型求解的方法35.在二十世紀(jì)八十年代,“從樣例中學(xué)習(xí)”的一大主流主義是____學(xué)習(xí),代表包括決策樹和基于邏輯的學(xué)習(xí)[單選題]*A、無監(jiān)督B、監(jiān)督C、連接主義D、符號(hào)主義√36.決策樹中的葉結(jié)點(diǎn)對(duì)應(yīng)于()[單選題]*A、屬性B、樣本C、決策結(jié)果√D、標(biāo)簽值37.目前,()技術(shù)被廣泛應(yīng)用于智能寫作、代碼生成、有聲閱讀、新聞播報(bào)、語音導(dǎo)航、影響修復(fù)等領(lǐng)域,通過機(jī)器自動(dòng)合成文本、語音圖像、視頻等正在推動(dòng)互聯(lián)網(wǎng)數(shù)字內(nèi)容生產(chǎn)的變革[單選題]*A、判別式人工智能B、生成式人工智能√C、歸納式人工智能D、混合式人工智能38.在聚類分析任務(wù)中,簇內(nèi)相似度(____)且簇間相似度(____)時(shí),聚類效果比較好[單選題]*A、低,低B、低,高C、高,低√D、高,高39.基于數(shù)據(jù)集劃分方式的不同,評(píng)估方法可以分為三種,下列錯(cuò)誤的是()[單選題]*A、交叉驗(yàn)證法B、自助法C、過濾法√D、留出法40.KNN算法更適合于()的分類問題[單選題]*A、重復(fù)時(shí)間B、稀有事件√C、規(guī)則事件D、相近事件41.決策樹的葉節(jié)點(diǎn)代表()[單選題]*A、決策樹的開始B、類或類的分布√C、一個(gè)或多個(gè)屬性的測(cè)試D、測(cè)試輸出42.DBSCAN是基于()的聚類算法[單選題]*A、長(zhǎng)度B、密度√C、能量D、大小43.k-means算法的優(yōu)點(diǎn)是簡(jiǎn)單,(),易于理解和實(shí)現(xiàn)[單選題]*A、不用預(yù)先聚類個(gè)數(shù)B、時(shí)間復(fù)雜度高C、時(shí)間復(fù)雜度低√D、44.隨機(jī)森林與Bagging中基學(xué)習(xí)器"多樣性"的區(qū)別是(____)[單選題]*A、都來自樣本擾動(dòng)B、都來自屬性擾動(dòng)C、來自樣本擾動(dòng)和自屬性擾動(dòng)√D、多樣本集結(jié)合45.關(guān)于模型評(píng)估方法的說法,錯(cuò)誤的是()[單選題]*A、“留出法”直接將數(shù)據(jù)集D劃分成兩個(gè)互斥的集合B、“自助法”在數(shù)據(jù)集較大、難以有效劃分訓(xùn)練或測(cè)試集時(shí)很有用√C、交叉驗(yàn)證法又稱為“k折交叉驗(yàn)證”D、“留一法”是交叉驗(yàn)證法的一個(gè)特例46.聚類算法在下列哪個(gè)模塊中()[單選題]*A、sklearn.treeB、sklearn.-cluster√C、sklearn.ensembleD、sklearn.svm47.貝葉斯決策論是在(__)框架下實(shí)施決策的基本方法[單選題]*A、模型B、條件C、概率√D、分類器48.習(xí)近平總書記多次作出重要指示,強(qiáng)調(diào)“要深入把握新一代()發(fā)展的特點(diǎn),加強(qiáng)人工智能和產(chǎn)業(yè)發(fā)展融合,為高質(zhì)量發(fā)展提供新動(dòng)能”[單選題]*A、深度學(xué)習(xí)B、人工智能√C、機(jī)器學(xué)習(xí)D、神經(jīng)網(wǎng)絡(luò)49.核主成分分析是一種(__)方法[單選題]*A、非線性降維√B、線性降維C、分類D、回歸50.(__)是具有適應(yīng)性的簡(jiǎn)單單元組成的廣泛并行互聯(lián)的網(wǎng)絡(luò)[單選題]*A、神經(jīng)系統(tǒng)B、神經(jīng)網(wǎng)絡(luò)√C、神經(jīng)元D、感知機(jī)51.神經(jīng)網(wǎng)絡(luò)中最基本的成分是()[單選題]*A、損失函數(shù)B、學(xué)習(xí)算法C、神經(jīng)元√D、前饋網(wǎng)絡(luò)52.在決策樹創(chuàng)建時(shí),由于數(shù)據(jù)中的噪聲和離群點(diǎn),許多分枝反映的是訓(xùn)練數(shù)據(jù)中的異常,()方法處理這種過分?jǐn)M合數(shù)據(jù)問題[單選題]*A、小波B、調(diào)和C、剪枝√D、回歸53.在學(xué)習(xí)器訓(xùn)練過程中自動(dòng)進(jìn)行特征選擇的是()[單選題]*A、過濾式選擇B、包裹式選擇C、嵌入式選擇√D、以上選項(xiàng)均不正確54.下列關(guān)于正則化的描述錯(cuò)誤的是()[單選題]*A、L1范數(shù)和L2范數(shù)都有助于降低過擬合的風(fēng)險(xiǎn)B、基于L1正則化的學(xué)習(xí)方法是一種典型的嵌入式特征選擇方法C、L1范數(shù)正則化更容易得到“稀疏”解D、L2范數(shù)正則化更容易得到“稀疏”解√55.(__)也稱為“基于密度的聚類”[單選題]*A、原型聚類B、密度聚類√C、層次聚類D、AGNES56.下列貝葉斯描述錯(cuò)誤的是()[單選題]*A、貝葉斯是概率框架下實(shí)施決策的基本方法B、貝葉斯基于概率和誤判損失來選擇最優(yōu)的類別標(biāo)記C、貝葉斯判定準(zhǔn)則為最大化總體風(fēng)險(xiǎn)√D、貝葉斯中期望損失定義為風(fēng)險(xiǎn)57.量子機(jī)器學(xué)習(xí)能有效增強(qiáng)傳統(tǒng)機(jī)器學(xué)習(xí)算法的性能,量子比特可同時(shí)具有0、1及其()[單選題]*A、非線性疊加態(tài)B、線性疊加態(tài)√C、非線性暫態(tài)D、線性暫態(tài)58.預(yù)剪枝是指在決策樹生成過程中,對(duì)每個(gè)結(jié)點(diǎn)在劃分(__)進(jìn)行估計(jì)[單選題]*A、前√B、中C、后D、不估計(jì)59.k近鄰學(xué)習(xí)是一種()[單選題]*A、監(jiān)督學(xué)習(xí)方法√B、半監(jiān)督學(xué)習(xí)方法C、無監(jiān)督學(xué)習(xí)方法D、測(cè)試方法60.與傳統(tǒng)機(jī)器學(xué)習(xí)方法相比,深度學(xué)習(xí)的優(yōu)勢(shì)在于(____)[單選題]*A、深度學(xué)習(xí)可以自動(dòng)學(xué)習(xí)特征√B、深度學(xué)習(xí)不需要做數(shù)據(jù)預(yù)處理C、深度學(xué)習(xí)不能提取底層特征,如圖像邊緣、紋理等D、深度學(xué)習(xí)不需要調(diào)參61.深度學(xué)習(xí)可以用在下列哪些NLP任務(wù)中?[單選題]*A、情感分析B、問答系統(tǒng)C、機(jī)器翻譯D、所有選項(xiàng)√62.下列哪一項(xiàng)屬于特征學(xué)習(xí)算法(representationlearningalgorithm)[單選題]*A、K近鄰算法B、隨機(jī)森林C、神經(jīng)網(wǎng)絡(luò)√D、都不屬于63.考慮以下問題:假設(shè)我們有一個(gè)5層的神經(jīng)網(wǎng)絡(luò),這個(gè)神經(jīng)網(wǎng)絡(luò)在使用一個(gè)4GB顯存顯卡時(shí)需要花費(fèi)3個(gè)小時(shí)來完成訓(xùn)練。而在測(cè)試過程中,單個(gè)數(shù)據(jù)需要花費(fèi)2秒的時(shí)間。如果我們現(xiàn)在把架構(gòu)變換一下,當(dāng)評(píng)分是0.2和0.3時(shí),分別在第2層和第4層添加Dropout,那么新架構(gòu)的測(cè)試所用時(shí)間會(huì)變?yōu)槎嗌??[單選題]*A、少于2sB、大于2sC、仍是2s√D、說不準(zhǔn)64.批規(guī)范化(BatchNormalization)的好處都有什么[單選題]*A、讓每一層的輸入的范圍都大致固定√B、它將權(quán)重的歸一化平均值和標(biāo)準(zhǔn)差C、它是一種非常有效的反向傳播(BP)方法D、這些均不是65.卷積神經(jīng)網(wǎng)絡(luò)中卷積的主要作用是()[單選題]*A、進(jìn)行特征選擇,降低特征數(shù)量,從而減少參數(shù)數(shù)量B、提取一個(gè)局部區(qū)域的特征√C、用來輸出想要的結(jié)果D、讀入數(shù)據(jù)66.()的殘差結(jié)構(gòu)解決了深度學(xué)習(xí)模型的退化問題,在ImageNet的數(shù)據(jù)集上,其Top5準(zhǔn)確率達(dá)到了95.51%[單選題]*A、InceptionNetB、VCG網(wǎng)絡(luò)C、ResNet√D、AlexNet67.與傳統(tǒng)機(jī)器學(xué)習(xí)方法相比,深度學(xué)習(xí)的優(yōu)勢(shì)在于()[單選題]*A、深度學(xué)習(xí)可以自動(dòng)學(xué)習(xí)特征√B、深度學(xué)習(xí)完全不需要做數(shù)據(jù)預(yù)處理C、深度學(xué)習(xí)完全不提取底層特征,如圖像邊緣、紋理等D、深度學(xué)習(xí)不需要調(diào)參68.以下那種卷積神經(jīng)網(wǎng)絡(luò)的設(shè)計(jì)引入了殘差網(wǎng)絡(luò)結(jié)構(gòu)?[單選題]*A、LeNetB、AlexNetC、VGGD、ResNet√69.下列關(guān)于長(zhǎng)短時(shí)神經(jīng)網(wǎng)絡(luò)的敘述錯(cuò)誤的是(____)[單選題]*A、引用自循環(huán)思想B、產(chǎn)生梯度長(zhǎng)時(shí)間持續(xù)流動(dòng)的路徑C、積累的時(shí)間尺度不可以因輸入序列而改變√D、可應(yīng)用于語音識(shí)別和機(jī)器翻譯70.以下哪一個(gè)不是LSTM三個(gè)門中的一個(gè)門()[單選題]*A、輸入門B、遺忘門C、輸出門D、迭代門√71.卷積神經(jīng)網(wǎng)絡(luò)輸入的彩色圖像數(shù)據(jù)的張量格式為()[單選題]*A、(樣本數(shù),高度,寬度)B、(樣本數(shù),高度,寬度,通道數(shù))√C、(高度,寬度)D、(高度*寬度)72.神經(jīng)網(wǎng)絡(luò)模型訓(xùn)練時(shí),依賴于()進(jìn)行參數(shù)計(jì)算[單選題]*A、最大值法則B、最小值法則C、鏈?zhǔn)角髮?dǎo)法則√D、平均求導(dǎo)法則73.-cNN常見的Loss函數(shù)不包括以下哪個(gè)[單選題]*A、softmax_lossB、sigmoid_lossC、Contrastive_Loss(對(duì)比損失)D、siamese_loss√74.有關(guān)前饋神經(jīng)網(wǎng)絡(luò)的認(rèn)識(shí)正確的是()[單選題]*A、神經(jīng)網(wǎng)絡(luò)訓(xùn)練過程是擬合訓(xùn)練數(shù)據(jù)模式的過程√B、神經(jīng)網(wǎng)絡(luò)訓(xùn)練后很容易得到分類的規(guī)則C、一個(gè)結(jié)構(gòu)明確的神經(jīng)網(wǎng)絡(luò)的訓(xùn)練結(jié)果是唯一的D、神經(jīng)網(wǎng)絡(luò)模型的分類能力一定比決策樹好75.ResNet-50有多少個(gè)卷積層?[單選題]*A、48B、49√C、50D、5176.關(guān)于Attention-basedModel,下列說法正確的是[單選題]*A、相似度度量模型√B、是一種新的深度學(xué)習(xí)網(wǎng)絡(luò)C、是一種輸入對(duì)輸出的比例模型D、都不對(duì)77.下列關(guān)于模型能力(modelcapacity,指神經(jīng)網(wǎng)絡(luò)模型能擬合復(fù)雜函數(shù)的能力)的描述正確的是(____)[單選題]*A、隱藏層層數(shù)增加,模型能力增加√B、Dropout的比例增加,模型能力增加C、學(xué)習(xí)率增加,模型能力增加D、以上都不正確78.神經(jīng)元計(jì)算什么?[單選題]*A、神經(jīng)元計(jì)算激活函數(shù)后,再計(jì)算線性函數(shù)(z=Wx+b)B、神經(jīng)元計(jì)算一個(gè)線性函數(shù)(z=Wx+b),然后接一個(gè)激活函數(shù)√C、神經(jīng)元計(jì)算一個(gè)函數(shù)g,它線性地縮放輸入x(Wx+b)D、神經(jīng)元先計(jì)算所有特征的平均值,然后將激活函數(shù)應(yīng)用于輸出79.()不屬于神經(jīng)網(wǎng)絡(luò)常用的激活函數(shù)[單選題]*A、softmax√B、tanhC、reluD、sigmoid80.-conv2d=nn.-conv2d(in_channels=3,out_channels=4,kernel_size=3,padding=2),輸入一張形狀為3×100×100的圖像,輸出的形狀為:(____)[單選題]*A、3x100x100B、4x102x102√C、3x102x102D、4x100x10081.以下哪些CNN模型不是在imagenet比賽中興起的?(____)[單選題]*A、AlexNetB、VGG19C、ResNetD、Mask-RCNN√82.假設(shè)你有5個(gè)大小為7x7、邊界值為0的卷積核,同時(shí)卷積神經(jīng)網(wǎng)絡(luò)第一層的深度為1。此時(shí)如果你向這一層傳入一個(gè)維度為224x224x3的數(shù)據(jù),那么神經(jīng)網(wǎng)絡(luò)下一層所接收到的數(shù)據(jù)維度是多少[單選題]*A、218x218x5√B、217x217x8C、217x217x3D、220x220x583.BP神經(jīng)網(wǎng)絡(luò)經(jīng)常遭遇(____),其訓(xùn)練誤差持續(xù)降低,但測(cè)試誤差卻可能上升[單選題]*A、欠擬合B、誤差過大C、誤差過小D、過擬合√84.當(dāng)在卷積神經(jīng)網(wǎng)絡(luò)中加入池化層(poolinglayer)時(shí),變換的不變性會(huì)被保留,是嗎?[單選題]*A、不知道B、看情況C、是√D、否85.()是TensorFlow的核心數(shù)據(jù)單位[單選題]*A、張量√B、向量C、矩陣D、數(shù)組86.(____)的殘差結(jié)構(gòu)解決了深度學(xué)習(xí)模型的退化問題。在ImageNet的數(shù)據(jù)集上,其Top5準(zhǔn)確率達(dá)到了95.51%[單選題]*A、InceptionNetB、VGGC、ResNet√D、AlexNet87.生成對(duì)抗網(wǎng)絡(luò)主要包含了一對(duì)相互對(duì)抗的網(wǎng)絡(luò)模型:生成網(wǎng)絡(luò)和()[單選題]*A、卷積網(wǎng)絡(luò)B、判別網(wǎng)絡(luò)√C、神經(jīng)網(wǎng)絡(luò)D、深度網(wǎng)絡(luò)88.在一個(gè)神經(jīng)網(wǎng)絡(luò)中,可以用來處理過擬合的方法是(____)[單選題]*A、DropoutB、分批歸一化(BatchNormalization)C、正則化(regularization)D、都可以√89.()是一種處理時(shí)序數(shù)據(jù)的神經(jīng)網(wǎng)絡(luò),常用語語音識(shí)別、機(jī)器翻譯等領(lǐng)域[單選題]*A、前饋卷神經(jīng)網(wǎng)絡(luò)B、卷積神經(jīng)網(wǎng)絡(luò)C、循環(huán)神經(jīng)網(wǎng)絡(luò)√D、對(duì)抗神經(jīng)網(wǎng)絡(luò)90.卷積神經(jīng)網(wǎng)絡(luò)(convolutionalneuralnetwork,CNN)是一種專門用來處理具有類似(____)的數(shù)據(jù)的神經(jīng)網(wǎng)絡(luò)[單選題]*A、網(wǎng)格結(jié)構(gòu)√B、數(shù)組結(jié)構(gòu)C、序列結(jié)構(gòu)D、表格結(jié)構(gòu)91.考慮某個(gè)具體問題時(shí),你可能只有少量數(shù)據(jù)來解決這個(gè)問題。不過幸運(yùn)的是你有一個(gè)類似問題已經(jīng)預(yù)先訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)??梢杂孟旅婺姆N方法來利用這個(gè)預(yù)先訓(xùn)練好的網(wǎng)絡(luò)[單選題]*A、把除了最后一層外所有的層都凍結(jié),重新訓(xùn)練最后一層B、對(duì)新數(shù)據(jù)重新訓(xùn)練整個(gè)模型C、只對(duì)最后幾層進(jìn)行調(diào)參(finetune)√D、對(duì)每一層模型進(jìn)行評(píng)估,選擇其中的少數(shù)來用92.以下哪項(xiàng)是對(duì)早期停止(earlystop)的最佳描述?(____)[單選題]*A、訓(xùn)練網(wǎng)絡(luò)直到達(dá)到誤差函數(shù)中的局部最小值B、在每次訓(xùn)練期后在測(cè)試數(shù)據(jù)集上模擬網(wǎng)絡(luò),當(dāng)泛化誤差開始增加時(shí)停止訓(xùn)練√C、在中心化權(quán)重更新中添加一個(gè)梯度下降加速算子,以便訓(xùn)練更快地收斂D、更快的方法是反向傳播算法93.影響小批量梯度下降法的主要因素是()[單選題]*A、批量大小KB、學(xué)習(xí)率C、梯度估計(jì)D、以上選項(xiàng)均正確√94.屬于卷積神經(jīng)網(wǎng)絡(luò)應(yīng)用方向的是(____)[單選題]*A、圖像分類B、目標(biāo)檢測(cè)C、圖像語義分割D、以上答案都正確√95.將一副圖像進(jìn)行分割后,分割出的區(qū)域彼此之間(____)重疊[單選題]*A、可以B、不可以√C、根據(jù)任務(wù)需要確定是否可以D、根據(jù)分割方法確定是否可以96.(____)用于將非線性引入神經(jīng)網(wǎng)絡(luò),它會(huì)將值縮小到較小的范圍內(nèi)[單選題]*A、損失函數(shù)B、優(yōu)化函數(shù)C、激活函數(shù)√D、目標(biāo)函數(shù)97.與HMM和MEMM模型相比,CRF模型的優(yōu)勢(shì)不包含(____)[單選題]*A、特征靈活B、速度快√C、可容納較多上下文信息D、全局最優(yōu)98.Sigmoid函數(shù)作為神經(jīng)元激活函數(shù)的特點(diǎn)是(____)[單選題]*A、連續(xù)但不光滑B、不連續(xù)但光滑C、連續(xù)且光滑√D、不連續(xù)且不光滑99.ResNet-50有多少個(gè)卷積層?[單選題]*A、48B、49√C、50D、51100.Atlas加速AI推理使用的是什么處理器?[單選題]*A、異騰910處理器B、異騰310處理器√C、GPUDD、FPGA101.下列關(guān)于注意力機(jī)制的相關(guān)敘述,錯(cuò)誤的是()[單選題]*A、自上而下的有意識(shí)的注意力,稱為基于顯著性的注意力√B、多頭注意力利用多個(gè)查詢,來并行地從輸入信息中選取多組信息C、為了提高模型能力,自注意力模型經(jīng)常采用查詢-鍵-值模式D、自注意力模型可以擴(kuò)展為多頭自注意力模型,在多個(gè)不同的投影空間中捕捉不同的交互信息102.()屬于深度學(xué)習(xí)框架[單選題]*A、TensorflowB、CaffeC、PyTorchD、以上答案都正確√103.BatchNorm層對(duì)于inputbatch會(huì)統(tǒng)計(jì)出mean和variance用于計(jì)算EMA。如果inputbatch的shape為(B,C,H,W),統(tǒng)計(jì)出的mean和variance的shape為:[單選題]*A、B*1*1*1B、1*C*1*1√C、B*C*1*1D、1*1*1*1104.下列關(guān)于多層前饋神經(jīng)網(wǎng)絡(luò)的描述錯(cuò)誤的是(____)[單選題]*A、輸出層與輸入層之間包含隱含層,且隱含層和輸出層都擁有激活函數(shù)的神經(jīng)元B、神經(jīng)元之間存在同層連接以及跨層連接√C、輸入層僅僅是接收輸入,不進(jìn)行函數(shù)處理D、每層神經(jīng)元上一層與下一層全互連105.在感知機(jī)中(Perceptron)的任務(wù)順序是什么1.隨機(jī)初始化感知機(jī)的權(quán)重2.去到數(shù)據(jù)集的下一批(batch)3.如果預(yù)測(cè)值和輸出不一致,則調(diào)整權(quán)重4.對(duì)一個(gè)輸入樣本,計(jì)算輸出值[單選題]*A、1,2,3,4B、4,3,2,1C、3,1,2,4D、1,4,3,2√106.自然語言處理、語音識(shí)別、股票交易、氣象預(yù)測(cè)等應(yīng)用適合采用(__)處理[單選題]*A、循環(huán)神經(jīng)網(wǎng)絡(luò)√B、卷積神經(jīng)網(wǎng)絡(luò)C、多層神經(jīng)網(wǎng)絡(luò)D、單層神經(jīng)網(wǎng)絡(luò)107.在一個(gè)神經(jīng)網(wǎng)絡(luò)中,知道每一個(gè)神經(jīng)元的權(quán)重和偏差是最重要的一步。如果知道了神經(jīng)元準(zhǔn)確的權(quán)重和偏差,便可以近似任何函數(shù),但怎么獲知每個(gè)神經(jīng)的權(quán)重和偏移呢[單選題]*A、搜索每個(gè)可能的權(quán)重和偏差組合,直到得到最佳值B、賦予一個(gè)初始值,然后檢查跟最佳值的差值,不斷迭代調(diào)整權(quán)重√C、隨機(jī)賦值,聽天由命D、以上都不正確的108.下列哪個(gè)函數(shù)不可以做激活函數(shù)[單選題]*A、y=tanh(x)B、y=sin(x)C、y=max(x,0)D、y=2x√109.sigmoid導(dǎo)數(shù)為[單選題]*A、f(z)B、f(1-z)C、f(1+z)f(1-z)D、f(z)(1-f(z))√110.()的層結(jié)構(gòu)主要有:輸入層、卷積層、池化層(匯聚層、下采樣層)、輸出層等,其他的還可以有全連接層,歸一化層之類的層結(jié)構(gòu)[單選題]*A、卷積神經(jīng)網(wǎng)絡(luò)√B、網(wǎng)絡(luò)神經(jīng)C、識(shí)別神經(jīng)D、圖像神經(jīng)111.設(shè)計(jì)為8層的卷積神經(jīng)網(wǎng)絡(luò)AlexNet網(wǎng)絡(luò)成功使用(____),其效果遠(yuǎn)遠(yuǎn)地超過了Sigmoid函數(shù)[單選題]*A、ReLU函數(shù)√B、sigmoid函數(shù)C、tanh函數(shù)D、sin函數(shù)112.感知機(jī)中,(____)是M-P神經(jīng)元,也稱為閾值邏輯單元[單選題]*A、輸入層B、輸出層√C、第一層D、第二層113.下列哪一項(xiàng)屬于特征學(xué)習(xí)算法(representationlearningalgorithm)?[單選題]*A、K近鄰算法B、隨機(jī)森林C、神經(jīng)網(wǎng)絡(luò)√D、都不屬于114.-cNN神經(jīng)網(wǎng)絡(luò)對(duì)圖像特征提取帶來了變革性的變化,使之前的人工特征提取升級(jí)到數(shù)據(jù)驅(qū)動(dòng)的自動(dòng)特征提取,在CNN中,起到特征提取作用的網(wǎng)絡(luò)層是(____)[單選題]*A、卷積層√B、全連接層C、池化層D、采樣層115.下列哪一種架構(gòu)有反饋連接?[單選題]*A、循環(huán)神經(jīng)網(wǎng)絡(luò)√B、卷積神經(jīng)網(wǎng)絡(luò)C、限制玻爾茲曼機(jī)D、都不是116.提升卷積核(convolutionalkernel)的大小會(huì)顯著提升卷積神經(jīng)網(wǎng)絡(luò)的性能,這種說法是[單選題]*A、正確的B、錯(cuò)誤的√117.關(guān)于梯度消散/爆炸問題下列說法不正確的是[單選題]*A、控制網(wǎng)絡(luò)層數(shù)可以一定程度上減少梯度消失的問題B、可能采用了不合適的激活函數(shù)C、剪切梯度,正則化能防止梯度消散√D、使用殘差網(wǎng)絡(luò)可以減少梯度消散的問題118.預(yù)訓(xùn)練模型是指()[單選題]*A、先訓(xùn)練一個(gè)模型作為基準(zhǔn)B、在正式訓(xùn)練之前,做一次試驗(yàn)訓(xùn)練C、已經(jīng)在大數(shù)據(jù)集上訓(xùn)練好的一個(gè)模型√D、預(yù)先根據(jù)任務(wù)特點(diǎn),對(duì)模型結(jié)構(gòu)進(jìn)行調(diào)整119.下列關(guān)于Pytorch的描述中,正確的是()[單選題]*A、Pytorch可以視作加入了GPU支持的Numpy√B、Pytorch采用靜態(tài)的、命令式的編程語言C、Pytorch的網(wǎng)絡(luò)都是有向無環(huán)圖的集合,可以直接定義D、Pytorch的底層代碼高度工業(yè)化,不容易看懂120.深度學(xué)習(xí)中的“深度”是指()[單選題]*A、計(jì)算機(jī)理解深度B、中間神經(jīng)元網(wǎng)絡(luò)的層次很多√C、計(jì)算機(jī)的求解更加精確D、計(jì)算機(jī)對(duì)問題的處理更加靈活121.下列的哪種方法可以用來降低深度學(xué)習(xí)模型的過擬合問題1.增加更多的數(shù)據(jù)2.使用數(shù)據(jù)擴(kuò)增技術(shù)(dataaugmentation)3.使用歸納性更好的架構(gòu)4.正規(guī)化數(shù)據(jù)5.降低架構(gòu)的復(fù)雜度[單選題]*A、145B、123C、1345D、所有項(xiàng)目都有用√122.深度學(xué)習(xí)防止過擬合下列說法正確的是[單選題]*A、BN(批歸一化)B、增強(qiáng)數(shù)據(jù)集樣本數(shù)目、做一些數(shù)據(jù)增強(qiáng)的操作C、限制模型的學(xué)習(xí)能力D、以上都可以√123.下列不屬于深度學(xué)習(xí)的是()[單選題]*A、監(jiān)督學(xué)習(xí)B、無監(jiān)督學(xué)習(xí)C、強(qiáng)化學(xué)習(xí)D、自主學(xué)習(xí)√124.DNN常用的激活函數(shù)有(____)[單選題]*A、sigmoidB、tanhC、ReLUD、以上答案都正確√125.長(zhǎng)短時(shí)記憶網(wǎng)絡(luò)屬于一種()[單選題]*A、全連接神經(jīng)網(wǎng)絡(luò)B、門控RNN√C、BP神經(jīng)網(wǎng)絡(luò)D、雙向RNN126.使用預(yù)訓(xùn)練模型進(jìn)行特征提取,要訓(xùn)練的部分是()[單選題]*A、全連接分類器√B、高層卷積層C、底層卷積層D、整個(gè)網(wǎng)絡(luò)127.假設(shè)img是一個(gè)(32,32,3)數(shù)組,表示一個(gè)32x32圖像,它有三個(gè)顏色通道:紅色、綠色和藍(lán)色。如何將其重塑為列向量?[單選題]*A、x=img.reshape((1,32*32,3))B、x=img.reshape((32*32*3,1))√C、x=img.reshape((3,32*32))D、x=img.reshape((32*32,3))128.()不屬于深度學(xué)習(xí)模型[單選題]*A、InceptionV3B、VGG19C、ResNet50D、CIFAR-10√129.已知:(1)大腦是有很多個(gè)叫做神經(jīng)元的東西構(gòu)成,神經(jīng)網(wǎng)絡(luò)是對(duì)大腦的簡(jiǎn)單的數(shù)學(xué)表達(dá)。(2)每一個(gè)神經(jīng)元都有輸入、處理函數(shù)和輸出。(3)神經(jīng)元組合起來形成了網(wǎng)絡(luò),可以擬合任何函數(shù)。(4)為了得到最佳的神經(jīng)網(wǎng)絡(luò),我們用梯度下降方法不斷更新模型。給定上述關(guān)于神經(jīng)網(wǎng)絡(luò)的描述,什么情況下神經(jīng)網(wǎng)絡(luò)模型被稱為深度學(xué)習(xí)模型?[單選題]*A、加入更多層,使神經(jīng)網(wǎng)絡(luò)的深度增加√B、有維度更高的數(shù)據(jù)C、當(dāng)這是一個(gè)圖形識(shí)別的問題時(shí)D、以上都不正確130.-cNN中用來完成分類的是()[單選題]*A、卷積層B、池化層C、全連接層√D、激活層131.實(shí)現(xiàn)多分類任務(wù)的神經(jīng)網(wǎng)絡(luò),輸出層的神經(jīng)元個(gè)數(shù)一般選擇()[單選題]*A、與類別數(shù)一致√B、10以內(nèi)C、2個(gè)D、類別數(shù)的2倍132.構(gòu)建一個(gè)神經(jīng)網(wǎng)絡(luò),將前一層的輸出和它自身作為輸入,則有反饋連接的是(____)[單選題]*A、循環(huán)神經(jīng)網(wǎng)絡(luò)√B、卷積神經(jīng)網(wǎng)絡(luò)C、限制玻爾茲曼機(jī)D、都不是133.從網(wǎng)絡(luò)的原理上來看,結(jié)構(gòu)最復(fù)雜的神經(jīng)網(wǎng)絡(luò)是(____)[單選題]*A、卷積神經(jīng)網(wǎng)絡(luò)B、長(zhǎng)短時(shí)記憶神經(jīng)網(wǎng)絡(luò)√C、GRUD、BP神經(jīng)網(wǎng)絡(luò)134.關(guān)于圖像分割的研究方向的劃分中,下列選項(xiàng)錯(cuò)誤的是[單選題]*A、語義分割B、全景分割C、規(guī)則分割√D、實(shí)例分割135.BP神經(jīng)網(wǎng)絡(luò)具有很的表示能力,它經(jīng)常遭遇(),其訓(xùn)練誤差持續(xù)降低,但測(cè)試誤差卻可能上升[單選題]*A、欠擬合B、誤差過大C、誤差過小D、過擬合√136.列哪些項(xiàng)所描述的相關(guān)技術(shù)是錯(cuò)誤的[單選題]*A、AdaGrad使用的是一階差分(firstorderdifferentiation)B、L-BFGS使用的是二階差分(secondorderdifferentiation)C、AdaGrad使用的是二階差分√137.以下()情況下,神經(jīng)網(wǎng)絡(luò)模型被稱為深度學(xué)習(xí)模型[單選題]*A、加入更多層,使神經(jīng)網(wǎng)絡(luò)深度加深√B、輸入層可以接收維度更高的數(shù)據(jù)C、當(dāng)問題是圖形識(shí)別或分類問題時(shí)D、激活函數(shù)更復(fù)雜138.能夠提取出圖片邊緣特征的網(wǎng)絡(luò)是()[單選題]*A、全連接層B、池化層C、卷積層√D、隱藏層139.()的主要問題是最后的3層全連接層的參數(shù)量過于龐大[單選題]*A、InceptionNetB、VCG網(wǎng)絡(luò)√C、ResNetD、AlexNet140.下列關(guān)于tensorflow的描述中,不正確的是()[單選題]*A、TensorFlow的計(jì)算圖中每個(gè)節(jié)點(diǎn)代表一個(gè)操作,如加法、減法等B、TensorFlow的張量是作為非子葉節(jié)點(diǎn)出現(xiàn)的(注:不能作為非子葉節(jié)點(diǎn)出現(xiàn))√C、基于梯度的機(jī)器學(xué)習(xí)算法會(huì)受益于TensorFlow的自動(dòng)求微分能力D、TensorFlow支持C++和Python程序141.(____)不僅可用于多層前饋神經(jīng)網(wǎng)絡(luò),還可用于其他類型的神經(jīng)網(wǎng)絡(luò)[單選題]*A、感知機(jī)B、神經(jīng)元C、神經(jīng)系統(tǒng)D、誤差逆?zhèn)鞑ァ?42.Sigmoid函數(shù)作為神經(jīng)元激活函數(shù)的特點(diǎn)是()[單選題]*A、連續(xù)但不光滑B、不連續(xù)但光滑C、連續(xù)且光滑√D、不連續(xù)且不光滑143.長(zhǎng)短時(shí)記憶神經(jīng)網(wǎng)絡(luò)通過()來緩解梯度消失問題[單選題]*A、增加網(wǎng)絡(luò)深度B、減少網(wǎng)絡(luò)神經(jīng)元C、使用雙向的網(wǎng)絡(luò)結(jié)構(gòu)D、增加一個(gè)用來保存長(zhǎng)期狀態(tài)的單元√144.()用來評(píng)估神經(jīng)網(wǎng)絡(luò)的計(jì)算模型對(duì)樣本的預(yù)測(cè)值和真實(shí)值之間的誤差大小[單選題]*A、優(yōu)化函數(shù)B、梯度下降C、反向傳播D、損失函數(shù)√145.主要用于序列標(biāo)注任務(wù)的是()[單選題]*A、序列到類別模式B、同步的序列到序列模式√C、異步的序列到序列模式D、以上選項(xiàng)均不正確146.下列哪一個(gè)神經(jīng)網(wǎng)絡(luò)模型更適合于自然語言處理()[單選題]*A、卷積神經(jīng)網(wǎng)絡(luò)CNNB、循環(huán)神經(jīng)網(wǎng)絡(luò)RNN√C、BP神經(jīng)網(wǎng)絡(luò)模型D、Hopfield神經(jīng)網(wǎng)格模型147.下面哪種方法沒辦法直接應(yīng)用于自然語言處理的任務(wù)?[單選題]*A、去語法模型B、循環(huán)神經(jīng)網(wǎng)絡(luò)C、卷積神經(jīng)網(wǎng)絡(luò)D、主成分分析(PCA)√148.對(duì)于一個(gè)分類任務(wù),如果開始時(shí)神經(jīng)網(wǎng)絡(luò)的權(quán)重不是隨機(jī)賦值的,而是都設(shè)成0,則下列敘述正確的是(____)[單選題]*A、沒有問題,神經(jīng)網(wǎng)絡(luò)會(huì)正常開始訓(xùn)練B、神經(jīng)網(wǎng)絡(luò)可以訓(xùn)練,但是所有的神經(jīng)元最后都會(huì)變成識(shí)別同樣的東西√C、神經(jīng)網(wǎng)絡(luò)不會(huì)開始訓(xùn)練,因?yàn)闆]有梯度改變D、以上選項(xiàng)都不對(duì)149.引入激活函數(shù)的目的是()[單選題]*A、加入額外的計(jì)算單元B、加快計(jì)算速度C、增加神經(jīng)網(wǎng)絡(luò)模型的非線性√D、方便反向傳播計(jì)算150.以下關(guān)于人工神經(jīng)網(wǎng)絡(luò)的描述正確的是()[單選題]*A、神經(jīng)網(wǎng)絡(luò)對(duì)訓(xùn)練數(shù)據(jù)中的噪聲不敏感,因此不用考慮數(shù)據(jù)質(zhì)量B、神經(jīng)網(wǎng)絡(luò)訓(xùn)練后很容易得到分類的規(guī)則C、訓(xùn)練人工神經(jīng)網(wǎng)絡(luò)是一個(gè)很耗時(shí)的過程√D、只能用于分類任務(wù)151.LSTM網(wǎng)絡(luò)引入門控機(jī)制來控制信息傳遞的路徑,其中輸入門的作用是()[單選題]*A、控制上一個(gè)時(shí)刻的內(nèi)部狀態(tài)需要遺忘多少信息B、控制上一個(gè)時(shí)刻的內(nèi)部狀態(tài)有多少信息需要保存C、控制當(dāng)前當(dāng)刻的候選狀態(tài)有多少信息需要保存√D、控制當(dāng)前當(dāng)刻的內(nèi)部狀態(tài)有多少信息需要輸出給外部狀態(tài)152.在一個(gè)神經(jīng)網(wǎng)絡(luò)里,知道每一個(gè)神經(jīng)元的權(quán)值和偏差值是最重要的一步。如果以某種方法知道了神經(jīng)元準(zhǔn)確的權(quán)重和偏差,就可以近似任何函數(shù)。實(shí)現(xiàn)這個(gè)最佳的辦法是(____)[單選題]*A、隨機(jī)賦值,祈禱他們是正確的B、搜索所有權(quán)重和偏差的組合,直到得到最佳值C、賦予一個(gè)初始值,通過檢查跟最佳值的差值,然后迭代更新權(quán)重√D、以上說法都不正確153.公司對(duì)外提供數(shù)據(jù)時(shí),應(yīng)根據(jù)《國家電網(wǎng)有限公司關(guān)于數(shù)據(jù)對(duì)外開放的指導(dǎo)意見》(國家電網(wǎng)互聯(lián)〔2020〕675號(hào))有關(guān)要求,執(zhí)行()的數(shù)據(jù)開放策略[單選題]*A、差異化√B、一致化C、最大化D、最小化154.大數(shù)據(jù)應(yīng)用評(píng)價(jià)與成果管理不包括[單選題]*A、應(yīng)用成效評(píng)估、工作評(píng)價(jià)B、適用頻率C、增加經(jīng)濟(jì)效益D、論文數(shù)量√155.營銷客戶檔案等重要數(shù)據(jù)建議按()存放一份完整全量數(shù)據(jù),生命周期為永久[單選題]*A、天√B、年C、月D、星期156.公司大數(shù)據(jù)應(yīng)用需求與立項(xiàng)管理遵循(),嚴(yán)格落實(shí)項(xiàng)目制管理要求,主要包括需求征集、評(píng)審、儲(chǔ)備、立項(xiàng)和計(jì)劃編制與調(diào)整等工作[單選題]*A、數(shù)字化項(xiàng)目管理規(guī)范√B、大數(shù)據(jù)應(yīng)用需求C、分級(jí)分類管理D、互聯(lián)網(wǎng)部管轄157.下列哪項(xiàng)不屬于數(shù)據(jù)共享管理的范疇()?[單選題]*A、數(shù)據(jù)目錄B、數(shù)據(jù)內(nèi)容√C、數(shù)據(jù)共享負(fù)面清單D、數(shù)據(jù)歸集管理158.對(duì)納入()的數(shù)據(jù),互聯(lián)網(wǎng)部組織制定數(shù)據(jù)使用審批程序,數(shù)據(jù)使用方提出申請(qǐng),經(jīng)數(shù)據(jù)責(zé)任部門審批授權(quán)后方可使用[單選題]*A、數(shù)據(jù)共享負(fù)面清單√B、數(shù)據(jù)風(fēng)險(xiǎn)清單C、數(shù)據(jù)保密清單D、數(shù)據(jù)共享清單159.機(jī)房照明一般要求有(____)[單選題]*A、正常照明B、保證照明C、事故照明D、以上都是√160.需加強(qiáng)國家秘密、企業(yè)秘密、個(gè)人信息、()等重點(diǎn)領(lǐng)域的數(shù)據(jù)合規(guī)管理[單選題]*A、他人信息B、個(gè)人秘密C、知識(shí)產(chǎn)權(quán)√D、公共信息161.數(shù)據(jù)中臺(tái)由()、()、()、()、()五大板塊組成,采用總部和省市公司兩級(jí)部署模式構(gòu)建[單選題]*A、貼源層、共享層、分析層、統(tǒng)一數(shù)據(jù)服務(wù)調(diào)度和數(shù)據(jù)資產(chǎn)管理√B、貼源層、應(yīng)用層、分析層、統(tǒng)一數(shù)據(jù)服務(wù)調(diào)度和數(shù)據(jù)資產(chǎn)管理C、服務(wù)層、共享層、應(yīng)用層、統(tǒng)一數(shù)據(jù)服務(wù)調(diào)度和數(shù)據(jù)資產(chǎn)管理D、服務(wù)層、共享層、分析層、統(tǒng)一數(shù)據(jù)服務(wù)調(diào)度和數(shù)據(jù)資產(chǎn)管理162.公司大數(shù)據(jù)應(yīng)用()管理主要包括項(xiàng)目啟動(dòng)、開發(fā)和實(shí)施、問題處置等工作[單選題]*A、開發(fā)實(shí)施√B、立項(xiàng)檢查C、成果驗(yàn)收D、開發(fā)流程163.假冒網(wǎng)絡(luò)管理員,騙取用戶信任,然后獲取密碼口令信息的攻擊方式被稱為(____)[單選題]*A、密碼猜解攻擊B、社會(huì)工程攻擊√C、緩沖區(qū)溢出攻擊D、網(wǎng)絡(luò)監(jiān)聽攻擊164.在“十三五”重點(diǎn)任務(wù)——(七)重點(diǎn)跨領(lǐng)域技術(shù)中將()列為一項(xiàng)需要重點(diǎn)發(fā)展的技術(shù)[單選題]*A、電網(wǎng)安全控制與電力大數(shù)據(jù)技術(shù)B、面向互聯(lián)網(wǎng)+的營銷大數(shù)據(jù)運(yùn)營技術(shù)C、電測(cè)與計(jì)量一體化支撐關(guān)鍵技術(shù)D、先進(jìn)計(jì)算與電力大數(shù)據(jù)技術(shù)√165.下列模型屬于考慮詞語位置關(guān)系的是()o[單選題]*A、詞向量模型√B、詞袋模型C、詞的分布式表示D、TF-IDF166.下列不屬于數(shù)據(jù)科學(xué)項(xiàng)目主要角色的是()[單選題]*A、項(xiàng)目發(fā)起人B、項(xiàng)目經(jīng)理C、操作員D、驗(yàn)收人員√167.假定使用SVM學(xué)習(xí)數(shù)據(jù)X,數(shù)據(jù)X里面有些點(diǎn)存在錯(cuò)誤?,F(xiàn)在如果使用一個(gè)二次核函數(shù),多項(xiàng)式階數(shù)為2,使用松弛變量C作為超參之一。當(dāng)使用較大的C(C趨于無窮),則()[單選題]*A、仍然能正確分類數(shù)據(jù)√B、不能正確分類C不確定D、以上均不正確168.在邏輯回歸輸出與目標(biāo)對(duì)比的情況下,下列評(píng)估指標(biāo)不適用的是()[單選題]*A、AUC-ROCB、準(zhǔn)確度C、LoglossD、均方誤差√169.假設(shè)正在訓(xùn)練一個(gè)LSTM網(wǎng)絡(luò),有一個(gè)10000詞的詞匯表,并且使用一個(gè)激活值維度為100的LSTM塊,在每一個(gè)時(shí)間步中,F(xiàn)u的維度是()o[單選題]*A、1B、100√C、300D、10000170.關(guān)于嶺回歸,下列說法錯(cuò)誤的是()[單選題]*A屬于線性回歸B使用L2正規(guī)項(xiàng)C使用L1正規(guī)項(xiàng)√D基于最小二乘法171.下列操作屬于預(yù)剪枝的是()[單選題]*A、信息增益B、計(jì)算最好的特征切分點(diǎn)C、限制樹模型的深度√D、可視化樹模型172.()負(fù)責(zé)HDFS數(shù)據(jù)存儲(chǔ)[單選題]*A、NameNodeB、JobTrackerC、DataNode√D、SecondaryNameNode173.基于數(shù)據(jù)集劃分方式的不同,評(píng)估方法可以分為三種,下列錯(cuò)誤的是()[單選題]*A、交叉驗(yàn)證法B、自助法C、過濾法√D、留出法174.在支持向量機(jī)中,核函數(shù)的主要作用是()o[單選題]*A、將低維空間中線性不可分的數(shù)據(jù)映射到高維空間,使其線性可分√B、將高維空間中線性不可分的數(shù)據(jù)映射到低維空間,使其線性可分C、將高維空間中線性可分的數(shù)據(jù)映射到低維空間,使其線性不可分D、將低維空間中線性可分的數(shù)據(jù)映射到高維空間,使其線性不可分175._____是用來度量樣本集合純度的常用指標(biāo)[單選題]*A、基尼系數(shù)B、離散度C、信息熵√D、可決系數(shù)176.()屬于深度學(xué)習(xí)框架[單選題]*A、TensorflowB、CaffeC、PyTorchD、以上答案都正確√177.國家支持開發(fā)利用數(shù)據(jù)提升公共服務(wù)的(),應(yīng)當(dāng)充分考慮老年人、殘疾人的需求,避免對(duì)老年人、殘疾人的日常生活造成障礙[單選題]*A、數(shù)據(jù)化服務(wù)B、智能化服務(wù)√C、智能化水平D、數(shù)據(jù)智能化178.(__)通過構(gòu)建并結(jié)合多個(gè)學(xué)習(xí)器來完成學(xué)習(xí)任務(wù)[單選題]*A、支持向量機(jī)B、貝葉斯分類器C、神經(jīng)網(wǎng)絡(luò)D、集成學(xué)習(xí)√179.神經(jīng)網(wǎng)絡(luò)的數(shù)據(jù)預(yù)處理,一般包括以下哪些步驟[多選題]*A、將數(shù)據(jù)向量化√B、將數(shù)據(jù)值標(biāo)準(zhǔn)化√C、處理缺失值√D、將數(shù)據(jù)值轉(zhuǎn)化為浮點(diǎn)數(shù)或整數(shù)√180.在深度學(xué)習(xí)中采用梯度下降方法往往達(dá)不到最優(yōu)解,而是在以下哪些情況下停止了。[多選題]*A、鞍點(diǎn)√B、.局部極值點(diǎn)√C、.高原(plateau)點(diǎn)√D、.早停點(diǎn)√181.數(shù)據(jù)分析服務(wù)目錄的服務(wù)產(chǎn)品類別包含()[多選題]*A、場(chǎng)景應(yīng)用√B、分析報(bào)告√C、算法模型√D、分析數(shù)據(jù)集√182.NodeManager的內(nèi)存和CPU的數(shù)量,是:通過:()選項(xiàng)進(jìn)行配置。[多選題]*A、Yarn.scheduler.-capacity.root.Queuemaximum-capacityB、yarn.nodemanager.resource.-cpu-vcore√C、yarn.nodemanager.vmem-pmom-ratio√D、yarn.nodemanager.resource.memory-mb√183.有關(guān)循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)的說法,以下哪些說法是正確的?(____)。[多選題]*A、RNN的隱層神經(jīng)元的輸入包括其歷史各個(gè)時(shí)間點(diǎn)的輸出B、RNN比較擅長(zhǎng)處理時(shí)序數(shù)據(jù),例如文本的分析√C、在各個(gè)時(shí)間點(diǎn),RNN的輸入層與隱層之間、隱層與輸出層之間以及相鄰時(shí)間點(diǎn)之間的隱層權(quán)重是共享的,因?yàn)椴煌瑫r(shí)刻對(duì)應(yīng)同一個(gè)網(wǎng)絡(luò)√D、RNN的損失函數(shù)度量所有時(shí)刻的輸入與理想輸出的差異,需要使用梯度下降法調(diào)整參數(shù)不斷降低損失函數(shù)√184.RNN網(wǎng)絡(luò)的激活函數(shù)選用雙曲正切而不是Sigmod的原因有(____)。[多選題]*A、使用Sigmod函數(shù)容易出現(xiàn)梯度消失√B、Sigmod的導(dǎo)數(shù)形式較為復(fù)雜√C、雙曲正切更簡(jiǎn)單D、Sigmoid函數(shù)實(shí)現(xiàn)較為復(fù)雜185.當(dāng)圖像分類的準(zhǔn)確率不高時(shí),可以考慮以下哪種方法提高準(zhǔn)確率。[多選題]*A、數(shù)據(jù)增強(qiáng)√B、調(diào)整超參數(shù)√C、使用預(yù)訓(xùn)練網(wǎng)絡(luò)參數(shù)√D、減少數(shù)據(jù)集186.下列關(guān)于ROC曲線和AUC說法正確的是:[多選題]*A、TPR=(TP)/(TP+FN)√B、FPR=(FP)/(TP+FN)√C、ROC曲線的縱軸是“真正確率”√D、ROC曲線的橫軸是“假正確率”√187.通過技術(shù)創(chuàng)新和管理變革交叉賦能,完成以客戶為中心的快速迭代與創(chuàng)新,實(shí)現(xiàn)公司在客戶、電網(wǎng)等核心業(yè)務(wù)能力提升及資源聚合。[多選題]*A、技術(shù)創(chuàng)新√B、管理變革√C、模式創(chuàng)新D、政策變革188.在決策樹基本算法中,有三種情形會(huì)導(dǎo)致遞歸返回,這三種情形分別是(__)。[多選題]*A、當(dāng)前結(jié)點(diǎn)包含的樣本全屬于同一類別,無需劃分√B、當(dāng)前屬性集為空,或是所有樣本在所有屬性上取值相同,無法劃分√C、當(dāng)前結(jié)點(diǎn)包含的樣本集合為空,不能劃分√D、當(dāng)前結(jié)點(diǎn)包含的樣本不屬于同一類別,不可劃分189.下面哪些方法有助于解決深度網(wǎng)絡(luò)的梯度消失問題()[多選題]*A、增加網(wǎng)絡(luò)深度B、使用Sigmoid激活函數(shù)C、使用ReLU激活函數(shù)√D、采用BatchNormalization√190.關(guān)于數(shù)據(jù)中臺(tái)架構(gòu)原則,以下說法正確的是()。[多選題]*A、模型統(tǒng)一√B、資源匯聚√C、同源維護(hù)√D、共建共享√191.去除噪聲數(shù)據(jù)的方法有哪些?[多選題]*A、分箱√B、回歸√C、離群點(diǎn)分析√D、特征提取192.神經(jīng)網(wǎng)絡(luò)可以按()[多選題]*A、學(xué)習(xí)方式分類√B、網(wǎng)絡(luò)結(jié)構(gòu)分類√C、網(wǎng)絡(luò)的協(xié)議類型分類D、網(wǎng)絡(luò)的活動(dòng)方式分類√193.下面哪些情況可能導(dǎo)致神經(jīng)網(wǎng)絡(luò)訓(xùn)練失敗[多選題]*A、梯度消失√B、梯度爆炸√C、激活單元消失√D、鞍點(diǎn)√194.下列哪些方法是常見解決分類模型之類別不平衡問題的方法。[多選題]*A、欠采樣√B、過采樣√C、強(qiáng)化學(xué)習(xí)D、生成對(duì)抗網(wǎng)絡(luò)√195.對(duì)于正交屬性空間中的樣本點(diǎn),若存在一個(gè)超平面對(duì)所有樣本進(jìn)行恰當(dāng)?shù)谋磉_(dá),則這樣的超平面應(yīng)具有(__)和(__)的性質(zhì)。[多選題]*A、最近重構(gòu)性√B、最大可分性√C、最遠(yuǎn)重構(gòu)性D、最小可分性196.下面關(guān)于池化的描述中,正確的的說法有哪些?[多選題]*A、池化方法也可以自定義√B、池化在CNN中沒有增加可訓(xùn)練的參數(shù),但減少較多的計(jì)算量,加快模型訓(xùn)練時(shí)間√C、池化的常用方法包括最大化池化、最小化池化、平均化池化、全局池化D、在人臉識(shí)別中采用較多池化的原因是為了獲得人臉部的高層特征√197.深度神經(jīng)網(wǎng)絡(luò)的構(gòu)成中,把卷積層放在前面,全連接層放在后面。以下說法正確的是?[多選題]*A、用卷積層提取特征√B、pooling的下采樣能夠降低overfitting√C、全連接層只能有一層D、激活函數(shù)relu可以用到卷積層√198.公司業(yè)務(wù)中臺(tái)由下列哪些中臺(tái)組成[多選題]*A、客戶服務(wù)業(yè)務(wù)中臺(tái)√B、電網(wǎng)資源業(yè)務(wù)中臺(tái)√C、財(cái)務(wù)管理業(yè)務(wù)中臺(tái)√D、項(xiàng)目管理業(yè)務(wù)中臺(tái)√199.下面哪些情況可能導(dǎo)致神經(jīng)網(wǎng)絡(luò)訓(xùn)練失敗。[多選題]*A、梯度消失√B、梯度爆炸√C、激活單元死亡√D、鞍點(diǎn)√200.門循環(huán)單元網(wǎng)絡(luò)(GRU)主要有哪兩個(gè)門限函數(shù)組成()。[多選題]*A、重置門√B、遺忘門C、激活門D、更新門√201.以下對(duì)于Transformer的說法中,正確的是[多選題]*A、Transformer中有三種不同的mask機(jī)制:inputspaddingmask、lookaheadmask和outputspaddingmask√B、layernormalization和batchnormalization都是樣本歸一化方法,他們?cè)谟?jì)算時(shí)都是用同一個(gè)均值和方差。C、Self-Attention中,必須要做輸入特征向量線性變換√D、位置編碼可以通過自定義函數(shù)來轉(zhuǎn)換,也可以通過lookup方式讓模型自主學(xué)習(xí)位置編碼√202.下列哪個(gè)神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)會(huì)發(fā)生權(quán)重共享。[多選題]*A、卷積神經(jīng)網(wǎng)絡(luò)√B、循環(huán)神經(jīng)網(wǎng)絡(luò)√C、全連接神經(jīng)網(wǎng)絡(luò)D、Softmax層203.與全連接的DNN,CNN的優(yōu)勢(shì)有(____)。[多選題]*A、參數(shù)更少√B、泛化更好√C、訓(xùn)練更快√D、更容易搭建204.從形式語言表達(dá)能力而言,規(guī)則可分為兩類:(__)和(__)。[多選題]*A、命題規(guī)則√B、一階規(guī)則√C、原子命題D、邏輯連接詞205.參考數(shù)據(jù)用于對(duì)其他數(shù)據(jù)進(jìn)行分類,通常是靜態(tài),并有一個(gè)有限的可選值范圍,下列哪些數(shù)據(jù)屬于參考數(shù)據(jù)()。[多選題]*A、組織機(jī)構(gòu)B、電壓等級(jí)√C、物料D、合同類型√206.各單位要從責(zé)任、管理和技術(shù)上夯實(shí)基礎(chǔ),完善數(shù)據(jù)安全風(fēng)險(xiǎn)防控體系,確保安全合規(guī)地____、____、____數(shù)據(jù)。[多選題]*A、公開B、使用√C、交互√D、共享√207.支持創(chuàng)建的數(shù)據(jù)標(biāo)簽類型有:()。[多選題]*A、規(guī)則標(biāo)簽√B、組合標(biāo)簽√C、手工標(biāo)簽√D、實(shí)時(shí)標(biāo)簽√208.下列關(guān)于交叉驗(yàn)證法描述正確的是(__)。[多選題]*A、交叉驗(yàn)證法先將數(shù)據(jù)集劃分為k個(gè)大小相似的互斥子集√B、交叉驗(yàn)證法將數(shù)據(jù)集劃分成的k個(gè)子集應(yīng)盡可能保持?jǐn)?shù)據(jù)分布的一致性√C、通常把交叉驗(yàn)證法稱為k折交叉驗(yàn)證√D、假定數(shù)據(jù)集D中包含m個(gè)樣本,若令交叉驗(yàn)證法中的系數(shù)k=m,則得到了交叉驗(yàn)證法的一個(gè)特例:自助法209.當(dāng)圖像分類的準(zhǔn)確率不高時(shí),可以考慮以下哪種方法提高準(zhǔn)確率[多選題]*A、數(shù)據(jù)增強(qiáng)√B、調(diào)整超參數(shù)√C、使用預(yù)訓(xùn)練網(wǎng)絡(luò)參數(shù)√D、減少數(shù)據(jù)集210.以下有關(guān)生成對(duì)抗網(wǎng)絡(luò)的說法正確的是()。[多選題]*A、生成器可以由Autoencoder實(shí)現(xiàn)√B、生成器用來產(chǎn)生帶有隨機(jī)噪聲的一定分布數(shù)據(jù)和真實(shí)樣本數(shù)據(jù)的映射關(guān)系,判別器用來區(qū)別實(shí)際數(shù)據(jù)和生成器產(chǎn)生的數(shù)據(jù)√C、生成器和判別器需要交替訓(xùn)練,不斷增加兩者的性能,直至達(dá)到某種博弈的平衡√D、生成器和判別器的代價(jià)函數(shù)在訓(xùn)練過程中是同時(shí)優(yōu)化的211.下列關(guān)于嵌入式選擇描述正確的是(__)。[多選題]*A、嵌入式選擇是將特征選擇過程與學(xué)習(xí)器訓(xùn)練過程融為一體√B、嵌入式選擇在學(xué)習(xí)器訓(xùn)練過程中自動(dòng)地進(jìn)行了特征選擇√C、對(duì)于嵌入式選擇,特征選擇過程與學(xué)習(xí)器訓(xùn)練過程在同一個(gè)優(yōu)化過程中完成√D、嵌入式特征選擇方法直接針對(duì)給定學(xué)習(xí)器進(jìn)行優(yōu)化212.以下那種神經(jīng)網(wǎng)絡(luò)的設(shè)計(jì)中引入了殘差網(wǎng)絡(luò)結(jié)構(gòu)[多選題]*A、LeNetB、Transformer√C、AlexNetD、ResNets√213.以下關(guān)于數(shù)據(jù)中臺(tái)的描述,正確的是()。[多選題]*A、數(shù)據(jù)中臺(tái)是企業(yè)級(jí)數(shù)據(jù)能力共享平臺(tái)。√B、數(shù)據(jù)中臺(tái)將業(yè)務(wù)生產(chǎn)資料轉(zhuǎn)變?yōu)閿?shù)據(jù)生產(chǎn)力,通過數(shù)據(jù)整合、提純加工、數(shù)據(jù)可視化推動(dòng)數(shù)據(jù)價(jià)值釋放,反哺業(yè)務(wù),實(shí)現(xiàn)數(shù)據(jù)增值、賦能新業(yè)務(wù)?!藽、數(shù)據(jù)中臺(tái)通過實(shí)現(xiàn)各類型數(shù)據(jù)資源全量納管、處理分析,推動(dòng)數(shù)據(jù)業(yè)務(wù)化。√D、國網(wǎng)數(shù)據(jù)中臺(tái)采用總部和省市公司兩級(jí)部署模式構(gòu)建?!?14.假設(shè)在一個(gè)深度學(xué)習(xí)網(wǎng)絡(luò)中,批量梯度下降花費(fèi)了大量時(shí)間時(shí)來找到一組參數(shù)值,使成本函數(shù)小。以下哪些方法可以幫助找到值較小的參數(shù)值?[多選題]*A、令所有權(quán)重值初始化為0B、嘗試調(diào)整學(xué)習(xí)率√C、嘗試mini-batch梯度下降√D、嘗試對(duì)權(quán)重進(jìn)行更好的隨機(jī)初始化√215.數(shù)據(jù)使用環(huán)節(jié),應(yīng)結(jié)合數(shù)據(jù)業(yè)務(wù)場(chǎng)景采用()等技術(shù)手段實(shí)現(xiàn)差異化防護(hù),遵循最小授權(quán)原則訪問和處理個(gè)人信息和企業(yè)重要數(shù)據(jù)。[多選題]*A、脫敏√B、水印√C、審計(jì)√D、加密216.下面梯度下降說法正確的是?[多選題]*A、隨機(jī)梯度下降是梯度下降中常用的一種√B、梯度下降包括隨機(jī)梯度下降和批量梯度下降√C、梯度下降算法速度快且可靠D、隨機(jī)梯度下降是深度學(xué)習(xí)算法當(dāng)中常用的優(yōu)化算法之一√217.在分類問題中,我們經(jīng)常會(huì)遇到正負(fù)樣本數(shù)據(jù)量不等的情況比如正樣本為10w條數(shù)據(jù),負(fù)樣本只有1w條數(shù)據(jù),以下最合適的處理方法是[多選題]*A、將負(fù)樣本重復(fù)10次生成10w樣本量打亂順序參與分類√B、直接進(jìn)行分類可以最大限度利用數(shù)據(jù)C、從10w正樣本中隨機(jī)抽取1w參與分類√D、將負(fù)樣本每個(gè)權(quán)重設(shè)置為10,正樣本權(quán)重為1,參與訓(xùn)練過程√218.關(guān)于Hbase存儲(chǔ)模型的描述正確的是:()。[多選題]*A、即使是:key值相同,qualifier也相同的多個(gè)KeyValue也可能有:多個(gè),此時(shí)使用時(shí)間戳來區(qū)分√B、同一個(gè)key值可以關(guān)聯(lián)多個(gè)value√C、keyvalue中期有:時(shí)間戳,類型等關(guān)鍵信息√D、每一個(gè)keyvalue都有:一個(gè)qualifier標(biāo)識(shí)√219.-cNN常見的Loss函數(shù)包括以下哪個(gè)()。[多選題]*A、softmax_loss√B、sigmoid_loss√C、Contrastive_Loss√D、siamese_loss220.下列的哪種方法可以用來降低深度學(xué)習(xí)模型的過擬合問題?[多選題]*A、增加更多的數(shù)據(jù)√B、使用數(shù)據(jù)擴(kuò)增技術(shù)(dataaugmentation)√C、使用歸納性更好的架構(gòu)√D、正則化數(shù)據(jù)√221.Feigenbaum等人在著名的《人工智能手冊(cè)》中將機(jī)器學(xué)習(xí)劃分為機(jī)械學(xué)習(xí)和(_)四種。[多選題]*A、深度學(xué)習(xí)B、示教學(xué)習(xí)√C、類比學(xué)習(xí)√D、歸納學(xué)習(xí)√222.數(shù)據(jù)分析服務(wù)目錄的共享程度包含()[多選題]*A、完全共享√B、有條件共享√C、不共享√D、其他223.對(duì)涉及負(fù)面清單中個(gè)人信息等敏感數(shù)據(jù)的共享應(yīng)用,應(yīng)采取數(shù)據(jù)[多選題]*A、共享B、數(shù)據(jù)水印√C、訪問授權(quán)√D、安全審計(jì)√224.深度學(xué)習(xí)中的激活函數(shù)需要具有哪些屬性()。[多選題]*A、計(jì)算簡(jiǎn)單√B、非線性√C、具有飽和區(qū)D、幾乎處處可微√225.深度學(xué)習(xí)中,以下哪些方法可以降低模型過擬合?[多選題]*A、增加更多的樣本√B、Dropout√C、增大模型復(fù)雜度,提高在訓(xùn)練集上的效果D、增加參數(shù)懲罰√226.根據(jù)訓(xùn)練數(shù)據(jù)是否擁有標(biāo)記信息,學(xué)習(xí)任務(wù)可大致分為(___)和(___)。[多選題]*A、監(jiān)督學(xué)習(xí)√B、訓(xùn)練集C、無監(jiān)督學(xué)習(xí)√D、測(cè)試集227.深度學(xué)習(xí)中的激活函數(shù)需要具有哪些屬性?[多選題]*A、計(jì)算簡(jiǎn)單√B、非線性√C、具有飽和區(qū)D、幾乎處處可微√228.國家大數(shù)據(jù)發(fā)展戰(zhàn)略,認(rèn)真落實(shí)國務(wù)院國資委加強(qiáng)合規(guī)管理、建設(shè)法治央企工作部署,緊扣“________”的要求[多選題]*A、穩(wěn)√B、進(jìn)√C、育√D、開√229.許多功能更為強(qiáng)大的非線性模型可在線性模型基礎(chǔ)上通過引入(__)和(__)而得[多選題]*A、層級(jí)結(jié)構(gòu)√B、高維映射√C、降維D、分類230.以下哪種方法有可能解決模型在測(cè)試集上效果不好的問題。[多選題]*A、EarlyStopping√B、.Regulization√C、.Dropout√D、.AdaptiveLearningRate231.如果模型的誤差來自于偏差較大,可以采用以下措施解決。[多選題]*A、給數(shù)據(jù)增加更多的特征√B、.設(shè)計(jì)更復(fù)雜的模型√C、.增加更多的數(shù)據(jù)D、.使用正則化232.為什么最好的mini-batch的大小通常不是1也不是m,而是介于兩者之間?[多選題]*A、如果mini-batch的大小是1,那么在取得進(jìn)展前,需要遍歷整個(gè)訓(xùn)練集B、如果mini-batch的大小是m,就會(huì)變成批量梯度下降。在取得進(jìn)展前,需要遍歷整個(gè)訓(xùn)練集√C、如果mini-batch的大小是1,那么將失去mini-batch將數(shù)據(jù)矢量化帶來的的好處√D、如果mini-batch的大小是m,就會(huì)變成隨機(jī)梯度下降,而這樣做經(jīng)常會(huì)比mini-batch慢233.在訓(xùn)練深度學(xué)習(xí)模型時(shí),發(fā)現(xiàn)訓(xùn)練集誤差不斷減少,測(cè)試集誤差不斷增大,以下解決方法正確的是?[多選題]*A、數(shù)據(jù)增廣√B、增加網(wǎng)絡(luò)深度C、提前停止訓(xùn)練√D、添加Dropout√234.相對(duì)于DNN模型,CNN模型做了哪些改變?[多選題]*A、局部連接√B、使用了relu激活函數(shù)C、參數(shù)共享√D、增加了batchnormalization.235.為什么正則化能處理過擬合?[多選題]*A、懲罰了模型的復(fù)雜度,避免模型過度學(xué)習(xí)訓(xùn)練集,提高泛化能力√B、剃刀原理:如果兩個(gè)理論都能解釋一件事情,那么較為簡(jiǎn)單的理論往往是正確的√C、正則項(xiàng)降低了每一次系數(shù)w更新的步伐,使參數(shù)更小,模型更簡(jiǎn)單√D、貝葉斯學(xué)派的觀點(diǎn),認(rèn)為加入了先驗(yàn)分布(l1拉普拉斯分布,l2高斯分布),減少參數(shù)的選擇空間√236.將參數(shù)keep_prob從(比如說)0.5增加到0.6可能會(huì)導(dǎo)致以下情況?[多選題]*A、正則化效應(yīng)被增強(qiáng)B、正則化效應(yīng)被減弱√C、訓(xùn)練集的誤差會(huì)增加D、訓(xùn)練集的誤差會(huì)減小√237.下列關(guān)于梯度消失和梯度爆炸的說法正確的有()。[多選題]*A、根據(jù)鏈?zhǔn)椒▌t,如果每一層神經(jīng)元對(duì)上一層的輸出的偏導(dǎo)乘上權(quán)重結(jié)果都小于1的話,那么即使這個(gè)結(jié)果是0.99,在經(jīng)過足夠多層傳播之后,誤差對(duì)輸入層的偏導(dǎo)會(huì)趨于√B、可以采用ReLU激活函數(shù)有效地解決梯度消失的情況√C、根據(jù)鏈?zhǔn)椒▌t,如果每一層神經(jīng)元對(duì)上一層的輸出的偏導(dǎo)乘上權(quán)重結(jié)果都大于1的話,在經(jīng)過足夠多層傳播之后,誤差對(duì)輸入層的偏導(dǎo)會(huì)趨于無窮大√D、可以通過減小初始權(quán)重矩陣的值來緩解梯度爆炸√238.動(dòng)量梯度下降算法是通過()和()控制梯度下降的[多選題]*A、最小值B、指數(shù)加權(quán)平均值√C、學(xué)習(xí)率√D、標(biāo)準(zhǔn)差239.數(shù)據(jù)使用環(huán)節(jié),應(yīng)結(jié)合數(shù)據(jù)業(yè)務(wù)場(chǎng)景采用()等技術(shù)手段實(shí)現(xiàn)差異化防護(hù),遵循最小授權(quán)原則訪問和處理個(gè)人信息和企業(yè)重要數(shù)據(jù)。[多選題]*A、脫敏√B、水印√C、審計(jì)√D、加密240.評(píng)估內(nèi)容包括但不限于()兩個(gè)方面,具體可包括使用頻率、使用范圍及應(yīng)用大數(shù)據(jù)帶來的效率提升、增加的社會(huì)或經(jīng)濟(jì)效益等。[多選題]*A、應(yīng)用性能√B、應(yīng)用拓展C、應(yīng)用延伸D、應(yīng)用效益√241.大數(shù)據(jù)應(yīng)用建設(shè)及運(yùn)營過程中如發(fā)生數(shù)據(jù)安全問題,應(yīng)立即暫停大數(shù)據(jù)應(yīng)用建設(shè)或運(yùn)營工作,向()、()、()及相關(guān)專業(yè)管理等部門報(bào)告。[多選題]*A、互聯(lián)網(wǎng)部√B、安保部√C、法規(guī)部√D、安監(jiān)部242.按照“”的總體原則,明確大數(shù)據(jù)應(yīng)用數(shù)據(jù)安全職責(zé)分工,落實(shí)數(shù)據(jù)安全責(zé)任。[多選題]*A、誰生產(chǎn)誰負(fù)責(zé)B、誰主管誰負(fù)責(zé)√C、誰運(yùn)行誰負(fù)責(zé)√D、誰使用誰負(fù)責(zé)√243.大數(shù)據(jù)應(yīng)用專業(yè)支撐單位應(yīng)落實(shí)大數(shù)據(jù)應(yīng)用相關(guān)數(shù)據(jù)____和____,加強(qiáng)數(shù)據(jù)安全前沿技術(shù)研究應(yīng)用,提升數(shù)據(jù)安全感知、監(jiān)測(cè)、追溯和控制等能力,為大數(shù)據(jù)應(yīng)用工作做好數(shù)據(jù)安全技術(shù)保障。[多選題]*A、安全策略√B、管控措施√C、技術(shù)研究D、技術(shù)應(yīng)用244.()、()、()等納入負(fù)面清單的數(shù)據(jù),由數(shù)據(jù)使用方提出申請(qǐng),經(jīng)數(shù)據(jù)產(chǎn)生的總部業(yè)務(wù)部門和數(shù)據(jù)歸口管理部門審批后方可對(duì)內(nèi)跨部門、跨單位給數(shù)據(jù)使用方使用。[多選題]*A、商業(yè)秘密√B、企業(yè)秘密C、工作秘密√D、個(gè)人信息√245.緊扣大數(shù)據(jù)價(jià)值提升主題,充分發(fā)揮公司數(shù)據(jù)資源的()、()和()作用,加強(qiáng)專業(yè)協(xié)同和層級(jí)聯(lián)動(dòng),推動(dòng)數(shù)據(jù)與業(yè)務(wù)融合創(chuàng)新,持續(xù)提升大數(shù)據(jù)應(yīng)用水平,實(shí)現(xiàn)價(jià)值創(chuàng)造。[多選題]*A、洞察預(yù)測(cè)√B、統(tǒng)籌管理C、創(chuàng)新引擎√D、動(dòng)能轉(zhuǎn)換√246.用戶在使用數(shù)據(jù)分析服務(wù)目錄的過程中可以通過以下()方式進(jìn)行溝通[多選題]*A、意見反饋√B、留言功能√C、產(chǎn)品問答功能√D、設(shè)置400客服電話247.數(shù)據(jù)分析服務(wù)目錄的孵化平臺(tái)包含以下()功能[多選題]*A、共享資源√B、分析工具√C、孵化產(chǎn)品√D、孵化需求√248.用戶遇見感興趣的服務(wù)可以使用數(shù)據(jù)分析服務(wù)目錄的()功能,以便下次再使用[多選題]*A、在服務(wù)詳情頁點(diǎn)訂閱√B、在服務(wù)詳情頁點(diǎn)關(guān)注√C、添加到工作臺(tái)√D、自動(dòng)發(fā)送OA郵件消息249.數(shù)據(jù)分析服務(wù)目錄的為用戶推薦服務(wù)產(chǎn)品時(shí),綜合考慮以下()內(nèi)容[多選題]*A、單位相關(guān)性√B、部門相關(guān)性√C、專業(yè)相關(guān)性√D、隨機(jī)推薦250.數(shù)據(jù)中臺(tái)由()五大板塊組成,采用總部和省市公司兩級(jí)部署模式構(gòu)建。[多選題]*A、貼源層√B、共享層√C、分析層√D、統(tǒng)一數(shù)據(jù)服務(wù)調(diào)度√E.數(shù)據(jù)資產(chǎn)管理√B1.下列關(guān)于Python第三方庫的安裝方法說法錯(cuò)誤的是()[單選題]*A、使用集成安裝工具B、使用pip命令C、訪問UCI網(wǎng)站下載安裝文件D、聯(lián)系第三方庫作者索要安裝文件√2.數(shù)據(jù)中臺(tái)典型應(yīng)用開發(fā)場(chǎng)景包括報(bào)表、()、分析挖掘應(yīng)用、實(shí)時(shí)計(jì)算、數(shù)據(jù)探索5個(gè)場(chǎng)景。[單選題]A、設(shè)計(jì)開發(fā)B、綁定數(shù)據(jù)源C、數(shù)據(jù)服務(wù)√D、統(tǒng)計(jì)應(yīng)用3.關(guān)于主成分?jǐn)?shù)目的選取,正確的是()[單選題]*A、保留多少個(gè)主成分取決于累計(jì)方差在方差總和中所占百分比√B、一般選擇50%以上C、選擇前兩個(gè)就可以D、選擇的數(shù)目和變量的個(gè)數(shù)一致4.假設(shè)檢驗(yàn)中,拒絕域的邊界稱為()[單選題]*A、臨界值√B、臨界點(diǎn)C、置信水平D、邊際值5.當(dāng)不知道數(shù)據(jù)所帶標(biāo)簽時(shí),可以使用哪種技術(shù)促使帶同類標(biāo)簽的數(shù)據(jù)與帶其他標(biāo)簽的數(shù)據(jù)相分離?[單選題]*A、分類B、聚類√C、關(guān)聯(lián)分析D、隱馬爾可夫鏈6.Flume傳輸?shù)幕締卧牵ǎ單選題]*A、gentB、SinkC、Event√D、Client7.在python中,字符串s='abc',那么執(zhí)行表達(dá)式s+'d'之后,s的打印結(jié)果是什么()[單選題]*A、bc';B、abcd';√C、abc+d';D、報(bào)錯(cuò);8.下列配置文件配置了Hive存儲(chǔ)數(shù)據(jù)的路徑的是()[單選題]*A、hive-default.xmlB、hive-site.xml√C、hive-env.shD、perties9.數(shù)據(jù)中臺(tái)支持服務(wù)統(tǒng)一注冊(cè)與發(fā)布;滿足協(xié)議轉(zhuǎn)換,根據(jù)服務(wù)調(diào)用者的要求提供不同協(xié)議的轉(zhuǎn)發(fā);支持服務(wù)訂閱、授權(quán)、檢索以及應(yīng)用接入管理;支持權(quán)限認(rèn)證,包括免認(rèn)證、token、Basic等認(rèn)證形式;支持限流降級(jí)功能;提供運(yùn)維監(jiān)控能力;支持服務(wù)的()分析[單選題]*A、單一B、多維√C、精確D、模糊10.下列關(guān)于縮進(jìn)格式的描述不正確的是()[單選題]*A、縮進(jìn)指在代碼行前面添加空格或TabB、在Python程序中,縮進(jìn)不是任意的C、縮進(jìn)可以使程序更有層次感、結(jié)構(gòu)感,從而使程序更易讀D、平級(jí)的語句行(代碼塊)的縮進(jìn)可以不相同√11.所有預(yù)測(cè)模型在廣義上都可成為一個(gè)或一組()[單選題]*A、公式B、邏輯C、命題D、規(guī)則√12.SVM(支持向量機(jī))與LR(邏輯回歸)的數(shù)學(xué)本質(zhì)上的區(qū)別是什么?[單選題]*A、損失函數(shù)√B、是否有核技巧C、是否支持多分類D、其余選項(xiàng)皆錯(cuò)13.關(guān)于神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)的關(guān)系表述不正確的是?[單選題]*A、深度學(xué)習(xí)的概念源于人工神經(jīng)網(wǎng)絡(luò)的研究B、含有多個(gè)隱層的神經(jīng)網(wǎng)絡(luò)算法就是一種深度學(xué)習(xí)算法√C、單層神經(jīng)網(wǎng)絡(luò)也是深度學(xué)習(xí)的一種D、卷積神經(jīng)網(wǎng)絡(luò)屬于深度學(xué)習(xí)的一種14.下面哪個(gè)是SVM在實(shí)際生活中的應(yīng)用?[單選題]*A、文本分類B、圖片分類C、新聞聚類D、以上都對(duì)√15.下列關(guān)于線性回歸分析中的殘差說法正確是[單選題]*A、殘差均值總是為零√B、殘差均值總是小于零C、殘差均值總是大于零D、以上說法都不對(duì)16.具有過程性知識(shí)、陳述性知識(shí)、啟發(fā)性知識(shí)、元知識(shí)、結(jié)構(gòu)化知識(shí)五種主要知識(shí)分類的人工智能領(lǐng)域是()[單選題]*A、專家系統(tǒng)√B、機(jī)器學(xué)習(xí)C、神經(jīng)計(jì)算D、自動(dòng)規(guī)劃17.以下哪種方法不屬于于監(jiān)督學(xué)習(xí)模型()[單選題]*A、決策樹B、線性回歸C、關(guān)聯(lián)分析√D、判別分析18.下列關(guān)于模型評(píng)估指標(biāo)說法錯(cuò)誤的是()[單選題]*A、錯(cuò)誤率:分類錯(cuò)誤樣本數(shù)占總樣本數(shù)比例B、精度:最佳值為1C、訓(xùn)練誤差:模型在測(cè)試集上的誤差√D、泛化誤差:模型在新樣本上的誤差19.隨機(jī)森林中的隨機(jī)是指()[單選題]*A、隨便構(gòu)建樹模B、隨機(jī)選擇一個(gè)樹模型C、隨機(jī)選擇多個(gè)樹模型D、在構(gòu)建每個(gè)樹模型時(shí)隨機(jī)選擇樣本和特征√20.某超市研究銷售紀(jì)錄數(shù)據(jù)后發(fā)現(xiàn),買啤酒的人很大概率也會(huì)購買尿布,這種屬于數(shù)據(jù)挖掘的()問題[單選題]*A、關(guān)聯(lián)規(guī)則√B、聚類C、分類D、自然語言處理21.評(píng)估完模型之后,發(fā)現(xiàn)模型存在高偏差(highbias),應(yīng)該如何解決()[單選題]*A、減少模型的特征數(shù)量B、增加模型的特征數(shù)量√C、增加樣本數(shù)量D、以上說法都正確22.在機(jī)器學(xué)習(xí)中,不屬于常用的沖突消解策路是()[單選題]*A、投票法B、排序法C、元規(guī)則法D、加權(quán)法√23.當(dāng)不知道數(shù)據(jù)所帶標(biāo)簽時(shí),可以使用()技術(shù)促使帶同類標(biāo)簽的數(shù)據(jù)與帶其他標(biāo)簽的數(shù)據(jù)相分離[單選題]*A、分類B、聚類√C、關(guān)聯(lián)分析D、隱馬爾可夫鏈24.在ID3算法中信息增益是指()[單選題]*A、信息的溢出程度B、信息的增加效益C、熵增加的程度最大D、熵減少的程度最大√25.機(jī)器學(xué)習(xí)中發(fā)生過擬合的主要原因不包括()[單選題]*A、使用過于復(fù)雜的模型B、.數(shù)據(jù)噪聲較大C、訓(xùn)練數(shù)據(jù)少D、.訓(xùn)練數(shù)據(jù)充足√26.假設(shè)我們使用原始的非線性可分離SVM最優(yōu)化目標(biāo)函數(shù),我們做什么可以保證結(jié)果是線性可分的?[單選題]*A、C=1B、C=0C、=無窮大√D、以上沒有正確答案27.假設(shè)在訓(xùn)練一個(gè)模型的時(shí)候,發(fā)現(xiàn)靠近輸入層的網(wǎng)絡(luò)層參數(shù)基本不更新,請(qǐng)問是什么原因?()[單選題]*A、梯度消失√B、梯度爆炸C、過擬合D、以上都不是28.下列哪個(gè)描述是正確的[單選題]*A、分類和聚類都是有監(jiān)督的學(xué)習(xí)B、分類和聚類都是無監(jiān)督的學(xué)習(xí)C、分類是有監(jiān)督的學(xué)習(xí),聚類是無監(jiān)督的學(xué)習(xí)√D、分類是無監(jiān)督的學(xué)習(xí),聚類是有監(jiān)督的學(xué)習(xí)29.關(guān)于對(duì)決策樹進(jìn)行剪枝的說法中不正確的是()[單選題]*A、先剪枝和后剪枝都可以降低決策樹的過擬合風(fēng)險(xiǎn)B、后剪枝決策樹的訓(xùn)練時(shí)間會(huì)比先剪枝決策樹和未剪枝決策樹長(zhǎng)很多C、先剪枝和后剪枝都是利用驗(yàn)證集精度來判斷是否剪枝的D、一般來說,后剪枝要比先剪枝的效果好很多√30.關(guān)于隨機(jī)森林算法,下列說法不正確的是()[單選題]*A、每一棵決策樹之間是沒有關(guān)聯(lián)的B、后一棵樹更關(guān)注上一棵樹分錯(cuò)的樣本√C、每一棵樹都不需要做剪枝D、每一棵樹都是一棵CART樹31.回溯“深度學(xué)習(xí)”領(lǐng)域的學(xué)術(shù)脈絡(luò),2017年-2020年間研究量最多的主題是[單選題]*A、特征提取B、卷積神經(jīng)網(wǎng)絡(luò)√C、人工智能D、遷移學(xué)習(xí)32.如果自變量有連續(xù)型變量,則不適用的分類預(yù)測(cè)方法有()[單選題]*A、邏輯回歸B、神經(jīng)網(wǎng)絡(luò)C、SVM算法D、C4.5算法√33.數(shù)據(jù)合規(guī)管理重點(diǎn)內(nèi)容,不包括()[單選題]*A、開展數(shù)據(jù)合規(guī)風(fēng)險(xiǎn)識(shí)別與評(píng)估B、加強(qiáng)數(shù)據(jù)合規(guī)審查審核C、強(qiáng)化內(nèi)部監(jiān)督和社會(huì)監(jiān)督D、加強(qiáng)風(fēng)險(xiǎn)事件預(yù)防√34.pandas提供了對(duì)各種格式數(shù)據(jù)文件的讀取和寫入工具,其中不包括哪種?[單選題]*A、CSV文件B、文本文件C、工作簿文件D、EXE文件√35.下面關(guān)于聚類分析說法錯(cuò)誤的是()[單選題]*A、一定存在一個(gè)最優(yōu)的分類√B、聚類分析是無監(jiān)督學(xué)習(xí)C、聚類分析可以用于判斷異常值D、聚類分析即:物以類聚,人以群分36.下列關(guān)于數(shù)據(jù)分析的說法正確的是()[單選題]*A、描述性分析和預(yù)測(cè)性分析是診斷性分析的基礎(chǔ)B、診斷性分析是對(duì)規(guī)范性分析的進(jìn)一步理解C、預(yù)測(cè)性分析是規(guī)范性分析的基礎(chǔ)√D、規(guī)范性分析是數(shù)據(jù)分析的最高階段,可以直接產(chǎn)生產(chǎn)業(yè)價(jià)值37.下列關(guān)于決策樹的說法錯(cuò)誤的是()[單選題]*A、冗余屬性不會(huì)對(duì)決策樹的準(zhǔn)確率造成不利的影響B(tài)、子樹可能在決策樹中重復(fù)多次C、決策樹算法對(duì)于噪聲的干擾非常敏感√D、尋找最佳決策樹是NP完全問題38.重要數(shù)據(jù)的處理者應(yīng)當(dāng)按照規(guī)定對(duì)其數(shù)據(jù)處理活動(dòng)定期開展風(fēng)險(xiǎn)評(píng)估,并向有關(guān)主管部門報(bào)送()[單選題]*A、風(fēng)險(xiǎn)評(píng)估報(bào)告√B、數(shù)據(jù)安全風(fēng)險(xiǎn)清單C、應(yīng)急補(bǔ)救措施D、風(fēng)險(xiǎn)報(bào)告單39.Ndarray是一個(gè)通用的()數(shù)據(jù)容器[單選題]*A、單維同類B、單維多類C、多維同類√D、多維多類40.以下不屬于聚類算法的是()[單選題]*A、KNN√B、K-MeansC、DBSCAND、K-medoids41.倒傳遞神經(jīng)網(wǎng)絡(luò)(BP神經(jīng)網(wǎng)絡(luò))的訓(xùn)練順序?yàn)楹??(A:調(diào)整權(quán)重;B:計(jì)算誤差值;C:利用隨機(jī)的權(quán)重產(chǎn)生輸出的結(jié)果)[單選題]*A、BCAB、CABC、BACD、CBA√42.下列對(duì)C4.5算法的說法中不正確的是()[單選題]*A、每個(gè)節(jié)點(diǎn)的分支度只能為2√B、使用gainratio作為節(jié)點(diǎn)分割的依據(jù)C、可以處理數(shù)值型態(tài)的字段D、可以處理空值的字段43.AUC值是指()[單選題]*A、ROC曲線面積B、ROC上曲線面積C、ROC下曲線面積√D、混淆矩陣面積44.我們用相關(guān)系數(shù)r來度量變量之間的線性關(guān)系強(qiáng)度,下列說法錯(cuò)誤的是[單選題]*A、r=1時(shí),說明變量之間完全正線性相關(guān)B、r=-1時(shí),說明變量之間完全負(fù)線性相關(guān)C、r=0,說明變量之間一定不相關(guān)√D、3745.下列關(guān)于數(shù)據(jù)分析的說法正確的是()[單選題]*A、描述性分析和預(yù)測(cè)性分析是診斷性分析的基礎(chǔ)B、診斷性分析是對(duì)規(guī)范性分析的進(jìn)一步理解C、預(yù)測(cè)性分析是規(guī)范性分析的基礎(chǔ)√D、規(guī)范性分析是數(shù)據(jù)分析的最高階段,可以直接產(chǎn)生產(chǎn)業(yè)價(jià)值46.面向政府機(jī)構(gòu)或非營利性組織等,從服務(wù)中央決策部署落地實(shí)施、社會(huì)治理現(xiàn)代化等方面,提供的公益性數(shù)據(jù)服務(wù)為()[單選題]*A、政府監(jiān)管類B、公益服務(wù)類√C、商務(wù)增值類D、公共開放類47.數(shù)據(jù)庫類型是按照()來劃分的[單選題]*A、數(shù)據(jù)模型√B、記錄形式C、數(shù)據(jù)存取方法D、文件形式48.K-Medoids與K-Means聚類最大的區(qū)別在于()[單選題]*A、中心點(diǎn)的選取規(guī)則√B、距離的計(jì)算方法C、聚類效果D、應(yīng)用層面49.貝葉斯決策是根據(jù)()進(jìn)行決策的一種方法[單選題]*A、極大似然概率B、、先驗(yàn)概率C、邊際概率D、后驗(yàn)概率√50.Logistic回歸是在商業(yè)領(lǐng)域上使用最廣泛的預(yù)測(cè)模型,常用于(___)分類變量預(yù)測(cè)和概率預(yù)測(cè)[單選題]*A、四值;B、三值;C、二值;√D、一值51.什么是KDD?()[單選題]*A、數(shù)據(jù)挖掘與知識(shí)發(fā)現(xiàn)√B、領(lǐng)域知識(shí)發(fā)現(xiàn)C、文檔知識(shí)發(fā)現(xiàn)D、動(dòng)態(tài)知識(shí)發(fā)現(xiàn)52.構(gòu)建一個(gè)神經(jīng)網(wǎng)絡(luò),將前一層的輸出和它自身作為輸入,下列哪一種架構(gòu)有反饋連接?[單選題]*A、循環(huán)神經(jīng)網(wǎng)絡(luò)√B、卷積神經(jīng)網(wǎng)絡(luò)C、限制玻爾茲曼機(jī)D、都不是53.以下程序的輸出結(jié)果是:L1=['abc',['123','456']]L2=['1','2','3']print(L1>L2)[單選題]*A、FalseB、TypeError:'>'notsupportedbetweeninstancesof'list'and'str'C、1

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論