2023年能源大數(shù)據(jù)應(yīng)用開發(fā)技能競(jìng)賽備考試題庫匯總-上(單選題部分)_第1頁
2023年能源大數(shù)據(jù)應(yīng)用開發(fā)技能競(jìng)賽備考試題庫匯總-上(單選題部分)_第2頁
2023年能源大數(shù)據(jù)應(yīng)用開發(fā)技能競(jìng)賽備考試題庫匯總-上(單選題部分)_第3頁
2023年能源大數(shù)據(jù)應(yīng)用開發(fā)技能競(jìng)賽備考試題庫匯總-上(單選題部分)_第4頁
2023年能源大數(shù)據(jù)應(yīng)用開發(fā)技能競(jìng)賽備考試題庫匯總-上(單選題部分)_第5頁
已閱讀5頁,還剩132頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

PAGEPAGE12023年能源大數(shù)據(jù)應(yīng)用開發(fā)技能競(jìng)賽備考試題庫匯總-上(單選題部分)一、單選題1.DataWorks中不同角色擁有不同的權(quán)限,可以通過角色授權(quán)來控制成員的操作權(quán)限。角色主要有組織管理員、項(xiàng)目管理員、開發(fā)員、防客等,其中開發(fā)角色不具備什么權(quán)限。A、添加項(xiàng)目成員B、新建任務(wù)C、新建函數(shù)D、上傳資源答案:A2.下列屬于無監(jiān)督學(xué)習(xí)的是()。A、K-meansB、SVMC、最大熵D、CRF答案:A3.關(guān)于嶺回歸,下列說法錯(cuò)誤的是()。A、屬于線性回歸B、使用L2正規(guī)項(xiàng)C、使用L1正規(guī)項(xiàng)D、基于最小二乘法答案:C4.以下哪個(gè)分類方法可以較好地避免樣本的不平衡問題()。A、KNNB、SVMC、BayesD、神經(jīng)網(wǎng)絡(luò)答案:A5.MapReduce默認(rèn)的分區(qū)函數(shù)是()。A、hashB、diskC、reduceD、map答案:A6.關(guān)于SOM神經(jīng)網(wǎng)絡(luò)描述錯(cuò)誤的是:(__)。A、一種競(jìng)爭(zhēng)學(xué)習(xí)型的無監(jiān)督神經(jīng)網(wǎng)絡(luò)B、將高維輸入數(shù)據(jù)映射到低維空間,保持輸入數(shù)據(jù)在高維空間的拓?fù)浣Y(jié)構(gòu)C、SOM尋優(yōu)目標(biāo)為每個(gè)輸出神經(jīng)元找到合適的權(quán)重D、輸出層神經(jīng)元以矩陣方式排列在二維空間答案:C7.下面關(guān)于展示數(shù)據(jù)管理說法不正確的是()A、大廳場(chǎng)景數(shù)據(jù)應(yīng)基于數(shù)據(jù)中臺(tái)統(tǒng)一獲取B、建立大廳數(shù)據(jù)質(zhì)量常態(tài)巡檢核查機(jī)制C、不得違規(guī)存儲(chǔ)、處理涉及敏感數(shù)據(jù)。D、歷史數(shù)據(jù)需要?jiǎng)h除答案:D8.下面關(guān)于k近鄰學(xué)習(xí)算法的說法,正確的是()。A、k近鄰可以用于分類,但是不能用于回歸B、k近鄰屬于“急切學(xué)習(xí)”C、k近鄰用于分類時(shí),對(duì)于新的樣本,計(jì)算離其最近的k個(gè)樣本的平均值,作為新樣本的預(yù)測(cè)值D、k近鄰用于分類時(shí),對(duì)于新的樣本,根據(jù)其k個(gè)最近鄰樣本的類別,通過多數(shù)表決的方式預(yù)測(cè)新樣本的類別答案:D9.下列關(guān)于網(wǎng)絡(luò)用戶行為的說法中,錯(cuò)誤的是()。A、網(wǎng)絡(luò)公司能夠捕捉到用戶在其網(wǎng)站上的所有行為B、用戶離散的交互痕跡能夠?yàn)槠髽I(yè)提升服務(wù)質(zhì)量提供參考C、數(shù)字軌跡用完即自動(dòng)刪除D、用戶的隱私安全很難得以規(guī)范保護(hù)答案:C10.下列關(guān)于LSTM的說法,錯(cuò)誤的是()。A、LSTM中存在Sigmoid函數(shù)B、LSTM中存在tanh函數(shù)C、LSTM又稱長(zhǎng)短時(shí)記憶網(wǎng)絡(luò)D、RNN是LSTM的變種答案:D11.如果要將讀寫位置移動(dòng)到文件開頭,需要使用的命令是()。A、closeB、seek(0)C、truncateD、write('stuff')答案:B12.服務(wù)(),提供多模式電力交易大數(shù)據(jù)分析服務(wù),開展電力交易市場(chǎng)化配置和風(fēng)險(xiǎn)預(yù)警數(shù)據(jù)應(yīng)用,提高交易輔助決策和資源優(yōu)化配置能力。A、電力供用電市場(chǎng)B、電力客戶C、電力市場(chǎng)用戶D、電力資源市場(chǎng)化配置答案:D13.提供能源()服務(wù),提升上下游企業(yè)和能源生態(tài)圈的大數(shù)據(jù)運(yùn)營(yíng)服務(wù)能力。A、大數(shù)據(jù)增值B、支撐C、運(yùn)營(yíng)D、分析答案:A14.深度學(xué)習(xí)防止過擬合下列說法正確的是A、BN(批歸一化)B、增強(qiáng)數(shù)據(jù)集樣本數(shù)目、做一些數(shù)據(jù)增強(qiáng)的操作C、限制模型的學(xué)習(xí)能力D、以上都可以答案:D15.()是指通過訓(xùn)練而得到一種識(shí)別規(guī)則,通過此識(shí)別規(guī)則可以得到一種特征分類,使圖像識(shí)別技術(shù)能夠得到高識(shí)別率。A、預(yù)處理B、特征抽取和選擇C、分類器設(shè)計(jì)D、分類決策答案:C16.構(gòu)建一個(gè)神經(jīng)網(wǎng)絡(luò),將前一層的輸出和它自身作為輸入,下列哪一種架構(gòu)有反饋連接A、循環(huán)神經(jīng)網(wǎng)絡(luò)B、卷積神經(jīng)網(wǎng)絡(luò)C、限制玻爾茲曼機(jī)D、都不是答案:A17.對(duì)于一個(gè)圖像識(shí)別問題(在一張照片里找出一只貓),下面哪種神經(jīng)網(wǎng)絡(luò)可以更好地解決這個(gè)問題()A、循環(huán)神經(jīng)網(wǎng)絡(luò)B、感知機(jī)C、多層感知機(jī)D、卷積神經(jīng)網(wǎng)絡(luò)答案:D18.下面算法中屬于圖像銳化處理的是()。A、低通濾波B、加權(quán)平均法C、高通濾波D、中值濾波答案:C19.假設(shè)我們有一個(gè)使用ReLU激活函數(shù)(ReLUactivationfunction)的神經(jīng)網(wǎng)絡(luò),假如我們把ReLU激活替換為線性激活,那么這個(gè)神經(jīng)網(wǎng)絡(luò)能夠模擬出同或函數(shù)(XNORfunction)嗎?A、能B、依情況而定C、不一定D、不能答案:D20.Hadoop中MapReduce組件擅長(zhǎng)處理()場(chǎng)景的計(jì)算任務(wù)。A、迭代計(jì)算B、離線計(jì)算C、實(shí)時(shí)交互計(jì)算D、流式計(jì)算答案:B21.設(shè)X={1,2,3}是頻繁項(xiàng)集,則可由X產(chǎn)生()個(gè)關(guān)聯(lián)規(guī)則?A、4B、5C、6D、7答案:C22.開展數(shù)據(jù)產(chǎn)品研發(fā)、發(fā)布等活動(dòng)時(shí),應(yīng)確保遵從國(guó)家法律法規(guī)、數(shù)據(jù)主體授權(quán)范圍、公司相關(guān)規(guī)章制度等()保護(hù)要求。A、數(shù)據(jù)使用B、數(shù)據(jù)研發(fā)C、數(shù)據(jù)交換D、數(shù)據(jù)安全答案:D23.如果對(duì)樣本分類,不可以選擇的方法是(?)A、層次聚類法B、K-均值聚類法C、兩步聚類法D、混合聚類法答案:D24.隨機(jī)森林中的隨機(jī)是指()A、隨便構(gòu)建樹模B、隨機(jī)選擇一個(gè)樹模型C、隨機(jī)選擇多個(gè)樹模型D、在構(gòu)建每個(gè)樹模型時(shí)隨機(jī)選擇樣本和特征答案:D25.CREATETABLEAS創(chuàng)建表,后面需要添加查詢語句類型是:()。A、INSERTB、UPDATEC、SELECTD、DELETE答案:C26.下面哪個(gè)操作肯定是寬依賴()A、mapB、flatMapC、reduceByKeyD、sample答案:C27.下面關(guān)于Hive四種排序方式的區(qū)別,描述正確的是()A、orderB、sortC、distributeD、cluster答案:B28.?時(shí)間序列數(shù)據(jù)更適合用()做數(shù)據(jù)規(guī)約。A、小波變換B、主成分分析C、決策樹D、直方圖答案:A29.HDFS集群中的namenode職責(zé)不包括()A、維護(hù)HDFS集群的目錄樹結(jié)構(gòu)B、維護(hù)HDFS集群的所有數(shù)據(jù)塊的分布、副本數(shù)和負(fù)載均衡C、負(fù)責(zé)保存客戶端上傳的數(shù)據(jù)D、響應(yīng)客戶端的所有讀寫數(shù)據(jù)請(qǐng)求答案:C30.批規(guī)范化(BatchNormalization)的好處都有什么A、讓每一層的輸入的范圍都大致固定B、它將權(quán)重的歸一化平均值和標(biāo)準(zhǔn)差C、它是一種非常有效的反向傳播(BP)方法D、這些均不是答案:A31.下列關(guān)于循環(huán)神經(jīng)網(wǎng)絡(luò)說法錯(cuò)誤的是()。A、長(zhǎng)短期記憶網(wǎng)絡(luò)是進(jìn)行優(yōu)化過后的循環(huán)神經(jīng)網(wǎng)絡(luò)B、RNN是一類可用于處理序列數(shù)據(jù)的神經(jīng)網(wǎng)絡(luò)C、循環(huán)神經(jīng)網(wǎng)絡(luò)廣泛應(yīng)用于自然語言處理領(lǐng)域,例如語音識(shí)別、語言建模和機(jī)器翻譯等D、LSTM引入了一個(gè)基于循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)的架構(gòu)后,梯度消失問題得以解決答案:D32.以下不屬于神經(jīng)網(wǎng)絡(luò)模型的是()A、DNNB、CNNC、KNND、RNN答案:C33.在MapReduce中,reduce()函數(shù)可以將()值相同的輸入進(jìn)行合并處理。A、inputB、keyC、valueD、number答案:B34.下列屬于中臺(tái)發(fā)展期的戰(zhàn)略為A、“中臺(tái)戰(zhàn)略”B、“雙中臺(tái)”C、“多中臺(tái)”D、“融合中臺(tái)”答案:C35.依據(jù)(),建立基于負(fù)面清單的公司對(duì)內(nèi)數(shù)據(jù)共享機(jī)制,堅(jiān)持“以共享為原則、不共享為例外”,改變當(dāng)前“一事一議”、層層審批的數(shù)據(jù)應(yīng)用授權(quán)方式。A、《中華人民共和國(guó)民法典》B、《中華人民共和國(guó)網(wǎng)絡(luò)安全法》C、《國(guó)家電網(wǎng)有限公司數(shù)據(jù)管理辦法》D、《中央企業(yè)商業(yè)秘密保護(hù)暫行規(guī)定》答案:C36.下列哪個(gè)用于說明在RDD上執(zhí)行何種計(jì)算()。A、分區(qū);B、算子;C、日志;D、數(shù)據(jù)塊;答案:B37.pandas的常用類不包括()。A、SeriesB、DataFrameC、PanelD、Index答案:C38.企業(yè)中臺(tái)不包含()A、業(yè)務(wù)中臺(tái)B、數(shù)據(jù)中臺(tái)C、技術(shù)中臺(tái)D、服務(wù)中臺(tái)答案:D39.Ndarray是一個(gè)通用的()數(shù)據(jù)容器A、單維同類B、單維多類C、多維同類D、多維多類答案:C40.MapReduce計(jì)算框架的輸人數(shù)據(jù)結(jié)構(gòu)是()。A、key-valueB、input-outputC、map-reduceD、key-column答案:A41.Relief的擴(kuò)展變體Relief-F能夠處理(__)問題。A、二分類B、多分類C、回歸D、降維答案:B42.某公司要建立資料庫,該資料庫要用ElasticSearch進(jìn)行檢索,請(qǐng)問下列哪些選項(xiàng)可以放到資料庫中?A、Word文檔B、公司宣傳視頻C、產(chǎn)品設(shè)計(jì)圖D、以上全部正確答案:D43.Maxpute中負(fù)責(zé)對(duì)等待提交的task進(jìn)行排序的模塊是:()。A、schedulerB、controllerC、executorD、worker答案:A44.當(dāng)我們需要在一張圖表中特意指出某個(gè)特殊點(diǎn),并加上標(biāo)注達(dá)到醒目的目的時(shí),需要用到(__)函數(shù)。A、plt.axvspan()B、plt.axhspan()C、plt.annotate()D、plt.text()答案:C45.()方面,研究基于大數(shù)據(jù)的電能質(zhì)量和計(jì)量數(shù)據(jù)分析技術(shù),建立典型用電設(shè)備電能質(zhì)量信息庫、指標(biāo)體系和大數(shù)據(jù)分析平臺(tái),提供電能質(zhì)量輔助決策分析服務(wù);A、電測(cè)量技術(shù)B、大數(shù)據(jù)測(cè)量技術(shù)C、電能技術(shù)D、用電技術(shù)答案:A46.以下算法中不屬于基于深度學(xué)習(xí)的圖像分割算法是()。A、FCNB、deeplabC、Mask-RCNND、kNN答案:D47.數(shù)據(jù)倉庫僅僅是提供存儲(chǔ)的,提供一種()的服務(wù),不面向最終分析用戶:而數(shù)據(jù)集市是()的,面向最終用戶。A、面向數(shù)據(jù)管理、面向分析應(yīng)用B、面向分析應(yīng)用、面向數(shù)據(jù)管理C、面向分析應(yīng)用、面向事務(wù)交互D、面向事務(wù)交互、面向數(shù)據(jù)管理答案:A48.在反向傳播的過程中,首先被計(jì)算的是變量()的梯度,之后將其反向傳播。A、連接權(quán)重B、損失函數(shù)C、激活函數(shù)D、特征映射答案:C49.關(guān)于神經(jīng)網(wǎng)絡(luò)中經(jīng)典使用的優(yōu)化器,以下說法正確的是?A、Adam的收斂速度比RMSprop慢B、相比于SGD或RMSprop等優(yōu)化器,Adam的收斂效果是最好的C、對(duì)于輕量級(jí)神經(jīng)網(wǎng)絡(luò),使用Adam比使用RMSprop更合適D、相比于Adam或RMSprop等優(yōu)化器,SGD的收斂效果是最好的答案:D50.在MapReduce中,哪個(gè)組件是用戶不指定也不會(huì)有默認(rèn)的()A、binerB、OutputFormatC、PartitionerD、InputFormat答案:A51.下列關(guān)于數(shù)據(jù)轉(zhuǎn)換,正確的是()。A、json內(nèi)的取值只能有統(tǒng)一格式B、pdf文件在不同平臺(tái)上打開顯示不同C、可以通過python將csv文件轉(zhuǎn)換成Excel格式D、excel存儲(chǔ)數(shù)據(jù)的量無限制答案:C52.加強(qiáng)數(shù)據(jù)合規(guī)管理頂層設(shè)計(jì),強(qiáng)化跨專業(yè)、跨層級(jí)統(tǒng)籌協(xié)調(diào),建立健全()工作機(jī)制,確保公司數(shù)據(jù)合規(guī)管理工作有力、有序、有效推進(jìn)。A、閉環(huán)B、協(xié)同C、安全D、監(jiān)控答案:B53.2*1的數(shù)組與1*3的數(shù)組相加結(jié)果為()。A、2*3的數(shù)組B、1*1的數(shù)組C、3*2的數(shù)組D、以上都不對(duì)答案:A54.感知機(jī)中,()是M-P神經(jīng)元,也稱為閾值邏輯單元。A、輸入層B、輸出層C、第一層D、第二層答案:B55.深度學(xué)習(xí)中的“深度”是指()。A、計(jì)算機(jī)理解深度B、中間神經(jīng)元網(wǎng)絡(luò)的層次很多C、計(jì)算機(jī)的求解更加精確D、計(jì)算機(jī)對(duì)問題的處理更加靈活答案:B56.在《國(guó)家電網(wǎng)公司“十三五”科技戰(zhàn)略研究報(bào)告》中指出,十二五期間“先進(jìn)計(jì)算與電力大數(shù)據(jù)技術(shù)取得良好開端”,主要體現(xiàn)在:在()及專業(yè)應(yīng)用實(shí)現(xiàn)基礎(chǔ)上,探索了大數(shù)據(jù)平臺(tái)基礎(chǔ)體系架構(gòu)與應(yīng)用規(guī)范A、技術(shù)中臺(tái)B、公司一體化信息平臺(tái)C、公司統(tǒng)一管理平臺(tái)D、數(shù)據(jù)中臺(tái)答案:B57.神經(jīng)網(wǎng)絡(luò)的訓(xùn)練結(jié)果模型不包括()。A、權(quán)重矩陣B、偏置參數(shù)C、超參數(shù)D、計(jì)算圖答案:C58.做好數(shù)據(jù)識(shí)別和分類分級(jí),通過數(shù)據(jù)盤點(diǎn)理清數(shù)據(jù)狀況,建立數(shù)據(jù)目錄,以數(shù)據(jù)目錄為基礎(chǔ)梳理形成數(shù)據(jù)共享()A、白名單B、分級(jí)目錄C、備忘錄D、負(fù)面清單答案:D59.卷積神經(jīng)網(wǎng)絡(luò)可以對(duì)一個(gè)輸入進(jìn)行多種變換(旋轉(zhuǎn)、平移、縮放),這個(gè)表述正確嗎()A、對(duì)的B、不知道C、看情況D、不對(duì)答案:D60.下列關(guān)于運(yùn)算符優(yōu)先級(jí)的說法不正確的是()A、運(yùn)算符按照優(yōu)先級(jí)順序表進(jìn)行運(yùn)算B、同一優(yōu)先級(jí)的運(yùn)算符在表達(dá)式中都是按照從左到右的順序進(jìn)行運(yùn)算的C、同一優(yōu)先級(jí)的運(yùn)算符在表達(dá)式中都是按照從右到左的順序進(jìn)行運(yùn)算的D、括號(hào)可以改變運(yùn)算的優(yōu)先次序答案:C61.Spark核心層主要關(guān)注()問題。A、存儲(chǔ)B、計(jì)算C、傳輸D、連接答案:B62.Maxpute架構(gòu)由四層組成,每一層完成不同的工作。現(xiàn)在執(zhí)行命令“selectcount(*)fromtable_a”,最終由()處理該命令并返回結(jié)果。A、計(jì)算層B、客戶端C、接入層D、邏輯層答案:A63.()是公司大數(shù)據(jù)應(yīng)用工作的歸口管理部門。A、互聯(lián)網(wǎng)部B、信息化部C、數(shù)字化工作部D、科技信息部答案:C64.下列哪個(gè)不是專門用于可視化時(shí)間空間數(shù)據(jù)的技術(shù):()。A、等高線圖B、餅圖C、曲面圖D、矢量場(chǎng)圖答案:B65.回歸問題和分類問題的區(qū)別是什么?A、回歸問題與分類問題在輸入屬性值上要求不同B、回歸問題有標(biāo)簽,分類問題沒有C、回歸問題輸出值是連續(xù)的,分類問題輸出值是離散的D、回歸問題輸出值是離散的,分類問題輸出值是連續(xù)的答案:C66.自然語言處理、語音識(shí)別、股票交易、氣象預(yù)測(cè)等應(yīng)用適合采用(__)處理。A、循環(huán)神經(jīng)網(wǎng)絡(luò)B、卷積神經(jīng)網(wǎng)絡(luò)C、多層神經(jīng)網(wǎng)絡(luò)D、單層神經(jīng)網(wǎng)絡(luò)答案:A67.用onehot對(duì)某個(gè)只有一個(gè)屬性的樣本進(jìn)行編碼,下面可能是編碼結(jié)果的是()。A、1010B、1100C、1111D、1000答案:D68.有監(jiān)督的學(xué)習(xí)和無監(jiān)督的學(xué)習(xí)的根本區(qū)別在于:A、學(xué)習(xí)過程是否需要人工干預(yù)B、學(xué)習(xí)樣本是否需要人工標(biāo)記C、學(xué)習(xí)結(jié)果是否需要人工解釋D、學(xué)習(xí)參數(shù)是否需要人工設(shè)置答案:B69.給定測(cè)試樣本,基于某種距離度量找出訓(xùn)練集中與其最靠近的k個(gè)訓(xùn)練樣本,然后基于這k個(gè)樣本的信息來進(jìn)行預(yù)測(cè)。這種學(xué)習(xí)算法稱為(__)。A、k-meansB、k近鄰學(xué)習(xí)C、隨機(jī)森林D、決策樹答案:B70.以下哪個(gè)是有關(guān)數(shù)據(jù)科學(xué)研究目的的原則?()A、DIKUW原則B、5W1H原則C、6S原則D、PDCA原則答案:A71.假設(shè)你有5個(gè)大小為7x7、邊界值為0的卷積核,同時(shí)卷積神經(jīng)網(wǎng)絡(luò)第一層的深度為1。此時(shí)如果你向這一層傳入一個(gè)維度為224x224x3的數(shù)據(jù),那么神經(jīng)網(wǎng)絡(luò)下一層所接收到的數(shù)據(jù)維度是多少A、218x218x5B、217x217x8C、217x217x3D、220x220x5答案:A72.下面哪個(gè)色彩空間最接近人的視覺系統(tǒng)的特點(diǎn)()。A、RGB空間B、CMY空間C、CMYK空間D、HSI空間答案:D73.下列()不是神經(jīng)網(wǎng)絡(luò)的代表。A、卷積神經(jīng)網(wǎng)絡(luò)B、遞歸神經(jīng)網(wǎng)絡(luò)C、殘差網(wǎng)絡(luò)D、xgboost算法答案:D74.()可以使神經(jīng)網(wǎng)絡(luò)模型擬合復(fù)雜函數(shù)的能力增加。A、隱藏層層數(shù)增加B、Dropout比例增加C、增大學(xué)習(xí)率D、增加訓(xùn)練輪數(shù)答案:A75.()是TensorFlow的核心數(shù)據(jù)單位。A、張量B、向量C、矩陣D、數(shù)組答案:A76.卷積神經(jīng)網(wǎng)絡(luò)中池化層的作用是()。A、降低卷積層對(duì)位置的敏感性,同時(shí)降低對(duì)空間降采樣表示的敏感性B、權(quán)值初始化C、對(duì)圖像實(shí)現(xiàn)邊緣檢測(cè)D、提取輸入的不同特征答案:A77.以下表名不符合數(shù)據(jù)中臺(tái)分析層命名規(guī)范的是()。A、dim_cst_cust_dfB、dim_cst_custC、dws_cst_cust_dfD、dwd_cst_cust答案:D78.國(guó)網(wǎng)公司堅(jiān)持?jǐn)?shù)據(jù)“一處生成、多處使用”,明確權(quán)威數(shù)據(jù)源引用規(guī)范,開展權(quán)威數(shù)據(jù)源中臺(tái)標(biāo)注,推進(jìn)權(quán)威數(shù)據(jù)源在中臺(tái)的落地應(yīng)用,常態(tài)推進(jìn)()治理。A、數(shù)據(jù)源頭B、數(shù)據(jù)中臺(tái)C、業(yè)務(wù)中臺(tái)D、數(shù)據(jù)應(yīng)用答案:A79.相關(guān)關(guān)系是一種與函數(shù)關(guān)系區(qū)別的非確定性關(guān)系,而相關(guān)分析就是研究事物或現(xiàn)象之間是否存在這種非確定性關(guān)系的統(tǒng)計(jì)方法,以下不屬于相關(guān)性分析方法的是()。A、Pearson相關(guān)系數(shù)B、Spearman秩相關(guān)系數(shù)C、Kendall相關(guān)系數(shù)D、傅里葉系數(shù)答案:D80.假設(shè)給定一個(gè)長(zhǎng)度為n的不完整單詞序列,希望預(yù)測(cè)下一個(gè)字母是什么,如輸入是predictio(9個(gè)字母組成),希望預(yù)測(cè)第十個(gè)字母是什么。適用于解決這個(gè)工作的是()。A、循環(huán)神經(jīng)網(wǎng)絡(luò)B、全連接神經(jīng)網(wǎng)絡(luò)C、受限波爾茲曼機(jī)D、卷積神經(jīng)網(wǎng)絡(luò)答案:A81.以下哪種方法可以將json字符串轉(zhuǎn)換為Python形式()。A、read_jsonB、json.transC、json.loadsD、json.dumps答案:C82.下面關(guān)于循環(huán)神經(jīng)網(wǎng)絡(luò)說法錯(cuò)誤的是()A、循環(huán)神經(jīng)網(wǎng)絡(luò)用于靜態(tài)輸出B、循環(huán)神經(jīng)網(wǎng)絡(luò)通過使用帶自反饋的神經(jīng)元,能夠處理任意長(zhǎng)度的時(shí)序數(shù)據(jù)C、循環(huán)神經(jīng)網(wǎng)絡(luò)具有短期記憶能力,相當(dāng)于存儲(chǔ)裝置,因此其計(jì)算能力十分強(qiáng)大D、循環(huán)神經(jīng)網(wǎng)絡(luò)時(shí)間擴(kuò)展,神經(jīng)元與多個(gè)時(shí)間輸出計(jì)算答案:A83.預(yù)訓(xùn)練模型是指()。A、先訓(xùn)練一個(gè)模型作為基準(zhǔn)B、在正式訓(xùn)練之前,做一次試驗(yàn)訓(xùn)練C、已經(jīng)在大數(shù)據(jù)集上訓(xùn)練好的一個(gè)模型D、預(yù)先根據(jù)任務(wù)特點(diǎn),對(duì)模型結(jié)構(gòu)進(jìn)行調(diào)整答案:C84.國(guó)網(wǎng)公司數(shù)據(jù)管理堅(jiān)持()的原則。A、面向?qū)I(yè)B、面向基層C、面向應(yīng)用D、面向?qū)I(yè)、面向基層、面向應(yīng)用答案:D85.卷積神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)不包括()。A、池化層B、卷積層C、激活層D、全連接層答案:C86.混淆矩陣中的TP=16,F(xiàn)P=12,F(xiàn)N=8,TN=4,準(zhǔn)確率是()。A、1212122023年1月4日B、1212122023年1月2日C、1212122023年4月7日D、1212122023年1月7日答案:B87.通常“落伍者”是影響MapReduce總執(zhí)行時(shí)間的主要影響因素之一,為此MapReduce采用()機(jī)制來解決。A、分布式計(jì)算B、惰性計(jì)算C、推測(cè)性執(zhí)行的任務(wù)備份D、先進(jìn)先出答案:C88.長(zhǎng)短時(shí)記憶網(wǎng)絡(luò)屬于一種()。A、全連接神經(jīng)網(wǎng)絡(luò)B、門控RNNC、BP神經(jīng)網(wǎng)絡(luò)D、雙向RNN答案:B89.k近鄰學(xué)習(xí)是一種(__)。A、監(jiān)督學(xué)習(xí)方法B、半監(jiān)督學(xué)習(xí)方法C、無監(jiān)督學(xué)習(xí)方法D、測(cè)試方法答案:A90.綜合類大數(shù)據(jù)應(yīng)用管理,主要包括(),由互聯(lián)網(wǎng)部統(tǒng)一組織開展。A、應(yīng)用需求B、分析應(yīng)用C、成果管理D、以上都是答案:D91.假設(shè)你有5個(gè)大小為7x7、邊界值為0的卷積核,同時(shí)卷積神經(jīng)網(wǎng)絡(luò)第一層的深度為1。此時(shí)如果你向這一層傳入一個(gè)維度為224x224x3的數(shù)據(jù),那么神經(jīng)網(wǎng)絡(luò)下一層所接收到的數(shù)據(jù)維度是多少()A、218x218x5B、217x217x8C、217x217x3D、220x220x5答案:A92.根據(jù)國(guó)家電網(wǎng)互聯(lián)[2020]745號(hào)《國(guó)家電網(wǎng)有限公司關(guān)于進(jìn)一步規(guī)范數(shù)據(jù)安全工作的通知》,以下說法錯(cuò)誤的是()。A、商業(yè)秘密、工作秘密、個(gè)人信息等納入負(fù)面清單的數(shù)據(jù),由數(shù)據(jù)使用方提出申請(qǐng),經(jīng)數(shù)據(jù)產(chǎn)生的總部業(yè)務(wù)部門和數(shù)據(jù)歸口管理部門審批后方可對(duì)內(nèi)跨部門、跨單位給數(shù)據(jù)使用方使用。B、公司對(duì)外提供數(shù)據(jù)時(shí),應(yīng)根據(jù)有關(guān)要求,執(zhí)行標(biāo)準(zhǔn)統(tǒng)一的數(shù)據(jù)開放策略。C、涉密數(shù)據(jù)按照公司保密規(guī)章制度執(zhí)行,嚴(yán)格履行相關(guān)保密合規(guī)審核流程。D、除國(guó)家機(jī)關(guān)依法調(diào)取數(shù)據(jù)外,原則上公司明細(xì)業(yè)務(wù)數(shù)據(jù)不對(duì)外提供。答案:B93.優(yōu)化(),建立設(shè)備績(jī)效和供應(yīng)商業(yè)績(jī)之間的關(guān)聯(lián)關(guān)系,實(shí)現(xiàn)設(shè)備質(zhì)量評(píng)價(jià)管理閉環(huán),建立健全供應(yīng)商信用風(fēng)險(xiǎn)評(píng)估體系,優(yōu)化采購模式與供應(yīng)商管理。A、設(shè)備質(zhì)量監(jiān)管B、設(shè)備物資供應(yīng)鏈C、設(shè)備供應(yīng)商管理D、設(shè)備質(zhì)量評(píng)價(jià)管理答案:B94.安全巡檢屬于信息系統(tǒng)安全過程管理的()階段。A、運(yùn)行B、測(cè)試C、科研D、上線答案:A95.如果增加神經(jīng)網(wǎng)絡(luò)的寬度,精確度會(huì)增加到一個(gè)閾值,然后開始降低。造成這一現(xiàn)象的原因可能是()。A、只有一部分核被用于預(yù)測(cè)B、當(dāng)核數(shù)量增加,神經(jīng)網(wǎng)絡(luò)的預(yù)測(cè)能力降低C、當(dāng)核數(shù)量增加,其相關(guān)性增加,導(dǎo)致過擬合D、以上都不對(duì)答案:C96.關(guān)于Python的全局變量和局部變量,以下選項(xiàng)中描述錯(cuò)誤的是()A、使用global保留字聲明簡(jiǎn)單數(shù)據(jù)類型變量后,該變量作為全局變量使用B、局部變量指在函數(shù)內(nèi)部使用的變量,當(dāng)函數(shù)退出時(shí),變量依然存在,下次函數(shù)調(diào)用可以繼續(xù)使用C、簡(jiǎn)單數(shù)據(jù)類型變量無論是否與全局變量重名,僅在函數(shù)內(nèi)部創(chuàng)建和使用,函數(shù)退出后變量被釋放D、全局變量指在函數(shù)之外定義的變量,一般沒有縮進(jìn),在程序執(zhí)行全過程有效答案:B97.基于詞的n元文法模型,其最后的粗分結(jié)果集合大?。ǎ㎞。A、大于B、大于等于C、小于D、小于等于答案:B98.對(duì)于依托公共服務(wù)能力平臺(tái)開發(fā)的大數(shù)據(jù)應(yīng)用,應(yīng)遵循平臺(tái)有關(guān)規(guī)范,重點(diǎn)開展____、數(shù)據(jù)建模以及數(shù)據(jù)展示等工作,安全防護(hù)、三方測(cè)試等相關(guān)要求統(tǒng)一納入公共服務(wù)能力平臺(tái)進(jìn)行管理,可不再單獨(dú)開展。A、數(shù)據(jù)查詢B、數(shù)據(jù)清洗C、數(shù)據(jù)分類D、數(shù)據(jù)溯源答案:D99.決策樹中的葉結(jié)點(diǎn)對(duì)應(yīng)于(__)。A、屬性B、樣本C、決策結(jié)果D、標(biāo)簽值答案:C100.依據(jù)《國(guó)家電網(wǎng)有限公司數(shù)據(jù)管理辦法》,建立基于負(fù)面清單的公司對(duì)內(nèi)數(shù)據(jù)共享機(jī)制,堅(jiān)持“以()為原則、不共享為例外”,改變當(dāng)前“一事一議”、層層審批的數(shù)據(jù)應(yīng)用授權(quán)方式。A、共享B、共建C、共通D、共贏答案:A101.數(shù)據(jù)安全,是指通過采取必要措施,確保數(shù)據(jù)處于有效保護(hù)和()的狀態(tài),以及具備保障持續(xù)安全狀態(tài)的能力。A、合法利用B、合法獲取C、規(guī)范使用D、安全傳輸答案:A102.加強(qiáng)數(shù)據(jù)傳輸、存儲(chǔ)過程中的安全管理,釆取加密、隔離、備份等安全技術(shù)手段,確保符合相應(yīng)安全條件或技術(shù)標(biāo)準(zhǔn),具備()能力,防范數(shù)據(jù)泄露、篡改、損毀、丟失風(fēng)險(xiǎn)。A、共享B、災(zāi)備C、安全D、保護(hù)答案:B103.神經(jīng)網(wǎng)絡(luò)訓(xùn)練過程中,一般會(huì)遇到停滯期,即神經(jīng)網(wǎng)絡(luò)在進(jìn)入全局最小值之前陷入局部最小值。以下哪個(gè)策略可以避免上述情況?A、增加參數(shù)數(shù)量B、減少參數(shù)數(shù)量C、在開始時(shí)將學(xué)習(xí)率降低10倍D、改變幾個(gè)時(shí)期的學(xué)習(xí)率答案:D104.假設(shè)我們有一個(gè)使用ReLU激活函數(shù)(ReLUactivationfunction)的神經(jīng)網(wǎng)絡(luò),假如我們把ReLU激活替換為線性激活,那么這個(gè)神經(jīng)網(wǎng)絡(luò)能夠模擬出同或函數(shù)(XNORfunction)嗎A、可以B、不好說C、不一定D、不能答案:D105.LSTM網(wǎng)絡(luò)引入門控機(jī)制來控制信息傳遞的路徑,其中輸入門的作用是()A、控制上一個(gè)時(shí)刻的內(nèi)部狀態(tài)需要遺忘多少信息B、控制上一個(gè)時(shí)刻的內(nèi)部狀態(tài)有多少信息需要保存C、控制當(dāng)前當(dāng)刻的候選狀態(tài)有多少信息需要保存D、控制當(dāng)前當(dāng)刻的內(nèi)部狀態(tài)有多少信息需要輸出給外部狀態(tài)答案:C106.下列關(guān)于深度學(xué)習(xí)中優(yōu)化問題說法錯(cuò)誤的是()。A、當(dāng)優(yōu)化問題的數(shù)值解接近局部最優(yōu)值時(shí),隨著目標(biāo)函數(shù)解的梯度接近或變?yōu)榱?,通過最終迭代獲得的數(shù)值解可能僅使目標(biāo)函數(shù)局部最優(yōu),而不是全局最優(yōu)B、在深度學(xué)習(xí)優(yōu)化問題中,經(jīng)常遇到的是梯度爆炸或梯度消失C、優(yōu)化問題中設(shè)置的學(xué)習(xí)率決定目標(biāo)函數(shù)能否收斂到局部最小值,以及何時(shí)收斂到最小值D、一般來說,小批量隨機(jī)梯度下降比隨機(jī)梯度下降和梯度下降的速度慢,收斂風(fēng)險(xiǎn)較大答案:D107.可視分析學(xué)是一門以可視交互為基礎(chǔ),綜合運(yùn)用()、數(shù)據(jù)挖掘和人機(jī)交互等技術(shù)等多個(gè)學(xué)科領(lǐng)域的知識(shí)。A、圖像學(xué)B、人工智能C、分析學(xué)D、圖形學(xué)答案:A108.嚴(yán)格遵守囯家法律、法規(guī)和公司相關(guān)規(guī)定,在保護(hù)國(guó)家秘密和企業(yè)秘密,且不損害公司及客戶、供應(yīng)商等相關(guān)方權(quán)益的前提下,有序推動(dòng)數(shù)據(jù)對(duì)外幵放,重點(diǎn)防范對(duì)外幵放過程中的()數(shù)據(jù)泄露。A、明細(xì)B、業(yè)務(wù)C、敏感D、隱私答案:C109.電力線和信號(hào)線應(yīng)分別敷設(shè)在()、()或橋架內(nèi),走線應(yīng)整齊美觀安全。A、走線架B、強(qiáng)電線槽,弱電線槽C、弱電線槽,強(qiáng)電線槽D、槽鋼答案:B110.年度大數(shù)據(jù)應(yīng)用需求由()重抽組織開展儲(chǔ)備與立項(xiàng)工作。A、數(shù)字化部B、財(cái)務(wù)部C、大數(shù)據(jù)中心D、發(fā)展部答案:A111.總部與各單位按兩級(jí)貫通模式部署,并支持()成果共享。A、一級(jí)B、兩級(jí)C、三級(jí)D、四級(jí)答案:B112.下面哪個(gè)屬于映射數(shù)據(jù)到新的空間的方法?A、傅立葉變換B、特征加權(quán)C、漸進(jìn)抽樣D、維歸約答案:A113.數(shù)據(jù)清洗的方法不包括()。A、缺失值處理B、噪聲數(shù)據(jù)清除C、一致性檢查D、重復(fù)數(shù)據(jù)記錄處理答案:D114.構(gòu)建()客戶畫像,設(shè)計(jì)全網(wǎng)客戶標(biāo)簽體系,形成客戶標(biāo)簽庫,全面及時(shí)分析客戶行為活動(dòng),深度提煉客戶行為特征規(guī)律,實(shí)現(xiàn)客戶行為動(dòng)態(tài)畫像。A、全量B、多維動(dòng)態(tài)C、全方面D、多維答案:B115.在InceptionNet中,使用()和單層的全連接層替換掉了VCG的三層全連接層。A、全局最大池化層B、全局最小池化層C、卷積層D、全局平均池化層答案:D116.在線性回歸中,最小二乘法就是試圖找到一條直線,使所有樣本到直線上的____之和最小。A、歐式距離B、城市距離C、余弦距離D、馬氏距離答案:A117.在統(tǒng)計(jì)語言模型中,通常以概率的形式描述任意語句的可能性,利用最大相似度估計(jì)進(jìn)行度量,對(duì)于一些低頻詞,無論如何擴(kuò)大訓(xùn)練數(shù)據(jù),出現(xiàn)的頻度仍然很低,下列哪種方法可以解決這一問題A、一元切分B、一元文法C、數(shù)據(jù)平滑D、N元文法答案:C118.按照數(shù)據(jù)全生命周期安全合規(guī)思路,做好數(shù)據(jù)()頂層設(shè)計(jì),統(tǒng)籌推進(jìn)數(shù)據(jù)合規(guī)管理體系建設(shè),強(qiáng)化數(shù)據(jù)合規(guī)風(fēng)險(xiǎn)管控,促進(jìn)公司數(shù)字化轉(zhuǎn)型發(fā)展,為建設(shè)具有中國(guó)特色國(guó)際領(lǐng)先的能源互聯(lián)網(wǎng)企業(yè)作出積極貢獻(xiàn)。A、模型建設(shè)B、安全管理C、數(shù)據(jù)規(guī)劃D、合規(guī)管理答案:D119.假設(shè)已經(jīng)建立了一個(gè)神經(jīng)網(wǎng)絡(luò),決定將權(quán)重和偏差初始化為零。以下哪項(xiàng)陳述是正確的?A、第一隱藏層中的每個(gè)神經(jīng)元將執(zhí)行相同的計(jì)算。因此,即使在梯度下降的多次迭代之后,層中的每個(gè)神經(jīng)元將執(zhí)行與其他神經(jīng)元相同的計(jì)算。B、第一隱層中的每個(gè)神經(jīng)元在第一次迭代中執(zhí)行相同的計(jì)算。但是在梯度下降的一次迭代之后,他們將學(xué)會(huì)計(jì)算不同的東西,因?yàn)橐呀?jīng)“破壞了對(duì)稱性”。C、第一個(gè)隱藏層中的每個(gè)神經(jīng)元將執(zhí)行相同的計(jì)算,但不同層中的神經(jīng)元執(zhí)行不同的計(jì)算,因此完成了課堂上所描述的“對(duì)稱性破壞”。D、即使在第一次迭代中,第一個(gè)隱藏層的神經(jīng)元也會(huì)執(zhí)行不同的計(jì)算,因此,它們的參數(shù)會(huì)以自己的方式不斷演化答案:A120.關(guān)于pandas庫的文本操作,下列說法錯(cuò)誤的是()。A、Replace方法用于替換字符串B、Slice方法不是通過截取字符實(shí)現(xiàn)文本索引操作的C、Upper方法可將Series各元素轉(zhuǎn)換為大寫D、存在一些特殊的方法是Python原生str類型所沒有的答案:B121.回溯“深度學(xué)習(xí)”領(lǐng)域的學(xué)術(shù)脈絡(luò),2017年-2020年間研究量最多的主題是A、特征提取B、卷積神經(jīng)網(wǎng)絡(luò)C、人工智能D、遷移學(xué)習(xí)答案:B122.從網(wǎng)絡(luò)的原理上來看,結(jié)構(gòu)最復(fù)雜的神經(jīng)網(wǎng)絡(luò)是()。A、卷積神經(jīng)網(wǎng)絡(luò)B、長(zhǎng)短時(shí)記憶神經(jīng)網(wǎng)絡(luò)C、GRUD、BP答案:B123.為了提高系統(tǒng)性能,Spark采取“惰性計(jì)算模式”,具體為()。A、執(zhí)行Transformation操作時(shí)不會(huì)提交,只有執(zhí)行Action操作時(shí)才會(huì)被提交到集群中開始被執(zhí)行B、執(zhí)行Action操作時(shí)不會(huì)提交,只有執(zhí)行Transformation操作時(shí)才會(huì)被提交到集群中開始被執(zhí)行C、只有執(zhí)行完Action操作和Transformation操作時(shí),所有操作才會(huì)被提交到集群中開始被執(zhí)行D、執(zhí)行完Action操作或Transformation操作時(shí)都不會(huì)提交到集群答案:A124.從內(nèi)外部環(huán)境與市場(chǎng)需求來看,以下哪一項(xiàng)不是大數(shù)據(jù)應(yīng)用的業(yè)務(wù)規(guī)劃將聚焦核心領(lǐng)域。A、電網(wǎng)運(yùn)營(yíng)B、經(jīng)營(yíng)管理C、客戶服務(wù)D、科技創(chuàng)新答案:D125.智能電網(wǎng)綜合支撐技術(shù),在()的智能電網(wǎng)管理及運(yùn)維關(guān)鍵技術(shù)中,應(yīng)用大數(shù)據(jù)和先進(jìn)計(jì)算技術(shù),研究電網(wǎng)設(shè)備狀態(tài)信息集成與綜合分析技術(shù);A、分布節(jié)能B、高效節(jié)能C、集約高效D、分布高效答案:C126.長(zhǎng)短時(shí)記憶神經(jīng)網(wǎng)絡(luò)被設(shè)計(jì)用來解決什么問題?()A、傳統(tǒng)RNN存在的梯度消失/爆炸問題B、傳統(tǒng)RNN計(jì)算量大的問題C、傳統(tǒng)RNN速度較慢的問題D、傳統(tǒng)RNN容易過過擬合的問題答案:A127.關(guān)于LDA和PCA的描述,下列說法中錯(cuò)誤的是?A、PCA是無監(jiān)督的,LDA是有監(jiān)督的B、LDA最多可以降到k-2維C、LDA可能會(huì)過擬合數(shù)據(jù)D、PCA是去掉原始數(shù)據(jù)冗余的維度,LDA是選擇一個(gè)最佳的投影方向,使得投影后相同類別的數(shù)據(jù)分布緊湊,不同類別的數(shù)據(jù)盡量相互遠(yuǎn)離答案:B128.負(fù)責(zé)關(guān)鍵信息基礎(chǔ)設(shè)施安全保護(hù)工作的部門,應(yīng)當(dāng)建立健全本行業(yè)、本領(lǐng)域的網(wǎng)絡(luò)安全監(jiān)測(cè)預(yù)警和(),并按照規(guī)定報(bào)送網(wǎng)絡(luò)安全監(jiān)測(cè)預(yù)警信息。A、網(wǎng)絡(luò)安全風(fēng)控機(jī)制B、信息通報(bào)制度C、網(wǎng)絡(luò)安全風(fēng)險(xiǎn)庫D、信息預(yù)警制度答案:B129.數(shù)據(jù)中臺(tái)建立數(shù)據(jù)安全傳輸機(jī)制,根據(jù)數(shù)據(jù)保護(hù)需求,實(shí)現(xiàn)兩級(jí)數(shù)據(jù)中臺(tái)之間、與()之間的安全傳輸。A、外部用戶B、內(nèi)部用戶C、全部用戶D、指定用戶答案:A130.a=[1,2,3.4,5],切片時(shí)如果需要取[2,3.4],則下列結(jié)果正確的是()A、a[1:4]B、a[-2:]C、a[1:-1]D、a[::2]答案:C131.數(shù)據(jù)中臺(tái)由()、()、()、()、()五大板塊組成,采用總部和省市公司兩級(jí)部署模式構(gòu)建。A、貼源層、共享層、分析層、統(tǒng)一數(shù)據(jù)服務(wù)調(diào)度和數(shù)據(jù)B、貼源層、應(yīng)用層、分析層、統(tǒng)一數(shù)據(jù)服務(wù)調(diào)度和數(shù)據(jù)C、服務(wù)層、共享層、應(yīng)用層、統(tǒng)一數(shù)據(jù)服務(wù)調(diào)度和數(shù)據(jù)D、服務(wù)層、共享層、分析層、統(tǒng)一數(shù)據(jù)服務(wù)調(diào)度和數(shù)據(jù)答案:A132.神經(jīng)網(wǎng)絡(luò)感知機(jī)只有()神經(jīng)元進(jìn)行激活函數(shù)處理,即只擁有一層功能神經(jīng)元。A、輸出層B、輸入層C、感知層D、網(wǎng)絡(luò)層答案:A133.為保障大數(shù)據(jù)應(yīng)用的快速開發(fā)和敏捷迭代,按照依托()兩種類型實(shí)施差異化管控。A、共享平臺(tái)開發(fā)和獨(dú)立開發(fā)B、共享平臺(tái)開發(fā)和個(gè)人開發(fā)C、公共服務(wù)能力平臺(tái)開發(fā)和獨(dú)立開發(fā)D、公共服務(wù)能力平臺(tái)開發(fā)和個(gè)人開發(fā)答案:C134.《中華人民共和國(guó)數(shù)據(jù)安全法》中的數(shù)據(jù),是指任何以電子或者其他方式對(duì)()的記錄。A、數(shù)據(jù)B、信息C、文件D、知識(shí)答案:B135.Transformer架構(gòu)首先是由下列哪項(xiàng)引入的?A、GloVeB、BERTC、OpenD、ULMFit答案:C136.plt.contourf(X,Y,f(X,Y),8,alpha=.75,cmap=plt.cm.hot),cmap表示()。A、圖例風(fēng)格B、顏色映射風(fēng)格C、網(wǎng)格線類型D、透明度答案:B137.建立與政府主管部門、行業(yè)協(xié)會(huì)、專家學(xué)者的有效溝通機(jī)制,組織各級(jí)單位積極參與《數(shù)據(jù)安全法》、《》等國(guó)家、地方和行業(yè)數(shù)據(jù)相關(guān)法律法規(guī)。A、《個(gè)人信息保護(hù)法》B、《網(wǎng)絡(luò)安全法》C、《保守國(guó)家秘密法》D、《網(wǎng)絡(luò)產(chǎn)品和服務(wù)安全審查辦法(試行)》答案:A138.在Apriori算法中,候選項(xiàng)集劃分為不同的桶,存放在()中。A、字典B、集合C、Hash樹D、列表答案:C139.多分類圖像識(shí)別任務(wù)常采用()作為輸出的編碼方式。A、二進(jìn)制編碼B、one-hot編碼C、霍夫曼編碼D、曼切斯特編碼答案:B140.關(guān)于下面代碼的描述,錯(cuò)誤的是n=1deffunc(a,b):c=a*breturncs=func(Hello,2)print(c)A、打印輸出字符串:HelloHello$運(yùn)行結(jié)果是出錯(cuò),出錯(cuò)類型是NameError:|運(yùn)行結(jié)果是出錯(cuò),出錯(cuò)類型是NameError:|c是一個(gè)局部變量|n是一個(gè)全局變量B、運(yùn)行結(jié)果是出錯(cuò),出錯(cuò)類型是NameError:C、c是一個(gè)局部變量D、n是一個(gè)全局變量答案:A141.假設(shè)有100,000張帶標(biāo)簽的圖片是使用汽車的前置攝像頭拍攝的,這也是模型訓(xùn)練的數(shù)據(jù)分布,如果可以從互聯(lián)網(wǎng)上獲得更大的數(shù)據(jù)集,即使互聯(lián)網(wǎng)數(shù)據(jù)的分布不相同,這也可能對(duì)訓(xùn)練有所幫助。在剛剛開始著手這個(gè)項(xiàng)目,要做的第一件事是什么?假設(shè)下面的每個(gè)步驟將花費(fèi)大約相等的時(shí)間(大約幾天)。A、花幾天時(shí)間去獲取互聯(lián)網(wǎng)的數(shù)據(jù),這樣就能更好地了解哪些數(shù)據(jù)是可用的。B、花幾天的時(shí)間檢查這些任務(wù)的人類表現(xiàn),以便能夠得到貝葉斯誤差的準(zhǔn)確估計(jì)。C、花幾天的時(shí)間使用汽車前置攝像頭采集更多數(shù)據(jù),以更好地了解每單位時(shí)間可收集多少數(shù)據(jù)。D、花幾天時(shí)間訓(xùn)練一個(gè)基本模型,看看它會(huì)犯什么錯(cuò)誤答案:D142.數(shù)據(jù)質(zhì)量的基本屬性不包括()A、正確性B、時(shí)效性C、一致性D、完整性答案:B143.下列關(guān)于長(zhǎng)短時(shí)神經(jīng)網(wǎng)絡(luò)的敘述錯(cuò)誤的是()。A、引用自循環(huán)思想B、產(chǎn)生梯度長(zhǎng)時(shí)間持續(xù)流動(dòng)的路徑C、積累的時(shí)間尺度不可以因輸入序列而改變D、可應(yīng)用于語音識(shí)別和機(jī)器翻譯答案:C144.長(zhǎng)短時(shí)記憶神經(jīng)網(wǎng)絡(luò)通過什么來緩解梯度消失問題()A、增加網(wǎng)絡(luò)深度B、減少網(wǎng)絡(luò)神經(jīng)元C、使用雙向的網(wǎng)絡(luò)結(jié)構(gòu)D、增加一個(gè)用來保存長(zhǎng)期狀態(tài)的單元答案:D145.創(chuàng)建RDS實(shí)例后,您需要設(shè)置RDS實(shí)例的白名單,以允許()設(shè)備訪問該RDS實(shí)例。A、外部B、內(nèi)部C、任意D、非安全答案:A146.在池化中,當(dāng)步長(zhǎng)小于卷積核的大小時(shí)會(huì)稱為重疊池化。與非重疊池化相比,下面哪個(gè)不是重疊池化的優(yōu)點(diǎn)?()A、損失信息少B、獲得的圖像特征更豐富C、提高卷積神經(jīng)網(wǎng)絡(luò)的正確率D、減少計(jì)算量答案:D147.按照《關(guān)于進(jìn)一步加強(qiáng)公司數(shù)據(jù)安全的通知》,應(yīng)嚴(yán)格電網(wǎng)省側(cè)和經(jīng)營(yíng)管理數(shù)據(jù)對(duì)外發(fā)布共享。遵循()的原則,確保生產(chǎn)經(jīng)營(yíng)數(shù)據(jù)及分析結(jié)果數(shù)據(jù)不出網(wǎng)(管理信息大區(qū)和生產(chǎn)控制大區(qū))、不觸媒。A、以共享為原則、不共享為例外B、最小化授權(quán)C、明細(xì)業(yè)務(wù)數(shù)據(jù)不出中臺(tái)D、誰主管誰負(fù)責(zé),誰使用誰負(fù)責(zé)答案:C148.以下屬于Python腳本程序轉(zhuǎn)變?yōu)榭蓤?zhí)行程序的第三方庫的是:A、requestsB、pyinstallerC、numpyD、scrapy答案:B149.使用copy模塊深拷貝的方法為()。A、copy()B、deepcopy.copy()C、copy.deepcopy()D、deepcopy.deepcopy()答案:C150.考慮值集{12243324556826}的四分位數(shù)極差是()。A、21B、24C、55D、3答案:A151.一般將原始業(yè)務(wù)數(shù)據(jù)分為多個(gè)部分,用于構(gòu)建模型的是()A、訓(xùn)練集B、測(cè)試集C、驗(yàn)證集D、全部數(shù)據(jù)答案:A152.多義現(xiàn)象可以被定義為在文本對(duì)象中一個(gè)單詞或短語的多種含義共存。下列哪一種方法可能是解決此問題的最好選擇?A、隨機(jī)森林分類器B、卷積神經(jīng)網(wǎng)絡(luò)C、梯度爆炸D、上述所有方法答案:B153.大數(shù)據(jù)應(yīng)用承建單位應(yīng)基于項(xiàng)目建設(shè)方案編制實(shí)施方案不包括A、數(shù)據(jù)溯源B、數(shù)據(jù)申請(qǐng)C、數(shù)據(jù)需求調(diào)研D、數(shù)據(jù)建模答案:C154.在情感分析任務(wù)中,其目的是將無結(jié)構(gòu)化的情感文本轉(zhuǎn)化成計(jì)算機(jī)容易識(shí)別和處理的結(jié)構(gòu)化文本,進(jìn)而供情感分析上層的研究和應(yīng)用服務(wù)的是()A、情感信息檢索B、情感信息抽取C、情感信息分類D、情感信息歸納答案:B155.對(duì)于神經(jīng)網(wǎng)絡(luò)的說法,下面正確的是:(__)。1.增加神經(jīng)網(wǎng)絡(luò)層數(shù),可能會(huì)增加測(cè)試數(shù)據(jù)集的分類錯(cuò)誤率2.減少神經(jīng)網(wǎng)絡(luò)層數(shù),總是能減小測(cè)試數(shù)據(jù)集的分類錯(cuò)誤率3.增加神經(jīng)網(wǎng)絡(luò)層數(shù),總是能減小訓(xùn)練數(shù)據(jù)集的分類錯(cuò)誤率A、1B、1、3C、1、2D、2答案:A156.Hive的數(shù)據(jù)最終存儲(chǔ)在()A、HDFSB、HBaseC、RDBMSD、Metastore答案:A157.通過數(shù)據(jù)資產(chǎn)核查及可視化的建設(shè),可以幫助公司合理評(píng)估、規(guī)范高效的管控公司數(shù)據(jù)資產(chǎn)信息,又可以挖掘和發(fā)揮數(shù)據(jù)資產(chǎn)價(jià)值并促進(jìn)持續(xù)增值,推動(dòng)公司向()管理轉(zhuǎn)型。A、數(shù)據(jù)質(zhì)量B、數(shù)據(jù)治理C、數(shù)據(jù)分析D、數(shù)據(jù)驅(qū)動(dòng)答案:D158.下列關(guān)于凝聚層次聚類技術(shù)的描述中,合適的是()。A、抗噪聲和異常值B、MAX(全鏈)聚類中合并距離最遠(yuǎn)的兩個(gè)簇C、兩個(gè)簇合并后,只保留一個(gè)簇D、沒有可以直接最小化的目標(biāo)函數(shù)答案:D159.下列哪些不是目前機(jī)器學(xué)習(xí)所面臨的問題是()。A、測(cè)試集的規(guī)模B、維度災(zāi)難C、特征工程D、過擬合答案:A160.網(wǎng)絡(luò)運(yùn)營(yíng)者發(fā)布、共享、交易或向境外提供重要數(shù)據(jù)前,應(yīng)當(dāng)評(píng)估可能帶來的安全風(fēng)險(xiǎn),并報(bào)經(jīng)()部門同意A、安全監(jiān)察B、上級(jí)主管C、工業(yè)和信息化D、行業(yè)主管監(jiān)督答案:D161.MapReduce任務(wù)map輸出結(jié)果將被寫入()。A、HDFS文件系統(tǒng)B、新的記錄文件C、磁盤(Linux文件系統(tǒng))D、主數(shù)據(jù)庫答案:C162.HBase是一種可伸縮、高可靠、高性能、分布式和面向()的動(dòng)態(tài)模式數(shù)據(jù)庫。A、列B、行C、行和列D、元組答案:A163.LSTM的3個(gè)門分別是()。A、遺忘門、輸入門、輸出門B、輸入門、更新門、輸出門C、輸入門、重置門、遺忘門D、遺忘門、更新門、輸出門答案:A164.數(shù)據(jù)中臺(tái)提供統(tǒng)一的身份認(rèn)證和操作鑒權(quán)能力,確保在數(shù)據(jù)傳輸、存儲(chǔ)、訪問過程中的數(shù)據(jù)安全;提供數(shù)據(jù)訪問權(quán)限控制、保護(hù)業(yè)務(wù)核心數(shù)據(jù)、防止()能力。A、數(shù)據(jù)泄露B、數(shù)據(jù)錯(cuò)亂C、數(shù)據(jù)分散D、數(shù)據(jù)無效答案:A165.下面哪一個(gè)主流任務(wù)沒有用到卷積層A、中英文互譯B、場(chǎng)景文字檢測(cè)C、為圖像自動(dòng)生成標(biāo)題D、中文分詞答案:D166.假如你使用YOLO算法,使用19x19格子來檢測(cè)20個(gè)分類,使用5個(gè)錨框(anchorbox)。在訓(xùn)練的過程中,對(duì)于每個(gè)圖像你需要輸出卷積后的結(jié)果y作為神經(jīng)網(wǎng)絡(luò)目標(biāo)值(這是最后一層),y可能包括一些“?”或者“不關(guān)心的值”。請(qǐng)問最后的輸出維度是多少。A、19x19x(25x20)B、19x19x(20x25)C、19x19x(5x25)D、19x19x(5x20)答案:C167.MapReduce計(jì)算框架的輸入是()數(shù)據(jù)結(jié)構(gòu)。A、key-valueB、input-outputC、map-reduceD、key-column答案:A168.資產(chǎn)評(píng)估應(yīng)用實(shí)現(xiàn)全鏈路的數(shù)據(jù)資產(chǎn)監(jiān)管和價(jià)值追蹤,具體包括資產(chǎn)使用評(píng)估、()評(píng)估和敏感數(shù)據(jù)評(píng)估等功能。A、資產(chǎn)使用評(píng)估B、資產(chǎn)價(jià)值C、敏感數(shù)據(jù)評(píng)估D、數(shù)據(jù)質(zhì)量評(píng)估答案:B169.MapReduce任務(wù)map輸出結(jié)果將被寫入()。A、HDFS文件系統(tǒng)B、新的記錄文件C、磁盤(Linux文件系統(tǒng))D、主數(shù)據(jù)庫答案:C170.將合規(guī)管理要求全面嵌入公司數(shù)據(jù)活動(dòng),在各領(lǐng)域、各環(huán)節(jié)確定合規(guī)管理重點(diǎn),覆蓋(),促進(jìn)公司數(shù)據(jù)活動(dòng)全面合規(guī)。A、數(shù)據(jù)生產(chǎn)B、數(shù)據(jù)全生命周期C、數(shù)據(jù)存儲(chǔ)D、數(shù)據(jù)銷毀答案:B171.以下哪項(xiàng)工作屬于數(shù)據(jù)應(yīng)用優(yōu)化生產(chǎn)運(yùn)行,提升電網(wǎng)質(zhì)效。A、優(yōu)化設(shè)備運(yùn)維策略B、優(yōu)化能源配置C、提升電網(wǎng)防災(zāi)抗災(zāi)能力D、優(yōu)化設(shè)備物資供應(yīng)鏈答案:C172.下列關(guān)于神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)的權(quán)重共享現(xiàn)象的描述正確的是()。A、只有全連接神經(jīng)網(wǎng)絡(luò)會(huì)出現(xiàn)B、只有卷積神經(jīng)網(wǎng)絡(luò)(CNN)會(huì)出現(xiàn)C、只有循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)會(huì)出現(xiàn)D、卷積神經(jīng)網(wǎng)絡(luò)和循環(huán)神經(jīng)網(wǎng)絡(luò)都會(huì)出現(xiàn)答案:D173.下列關(guān)于隨機(jī)森林和GBDT的書法正確的是()A、在隨機(jī)森林的單個(gè)樹中,樹和樹之間是有依賴的,而GBDT中的單個(gè)樹之間是沒有依賴的B、這兩個(gè)模型都使用隨機(jī)特征子集,來生成許多單個(gè)的樹C、我們可以并行地生成GBDT單個(gè)樹,因?yàn)樗鼈冎g是沒有依賴的D、GBDT訓(xùn)練模型的表現(xiàn)總是比隨機(jī)森林好答案:B174.公司大數(shù)據(jù)應(yīng)用需求與立項(xiàng)管理遵循()管理規(guī)范,嚴(yán)格落實(shí)項(xiàng)目制管理要求,主要包括需求征集、評(píng)審、儲(chǔ)備、立項(xiàng)和計(jì)劃編制與調(diào)整等工作。A、大數(shù)據(jù)應(yīng)用項(xiàng)目B、數(shù)字化項(xiàng)目C、信息化項(xiàng)目D、數(shù)據(jù)研發(fā)項(xiàng)目答案:B175.健全數(shù)據(jù)合規(guī)管理體系,落實(shí)管理職責(zé),強(qiáng)化橫向協(xié)調(diào)和縱向指導(dǎo),突出事前防范和過程管控,加強(qiáng)違規(guī)事件應(yīng)對(duì)處置,嚴(yán)格管控()。A、數(shù)據(jù)安全風(fēng)險(xiǎn)B、信息安全風(fēng)險(xiǎn)C、數(shù)據(jù)合規(guī)風(fēng)險(xiǎn)D、數(shù)據(jù)泄露風(fēng)險(xiǎn)答案:C176.每?個(gè)神經(jīng)元都有輸入、處理函數(shù)和輸出。神經(jīng)元組合起來形成了網(wǎng)絡(luò),可以擬合任何函數(shù)。為了得到最佳的神經(jīng)網(wǎng)絡(luò),我們用梯度下降方法不斷更新模型給定上述關(guān)于神經(jīng)網(wǎng)絡(luò)的描述,什么情況下神經(jīng)網(wǎng)絡(luò)模型被稱為深度學(xué)習(xí)模型?A、加?更多層,使神經(jīng)網(wǎng)絡(luò)的深度增加B、有維度更高的數(shù)據(jù)C、當(dāng)這是一個(gè)圖形識(shí)別的問題時(shí)D、以上都不正確答案:A177.ODPS-SQL進(jìn)行操作連接表的關(guān)鍵字錯(cuò)誤的是()A、leftB、rightC、outerD、inner答案:C178.下列描述中不屬于數(shù)據(jù)治理內(nèi)容的是()A、理解自己的數(shù)據(jù)B、行為規(guī)范的制定C、崗位職責(zé)的定義D、獲得更多的數(shù)據(jù)答案:D179.下列哪項(xiàng)關(guān)于模型能力(modelcapacity指神經(jīng)網(wǎng)絡(luò)模型能擬合復(fù)雜函數(shù)的能力)的描述是正確的()A、隱藏層層數(shù)增加,模型能力增加B、Dropout的比例增加,模型能力增加C、學(xué)習(xí)率增加,模型能力增加D、都不正確答案:A180.MapReduce的Shuffle過程中哪個(gè)操作是最后做的()A、溢寫B(tài)、分區(qū)C、排序D、合并答案:D181.公司在我國(guó)境內(nèi)收集和產(chǎn)生的個(gè)人信息和重要數(shù)據(jù)應(yīng)當(dāng)在()存儲(chǔ)。A、境內(nèi)B、境外C、私有云D、公共云答案:A182.數(shù)據(jù)需求部門向科信部確認(rèn)數(shù)據(jù)的開放權(quán)限,需要詳細(xì)說明所開放的數(shù)據(jù)名稱、數(shù)據(jù)()、數(shù)據(jù)提供系統(tǒng)、需求部門、提供方式、數(shù)據(jù)的定義、統(tǒng)計(jì)口徑以及共享范圍和開放權(quán)限等。A、權(quán)限B、范圍C、內(nèi)容D、類型答案:C183.對(duì)于一個(gè)分類任務(wù),如果開始時(shí)神經(jīng)網(wǎng)絡(luò)的權(quán)重不是隨機(jī)賦值的,而是都設(shè)成0,下面哪個(gè)敘述是正確的?A、神經(jīng)網(wǎng)絡(luò)不會(huì)開始訓(xùn)練,因?yàn)闆]有梯度改變B、沒有問題,神經(jīng)網(wǎng)絡(luò)會(huì)正常開始訓(xùn)練C、神經(jīng)網(wǎng)絡(luò)可以訓(xùn)練,但是所有的神經(jīng)元最后都會(huì)變成識(shí)別同樣的東西D、其他選項(xiàng)都不對(duì)答案:C184.BP神經(jīng)網(wǎng)絡(luò)具有很的表示能力,它經(jīng)常遭遇(),其訓(xùn)練誤差持續(xù)降低,但測(cè)試誤差卻可能上升。A、欠擬合B、誤差過大C、誤差過小D、過擬合答案:D185.如果訓(xùn)練一個(gè)RNN網(wǎng)絡(luò)時(shí)發(fā)現(xiàn)權(quán)重與激活值都是NaN,則導(dǎo)致這個(gè)問題最有可能的原因是()。A、梯度消失B、梯度爆炸C、ReLUD、Sigmoid答案:B186.大數(shù)據(jù)應(yīng)用管理包括大數(shù)據(jù)應(yīng)用()等全生命周期管理及大數(shù)據(jù)應(yīng)用能力建設(shè)。A、需求立項(xiàng)、開發(fā)實(shí)施、發(fā)布應(yīng)用、經(jīng)營(yíng)管理B、需求立項(xiàng)、開發(fā)實(shí)施、發(fā)布應(yīng)用、成果評(píng)價(jià)C、需求立項(xiàng)、發(fā)布應(yīng)用、經(jīng)營(yíng)管理、成果評(píng)價(jià)D、需求立項(xiàng)、開發(fā)實(shí)施、經(jīng)營(yíng)管理、成果評(píng)價(jià)答案:B187.下面算法屬于局部處理的是()。A、灰度線性變換B、二值化C、傅里葉變換D、中值濾波答案:D188.大數(shù)據(jù)應(yīng)用需求分為()需求和即時(shí)需求兩類。A、年度B、半年度C、季度D、月度答案:A189.假設(shè)輸入是一個(gè)300×300的彩色(RGB)圖像,而沒有使用卷積神經(jīng)網(wǎng)絡(luò)。如果第一個(gè)隱藏層有100個(gè)神經(jīng)元,每個(gè)神經(jīng)元與輸入層進(jìn)行全連接,那么這個(gè)隱藏層有多少個(gè)參數(shù)(包括偏置參數(shù))?A、9,000,001B、9,000,100C、27,000,001D、27,000,100答案:D190.考慮下面的3項(xiàng)頻繁集的集合:{1,2,3},{1,2,4},{1,2,5},{1,3,4},{1,3,5},{2,3,4},{2,3,5},{3,4,5}假定數(shù)據(jù)集中只有5個(gè)項(xiàng),采用合并策略,由候選產(chǎn)生過程得到4項(xiàng)集不包含()A、1,2,3,4B、1,2,3,5C、1,2,4,5D、1,3,4,5答案:C191.單個(gè)神經(jīng)元模型不能解決()。A、線性二分類B、XOR問題C、線性二判別D、以上都不是答案:B192.()負(fù)責(zé)數(shù)據(jù)合規(guī)歸口管理,負(fù)責(zé)數(shù)據(jù)合規(guī)技術(shù)審查,持續(xù)提升數(shù)據(jù)合規(guī)管理水平。A、互聯(lián)網(wǎng)部B、信通公司C、辦公室D、安監(jiān)部答案:A193.下列關(guān)于算法進(jìn)化的描述錯(cuò)誤的是()。A、算法1.0的典型算法是精度分析,是實(shí)驗(yàn)分析技術(shù)的核心B、算法2.0的典型算法是線性回歸,是問卷領(lǐng)域數(shù)據(jù)分析的核心C、算法3.0的典型算法是數(shù)據(jù)挖掘類方法,是數(shù)據(jù)庫領(lǐng)域的核心D、算法4.0的典型算法是DM類算法,時(shí)超大數(shù)據(jù)分析的基礎(chǔ)答案:A194.《國(guó)家電網(wǎng)有限公司數(shù)據(jù)共享負(fù)面清單管理細(xì)則》自()起施行。A、2020年3月30日B、2021年3月30日C、2020年6月30日D、2021年6月30日答案:B195.對(duì)于依托公共服務(wù)能力平臺(tái)開發(fā)的大數(shù)據(jù)應(yīng)用,應(yīng)遵循平臺(tái)有關(guān)規(guī)范,重點(diǎn)開展數(shù)據(jù)溯源、數(shù)據(jù)建模以及數(shù)據(jù)展示等工作,安全防護(hù)、三方測(cè)試等相關(guān)要求統(tǒng)一納入()進(jìn)行管理,可不再單獨(dú)開展。A、數(shù)據(jù)中臺(tái)B、大數(shù)據(jù)應(yīng)用建設(shè)平臺(tái)C、公共服務(wù)能力平臺(tái)D、人工智能平臺(tái)答案:C196.RNN不同于其它神經(jīng)網(wǎng)絡(luò)的地方在于()。A、實(shí)現(xiàn)了記憶功能B、速度快C、精度高D、易于搭建答案:A197.Project被設(shè)置了“保護(hù)模式”以后,以下()說法是正確。A、所有人都無法訪問該P(yáng)roject中的數(shù)據(jù)B、只有管理員可以訪問該P(yáng)roject中的數(shù)據(jù)C、用戶可以在本Project中訪問數(shù)據(jù),但是不能將數(shù)據(jù)導(dǎo)出到外部。D、以上全部答案:C198.下列關(guān)于線性回歸分析中的殘差說法正確的是()。A、殘差均值總是為零B、殘差均值總是約等于零C、殘差均值總是大于零D、以上答案都不正確答案:A199.在一個(gè)神經(jīng)網(wǎng)絡(luò)中,知道每一個(gè)神經(jīng)元的權(quán)重和偏差是最重要的一步。如果知道了神經(jīng)元準(zhǔn)確的權(quán)重和偏差,便可以近似任何函數(shù),但怎么獲知每個(gè)神經(jīng)的權(quán)重和偏移呢?A、搜索每個(gè)可能的權(quán)重和偏差組合,直到得到最佳值B、賦予一個(gè)初始值,然后檢查跟最佳值的差值,不斷迭代調(diào)整權(quán)重C、隨機(jī)賦值,聽天由命D、以上都不正確的答案:B200.下列不是NoSQL數(shù)據(jù)庫的是()A、MongoDB、BigTableC、HBaseD、Access答案:D201.大數(shù)據(jù)的4V特性中,哪一個(gè)是錯(cuò)誤的:()。A、數(shù)據(jù)量大B、價(jià)值密度高C、增長(zhǎng)快D、維度高答案:B202.以下不符合大數(shù)據(jù)問題處理范疇的是A、1TB數(shù)據(jù),秒級(jí)提交結(jié)果B、1TB數(shù)據(jù),分鐘級(jí)提交結(jié)果C、1TB數(shù)據(jù),半小時(shí)內(nèi)提交結(jié)果D、1TB數(shù)據(jù),一天內(nèi)提交結(jié)果答案:D203.關(guān)于機(jī)器學(xué)習(xí)模型訓(xùn)練步驟的說法,錯(cuò)誤的是()。A、測(cè)試集能夠測(cè)試模型對(duì)于未知數(shù)據(jù)的擬合效果B、驗(yàn)證集能夠用于防止模型過擬合C、劃分?jǐn)?shù)據(jù)集時(shí)需要注意數(shù)據(jù)是否為同分布D、模型訓(xùn)練需要準(zhǔn)備多個(gè)備選算法用于效果比較答案:B204.參考公司()按域進(jìn)行數(shù)據(jù)分類。A、維度模型B、公共數(shù)據(jù)模型(SG-CIM)C、通用數(shù)據(jù)模型D、業(yè)務(wù)分類答案:B205.{'name':'john','code':6734,'dept':'sales'}這種類型數(shù)據(jù)屬于_____。A、列表B、元組C、集合D、字典答案:D206.列表中可以放()個(gè)字符串A、1B、255C、無限個(gè)D、由用戶自己定義答案:C207.關(guān)鍵信息基礎(chǔ)設(shè)施的運(yùn)營(yíng)者采購網(wǎng)絡(luò)產(chǎn)品和服務(wù),應(yīng)當(dāng)按照規(guī)定與提供者簽訂(),明確安全和保密義務(wù)與責(zé)任。A、合作協(xié)議B、安全保密協(xié)議C、安全補(bǔ)充條款D、保密涵答案:B208.當(dāng)不知道數(shù)據(jù)所帶標(biāo)簽時(shí),可以使用哪種技術(shù)促使帶同類標(biāo)簽的數(shù)據(jù)與帶其他標(biāo)簽的數(shù)據(jù)相分離?A、分類B、聚類C、關(guān)聯(lián)分析D、隱馬爾可夫鏈答案:B209.假設(shè)文件不存在,如果使用open方法打開文件會(huì)報(bào)錯(cuò),那么該文件的打開方式是下列哪種模式()。A、rB、wC、aD、b答案:A210.若a=np.array([5,1,2,3]),a.sort(),則數(shù)組a的結(jié)果是()。A、[5,1,2,3];B、[1,2,3,5];C、[3,2,1,5];D、11;答案:B211.結(jié)構(gòu)化數(shù)組不能使用以下哪種數(shù)據(jù)類型創(chuàng)建()。A、元組列表B、字符串C、字典D、整數(shù)答案:D212.DAGScheduler的作用是什么()A、負(fù)責(zé)分配任務(wù);B、負(fù)責(zé)調(diào)度Worker的運(yùn)行;C、負(fù)責(zé)創(chuàng)建執(zhí)行計(jì)劃;D、負(fù)責(zé)清理執(zhí)行完畢的任務(wù);答案:C213.數(shù)據(jù)傳輸環(huán)節(jié),在互聯(lián)網(wǎng)大區(qū)傳輸重要數(shù)據(jù)時(shí)應(yīng)()。采用公司統(tǒng)一密碼基礎(chǔ)設(shè)施簽發(fā)的密鑰或證書,實(shí)現(xiàn)企業(yè)重要數(shù)據(jù)的加密傳輸。A、安全保密B、適時(shí)銷毀C、加密保護(hù)D、內(nèi)網(wǎng)存儲(chǔ)答案:C214.常用的圖像特征不包括A、顏色特征B、形狀特征C、紋理特征D、像素特征答案:D215.大數(shù)據(jù)計(jì)算服務(wù)(Maxpute,原ODPS)tunnel命令?供了豐富的參數(shù),可以通過參數(shù)設(shè)置,對(duì)上傳或者下載操作進(jìn)行控制,現(xiàn)在有一個(gè)大文件要上傳至odps某表中,想先檢查一下該文件內(nèi)容是否和表的定義匹配,并不實(shí)際上傳,以免文件中有錯(cuò)誤記錄會(huì)導(dǎo)致上傳出錯(cuò)??梢允褂媚膫€(gè)參數(shù)實(shí)現(xiàn)這個(gè)功能?A、錯(cuò)誤記錄丟棄:-dbrB、字段分隔符:-fC、掃瞄選項(xiàng):-sD、空字符串顯示:-ni答案:C216.機(jī)房照明一般要求有()A、正常照明B、保證照明C、事故照明D、以上都是答案:D217.下列代碼:deffoo():print(starting...)whileTrue:res=yield4print(res:,res)foo()返回的是A、resB、4C、starting...D、以上都不對(duì)答案:D218.構(gòu)建多維動(dòng)態(tài)客戶畫像,設(shè)計(jì)全網(wǎng)客戶標(biāo)簽體系,形成(),全面及時(shí)分析客戶行為活動(dòng),深度提煉客戶行為特征規(guī)律,實(shí)現(xiàn)客戶行為動(dòng)態(tài)畫像。A、客戶標(biāo)簽庫B、客戶畫像C、客戶行為庫D、用戶畫像答案:A219.向量空間模型的缺陷不包括()。A、維度災(zāi)難B、模型稀疏性C、語義信息缺失D、無法計(jì)算文本相似度答案:D220.批規(guī)范化(BatchNormalization)的好處都有()?A、讓每一層的輸入的范圍都大致固定B、它將權(quán)重的歸一化平均值和標(biāo)準(zhǔn)差C、它是一種非常有效的反向傳播(BP)方法D、這些均不是答案:A221.?以下關(guān)于PCA說法正確的是()A、PCA是一種監(jiān)督學(xué)習(xí)算法B、PCA在轉(zhuǎn)換后的第一個(gè)新坐標(biāo)軸選擇的是原始數(shù)據(jù)中方差最小的方向C、PCA轉(zhuǎn)換后選擇的第一個(gè)方向是最主要特征D、PCA不需要對(duì)數(shù)據(jù)進(jìn)行歸一化處理答案:C222.人工智能平臺(tái)總體架構(gòu)由()組成A、平臺(tái)層B、應(yīng)用層C、服務(wù)層D、全部答案:D223.()模塊是Python標(biāo)準(zhǔn)庫中最常用的模塊之一。通過它可以獲取命令行參數(shù),從而實(shí)現(xiàn)從程序外部向程序內(nèi)部傳遞參數(shù)的功能,也可以獲取程序路徑和當(dāng)前系統(tǒng)平臺(tái)等信息。A、sysB、platformC、mathD、參數(shù)是組合類型(可變對(duì)象)時(shí),改變?cè)瓍?shù)的值答案:A224.相比LeNet-5,以下哪個(gè)不是AlexNet的創(chuàng)新點(diǎn)?()A、dropoutB、共享權(quán)重C、ReLU激活函數(shù)和重疊池化D、雙GPU訓(xùn)練答案:B225.df.head(n)是指顯示A、Dataframe數(shù)據(jù)中的前n行B、Dataframe數(shù)據(jù)中的后n行C、Dataframe數(shù)據(jù)中的前n列D、Dataframe數(shù)據(jù)中的后n列答案:A226.一位母親記錄了兒子3~9歲的身高,由此建立的身高與年齡的回歸直線方程為y=7.19x+73.93,據(jù)此可以預(yù)測(cè)這個(gè)孩子10歲時(shí)的身高,則正確的敘述是()。A、身高一定是145.83cmB、身高一定超過146.00cmC、身高一定高于145.00cmD、身高在145.83cm左右答案:D227.根據(jù)數(shù)據(jù)質(zhì)量核查和治理情況,互聯(lián)網(wǎng)部對(duì)數(shù)據(jù)質(zhì)量問題發(fā)生數(shù)、()、整改完成率等進(jìn)行評(píng)估和通報(bào),促進(jìn)公司整體數(shù)據(jù)質(zhì)量水平提升。A、整改量B、整改及時(shí)率C、問題頻率D、問題整改情況答案:B228.及時(shí)將數(shù)據(jù)活動(dòng)中產(chǎn)生的()納入公司知識(shí)產(chǎn)權(quán)體系進(jìn)行保護(hù),妥善處理好數(shù)據(jù)內(nèi)部共享、對(duì)外開放與知識(shí)產(chǎn)權(quán)保護(hù)的關(guān)系。A、智力成果B、軟件產(chǎn)品C、數(shù)據(jù)D、算法答案:A229.線性判別分析(LDA)從貝葉斯決策理論闡釋,當(dāng)兩類數(shù)據(jù)同先驗(yàn)且滿足()時(shí),LDA達(dá)到最優(yōu)分類。A、滿足高斯分布B、協(xié)方差相等C、滿足高斯分布且協(xié)方差相等D、協(xié)方差不等答案:C230.CNN中用來完成分類的是()A、卷積層B、池化層C、全連接層D、激活層答案:C231.已知:(1)大腦是有很多個(gè)叫做神經(jīng)元的東西構(gòu)成,神經(jīng)網(wǎng)絡(luò)是對(duì)大腦的簡(jiǎn)單的數(shù)學(xué)表達(dá)。(2)每一個(gè)神經(jīng)元都有輸入、處理函數(shù)和輸出。(3)神經(jīng)元組合起來形成了網(wǎng)絡(luò),可以擬合任何函數(shù)。(4)為了得到最佳的神經(jīng)網(wǎng)絡(luò),我們用梯度下降方法不斷更新模型。給定上述關(guān)于神經(jīng)網(wǎng)絡(luò)的描述,什么情況下神經(jīng)網(wǎng)絡(luò)模型被稱為深度學(xué)習(xí)模型?A、加入更多層,使神經(jīng)網(wǎng)絡(luò)的深度增加B、有維度更高的數(shù)據(jù)C、當(dāng)這是一個(gè)圖形識(shí)別的問題時(shí)D、以上都不正確答案:A232.a=[[1,2,3],(4,5,6),7,8,9],請(qǐng)問a[1]是哪種數(shù)據(jù)類型?A、字符串B、列表C、集合D、元組答案:D233.以下數(shù)據(jù)業(yè)務(wù)圖譜實(shí)體中,()是數(shù)據(jù)實(shí)體。A、設(shè)備專業(yè)B、配電管理C、隱患管理D、隱患記錄答案:D234.以下關(guān)于語言類型的描述中,錯(cuò)誤的是______。A、解釋是將源代碼逐條轉(zhuǎn)換成目標(biāo)代碼同時(shí)逐條運(yùn)行目標(biāo)代碼的過程B、靜態(tài)語言采用解釋方式執(zhí)行,腳本語言采用編譯方式執(zhí)行C、C語言是靜態(tài)編譯語言,Python語言是腳本語言D、編譯是將源代碼轉(zhuǎn)換成目標(biāo)代碼的過程答案:B235.按照公司戰(zhàn)略實(shí)施要求,立足數(shù)據(jù)發(fā)展需要,以“可管、()、可信”為核心,建立健全數(shù)據(jù)合規(guī)管理體系A(chǔ)、可控B、可查C、可見D、可防答案:A236.SQL語言中,刪除一個(gè)表中所有數(shù)據(jù),但保留表結(jié)構(gòu)的命令是()A、DELETEB、DROPC、CLEARD、REMORE答案:A237.輸入圖像為37*37,經(jīng)過第一層卷積(卷積核數(shù)量為25,每個(gè)卷積核大小為5*5,paddding方式為valid,步長(zhǎng)為1)和池化層(卷積核大小為3*3,paddding方式為valid,),輸出特征圖大小為()A、10*10B、11*11C、12*12D、13*13答案:B238.下面與HDFS類似的框架是()A、NTFSB、FAT32C、GFSD、EXT3答案:C239.給出如下代碼,可以輸出“python”的是()s='Pythonisbeautiful!'A、print(s[:–14]);B、print(s[0:6].lower());C、print(s[0:6]);D、print(s[–21:答案:B240.輸入圖片大?為200×200,依次經(jīng)過一層卷積(kernelsize5×5,padding1,stride2),pooling(kernelsize3×3,padding0,stride1),又一層卷積(kernelsize3×3,padding1,stride1)之后,輸出特征圖大?為()。A、95B、96C、97D、98答案:C241.在神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)中,感知機(jī)輸出層中的M-P神經(jīng)元通常被稱為()。A、閾值邏輯單元B、激活函數(shù)C、擠壓函數(shù)D、連接函數(shù)答案:A242.與HMM和MEMM模型相比,CRF模型的優(yōu)勢(shì)不包含()。A、特征靈活B、速度快C、可容納較多上下文信息D、全局最優(yōu)答案:B243.為什么要對(duì)輸入x進(jìn)行歸一化?A、讓參數(shù)初始化更快B、讓代價(jià)函數(shù)更快地優(yōu)化C、更容易做數(shù)據(jù)可視化D、是另一種正則化——有助減少方差答案:B244.Numpy中對(duì)數(shù)組進(jìn)行轉(zhuǎn)置的函數(shù)是哪個(gè)()。A、transpose()B、rollaxis()C、swapaxes()D、tan()答案:A245.鼓勵(lì)各部門、各單位強(qiáng)化大數(shù)據(jù)成果轉(zhuǎn)化、應(yīng)用與推廣。對(duì)內(nèi)賦能電網(wǎng)運(yùn)行、經(jīng)營(yíng)管理、客戶服務(wù)、____等實(shí)際工作。A、社會(huì)治理B、金融信托C、基層減負(fù)D、國(guó)際援助答案:C246.下列哪一項(xiàng)屬于特征學(xué)習(xí)算法(representationlearningalgorithm)?A、K近鄰算法B、隨機(jī)森林C、神經(jīng)網(wǎng)絡(luò)D、都不屬于答案:C247.你正在訓(xùn)練一個(gè)RNN網(wǎng)絡(luò),你發(fā)現(xiàn)你的權(quán)重與激活值都是NaN,下列選項(xiàng)中,哪一個(gè)是導(dǎo)致這個(gè)問題的最有可能的原因()A、梯度消失B、梯度爆炸C、ReLU函數(shù)作為激活函數(shù)g(.),在計(jì)算g(z)時(shí),z的數(shù)值過大了D、Sigmoid函數(shù)作為激活函數(shù)g(.),在計(jì)算g(z)時(shí),z的數(shù)值過大了答案:B248.減少神經(jīng)網(wǎng)絡(luò)過擬合的說法,以下哪些是正確的?()A、在神經(jīng)網(wǎng)絡(luò)訓(xùn)練過程中類似dropout減少神經(jīng)元或相關(guān)鏈接權(quán)的數(shù)量B、通過正則化可以減少網(wǎng)絡(luò)參數(shù)的取值或個(gè)數(shù),一定程度可能減少過擬合C、利用L1或L2正則化可以使權(quán)重衰減,從而一定程度上減少過擬合D、以上都對(duì)答案:D249.推動(dòng)數(shù)據(jù)標(biāo)準(zhǔn)體系建設(shè),按照“()”原則,組織幵展重點(diǎn)數(shù)據(jù)標(biāo)準(zhǔn)編制。A、急用先行B、頂層設(shè)計(jì)C、層層審批D、業(yè)數(shù)融合答案:A250.執(zhí)行下面操作后,list2的值是()。list1=[4,5,6]list2=list1list1[2]=3A、[4,5,6]B、[4,3,6]C、[4,5,3]D、以上答案都不正確答案:C251.各級(jí)()是本單位信息系統(tǒng)運(yùn)行風(fēng)險(xiǎn)預(yù)警的管理部門,負(fù)責(zé)建立本單位信息系統(tǒng)運(yùn)行風(fēng)險(xiǎn)預(yù)警管控機(jī)制負(fù)責(zé)與本單位業(yè)務(wù)應(yīng)用部門的橫向協(xié)調(diào)負(fù)責(zé)本單位信息系統(tǒng)運(yùn)行風(fēng)險(xiǎn)預(yù)警管控工作的全過程監(jiān)督、檢查、評(píng)價(jià)。A、信息通信調(diào)度B、信通公司C、信息通信職能管理部門D、國(guó)網(wǎng)信通部答案:C252.《個(gè)人信息保護(hù)法》對(duì)于企業(yè)的影響不包括()。A、需要強(qiáng)化個(gè)人信息處理這主體責(zé)任B、明確了可以量化的中國(guó)版執(zhí)行罰則C、需要設(shè)立負(fù)責(zé)處理個(gè)人信息保護(hù)相關(guān)事務(wù)的專門機(jī)構(gòu)和指定代表D、收集和處理數(shù)據(jù)時(shí)可以不遵循“最小化”原則答案:D253.數(shù)據(jù)中臺(tái)由貼源層、共享層、()、統(tǒng)一數(shù)據(jù)服務(wù)調(diào)度和數(shù)據(jù)資產(chǎn)管理五大板塊組成A、應(yīng)用層B、分析層C、數(shù)據(jù)層D、模型層答案:B254.下列哪個(gè)不屬于常用的文本分類的特征選擇算法()。A、卡方檢驗(yàn)值B、互信息C、信息增益D、主成分分析答案:D255.將一副圖像進(jìn)行分割后,分割出的區(qū)域彼此之間(__)重疊。A、可以B、不可以C、根據(jù)任務(wù)需要確定是否可以D、根據(jù)分割方法確定是否可以答案:B256.以下哪類負(fù)面清單屬于商業(yè)秘密和工作秘密。()A、密鑰密碼、境外投資、“三重一大”事項(xiàng)B、個(gè)人證件號(hào)碼、家庭住址、銀行賬戶等C、投標(biāo)標(biāo)底、審計(jì)事項(xiàng)、問題線索D、以上都是答案:A257.決策樹是基于(__)結(jié)構(gòu)來進(jìn)行決策的。A、樹B、鏈C、隊(duì)列D、棧答案:A258.在Spark中,()是指RDD的每個(gè)分區(qū)都只被子RDD的一個(gè)分區(qū)所依賴。A、子分區(qū)B、父分區(qū)C、寬依賴D、窄依賴答案:D259.關(guān)于OLAP和OLTP的區(qū)別描述,不正確的是()。A、OLAP主要是關(guān)于如何理解聚集的大量不同的數(shù)據(jù).它與OTAP應(yīng)用程序不同。B、與OLAP應(yīng)用程序不同,OLTP應(yīng)用程序包含大量相對(duì)簡(jiǎn)單的事務(wù)。C、OLAP的特點(diǎn)在于事務(wù)量大,但事務(wù)內(nèi)容比較簡(jiǎn)單且重復(fù)率高。D、OLAP是以數(shù)據(jù)倉庫為基礎(chǔ)的,但其最終數(shù)據(jù)來源與OLTP一樣均來自底層的數(shù)據(jù)庫系統(tǒng),兩者面對(duì)的用戶是相同的答案:C260.大數(shù)據(jù)應(yīng)用的業(yè)務(wù)規(guī)劃將聚焦核心領(lǐng)域,打造共5大重點(diǎn)業(yè)務(wù)、()個(gè)業(yè)務(wù)領(lǐng)域、34項(xiàng)業(yè)務(wù)方向。A、12B、13C、14D、15答案:A261.以下哪一個(gè)是ResNet-18的網(wǎng)絡(luò)結(jié)構(gòu)?()A、4個(gè)殘差塊各有4個(gè)卷積層(不包括恒等映射的1x1卷積層),B、3個(gè)殘差塊各有5個(gè)卷積層(不包括恒等映射的1x1卷積層),加上最后一個(gè)全連接層C、4個(gè)殘差塊各有3個(gè)卷積層(不包括恒等映射的1x1卷積層),D、5個(gè)殘差塊各有3個(gè)卷積層(不包括恒等映射的1x1卷積層),答案:A262.數(shù)據(jù)湖探索(DataLakeInsight,簡(jiǎn)稱DLI)是支持以下()形式的大數(shù)據(jù)計(jì)算分析服務(wù)。A、流式處理B、批處理C、流批一體D、都不支持答案:C263.下列關(guān)于正則化說法錯(cuò)誤的是()。A、L1正則化可以用于特征選擇B、L1正則化和L2正則化可以減少過擬合C、Lp正則化不能減少過擬合D、L1正則化和L2正則化可以看成是損失函數(shù)的懲罰項(xiàng)答案:C264.以下哪項(xiàng)是對(duì)早期停止(earlystop)的最佳描述?()。A、訓(xùn)練網(wǎng)絡(luò)直到達(dá)到誤差函數(shù)中的局部最小值B、在每次訓(xùn)練期后在測(cè)試數(shù)據(jù)集上模擬網(wǎng)絡(luò),當(dāng)泛化誤差開始增加時(shí)停止訓(xùn)練C、在中心化權(quán)重更新中添加一個(gè)梯度下降加速算子,以便訓(xùn)練更快地收斂D、更快的方法是反向傳播算法答案:B265.CNN中池化層所起的作用是()。A、識(shí)別圖像中的子模式B、識(shí)別圖像中位于不同位置的模式C、降低圖像采樣率D、獲取圖像的恒定表征答案:C266.DNN常用的激活函數(shù)有()。A、sigmoidB、tanhC、ReLUD、以上答案都正確答案:D267.對(duì)分類任務(wù)來說,學(xué)習(xí)器從類別標(biāo)記集合中預(yù)測(cè)出一個(gè)標(biāo)記,最常見的結(jié)合策略是(__)。A、投票法B、平均法C、學(xué)習(xí)法D、排序法答案:A268.分析應(yīng)用計(jì)算后的分析主題數(shù)據(jù)存儲(chǔ)在()。A、貼源層B、近源層C、共享層D、分析層答案:D269.各地區(qū)、各部門應(yīng)當(dāng)按照數(shù)據(jù)()保護(hù)制度,確定本地區(qū)、本部門以及相關(guān)行業(yè)、領(lǐng)域的重要數(shù)據(jù)具體目錄,對(duì)列入目錄的數(shù)據(jù)進(jìn)行重點(diǎn)保護(hù)。A、分類分級(jí)B、分級(jí)分域C、分層分級(jí)D、分類分域答案:A270.已知池中有兩種魚,比例為7:3,若隨機(jī)撈上一條,按照70%和30%概率隨機(jī)猜測(cè)其種類,則整體誤差最接近于:A、20%B、30%C、40%D、50%答案:C271.構(gòu)建從公司總部到各級(jí)單位協(xié)調(diào)一致、符合實(shí)際的合規(guī)管理架構(gòu),確保數(shù)據(jù)在各層級(jí)、各單位、各板塊之間合法合規(guī)流轉(zhuǎn),推動(dòng)()共享應(yīng)用。A、數(shù)據(jù)融合B、數(shù)據(jù)治理C、數(shù)據(jù)統(tǒng)計(jì)D、數(shù)據(jù)維護(hù)答案:A272.SLIC算法的主要目的是()。A、目標(biāo)識(shí)別B、前景和背景分離C、超像素提取D、語義分割答案:C273.關(guān)于模型評(píng)估方法的說法,錯(cuò)誤的是()A、“留出法”直接將數(shù)據(jù)集D劃分成兩個(gè)互斥的集合B、“自助法”在數(shù)據(jù)集較大、難以有效劃分訓(xùn)練或測(cè)試集時(shí)很有用C、交叉驗(yàn)證法又稱為“k折交叉驗(yàn)證”D、“留一法”是交叉驗(yàn)證法的一個(gè)特例答案:B274.在回歸分析中,代表了數(shù)據(jù)點(diǎn)和它在回歸直線上相應(yīng)位置的差異的是:()。A、總偏差平方和B、殘差平方和C、回歸平方和D、相關(guān)指數(shù)R2答案:B275.熵是為消除不確定性所需要獲得的信息量,投擲均勻正六面體骰子的熵是()。A、1B、3.2C、2.6D、3.8答案:C276.在深度學(xué)習(xí)中,我們經(jīng)常會(huì)遇到收斂到localminimum,下面不屬于解決localminimum問題的方法是()A、隨機(jī)梯度下降B、設(shè)置MomentumC、設(shè)置不同初始值D、增大batch答案:D277.確保數(shù)據(jù)收集、傳輸、存儲(chǔ)、加工、使用、內(nèi)部共享、對(duì)外開放、銷毀等環(huán)節(jié)數(shù)據(jù)合規(guī)管理機(jī)制制度化、(),促進(jìn)數(shù)據(jù)依法合規(guī)利用,維護(hù)公司合法權(quán)益,支撐公司戰(zhàn)略目標(biāo)實(shí)現(xiàn)。A、常態(tài)化B、規(guī)范化C、生態(tài)化D、自動(dòng)化答案:B278.E.A.Feigenbaum等人在著名的《人工智能手冊(cè)》(第三卷,把機(jī)器學(xué)習(xí)劃分為:機(jī)械學(xué)習(xí)、示教學(xué)習(xí)、類比學(xué)習(xí)和____。A、符號(hào)主義學(xué)習(xí)B、監(jiān)督學(xué)習(xí)C、無監(jiān)督學(xué)習(xí)D、歸納學(xué)習(xí)答案:D279.下列不屬于深度學(xué)習(xí)的是()。A、監(jiān)督學(xué)習(xí)B、無監(jiān)督學(xué)習(xí)C、強(qiáng)化學(xué)習(xí)D、自主學(xué)習(xí)答案:D280.已知樣本x1,x2,x3,x4的平均數(shù)是2,則x1+3,x2+3,x3+3,x4+3的平均數(shù)是()A、2B、2.75C、3D、5答案:D281.np.linalg.svd()函數(shù)可以實(shí)現(xiàn)()功能。A、計(jì)算協(xié)方差矩陣B、實(shí)現(xiàn)奇異值分解C、計(jì)算方差D、計(jì)算均值;答案:B282.()用于將非線性引入神經(jīng)網(wǎng)絡(luò)。它會(huì)將值縮小到較小的范圍內(nèi)。A、損失函數(shù)B、優(yōu)化函數(shù)C、激活函數(shù)D、目標(biāo)函數(shù)答案:C283.數(shù)據(jù)安全管理要求不包括范圍A、數(shù)據(jù)獲取B、數(shù)據(jù)展示C、數(shù)據(jù)存儲(chǔ)D、數(shù)據(jù)共享答案:B284.以下統(tǒng)計(jì)學(xué)知識(shí),數(shù)據(jù)科學(xué)中不常用的是()。A、歸納分析法B、描述統(tǒng)計(jì)C、推斷統(tǒng)計(jì)D、基本分析法答案:A285.關(guān)于Adam算法,下列哪一個(gè)陳述是錯(cuò)誤的?A、Adam結(jié)合了Rmsprop和動(dòng)量的優(yōu)點(diǎn)B、Adam中的學(xué)習(xí)率超參數(shù)通常需要調(diào)整C、我們經(jīng)常使用超參數(shù)的“默認(rèn)”值D、Adam應(yīng)該用于批梯度計(jì)算,而不是用于mini-batch答案:D286.關(guān)于DataFrame與RDD在結(jié)構(gòu)上的區(qū)別,以下描述錯(cuò)誤的是()A、DataFrame可以看作是分布式的Row對(duì)象的集合,在二維表數(shù)據(jù)集的每一列都帶有名稱和類型。B、RDD是分布式的Java對(duì)象的集合C、RDD在轉(zhuǎn)換數(shù)據(jù)形式時(shí)效率相對(duì)較高D、DataFrame提供了比RDD更豐富的算子答案:C287.從宏觀角度看,數(shù)據(jù)可視化的功能不包括()A、信息記錄B、信息的推理分析C、信息清洗D、信息傳播答案:C288.按照公司戰(zhàn)略實(shí)施要求,立足()需要,以“可管、可控、可信”為核心,建立健全數(shù)據(jù)合規(guī)管理體系,明確數(shù)據(jù)合規(guī)管理職責(zé)與重點(diǎn)領(lǐng)域數(shù)據(jù)合規(guī)管理要求。A、數(shù)據(jù)發(fā)展B、行業(yè)發(fā)展C、信息發(fā)展D、能源發(fā)展答案:A289.主成分分析(PCA)降維的步驟為()①保留前N個(gè)最大的特征值對(duì)應(yīng)的特征向量;②去除平均值;③計(jì)算協(xié)方差矩陣;④將特征值排序;⑤協(xié)方差矩陣的特征值和特征向量⑥將原始特征轉(zhuǎn)換到上述N個(gè)特征向量構(gòu)建的新空間中,實(shí)現(xiàn)特征壓縮A、③②⑤④①⑥B、②③⑤④①⑥C、②③⑤①④⑥D(zhuǎn)、③②⑤①④⑥答案:B290.在Hadoop的分區(qū)階段,默認(rèn)的Partitioner是()。A、RangePartitionerB、PartitionerC、HashPartitionerD、用戶自定義的Partitioner答案:C291.以下關(guān)于Python程序的基本語法元素,錯(cuò)誤的描述是:A、變量是由用戶定義的用來保存和表示數(shù)據(jù)的一種語法元素B、Python語言只能用4個(gè)空格的縮進(jìn)來實(shí)現(xiàn)程序的強(qiáng)制可讀性C、變量的命名規(guī)則之一是名字的首位不能是數(shù)字D、變量標(biāo)識(shí)符是一個(gè)字符串,長(zhǎng)度是沒有限制的答案:B292.下列哪一種架構(gòu)有反饋連接(__)。A、循環(huán)神經(jīng)網(wǎng)絡(luò)B、卷積神經(jīng)網(wǎng)絡(luò)C、受限玻爾茲曼機(jī)D、都不是答案:A293.以下()不屬于開源數(shù)據(jù)湖解決方案。A、DLIB、IcebergC、HudiD、Open答案:A294.()不僅可用于多層前饋神經(jīng)網(wǎng)絡(luò),還可用于其他類型的神經(jīng)網(wǎng)絡(luò)。A、感知機(jī)B、神經(jīng)元C、神經(jīng)系統(tǒng)D、誤差逆?zhèn)鞑ゴ鸢福篋295.為提高計(jì)算性能,Spark中Transformation操作采用的是()計(jì)算模式。A、活性B、惰性C、實(shí)時(shí)D、非實(shí)時(shí)答案:B296.除()依法調(diào)取數(shù)據(jù)外,原則上不對(duì)外提供公司業(yè)務(wù)明細(xì)數(shù)據(jù)。A、上級(jí)單位B、公安機(jī)關(guān)C、社會(huì)團(tuán)體D、國(guó)家機(jī)關(guān)答案:D297.給出如下代碼:s='Pythonisbeautiful!'可以輸出python的語句是()A、print(s[0:6])B、print(s[0:6].lower())C、print(s[-21:-14].lower)D、print(s[:-14])答案:B298.至2021年,企業(yè)中臺(tái)發(fā)展經(jīng)歷了幾個(gè)時(shí)期:A、一B、二C、三D、四答案:C299.運(yùn)行下面的代碼后,變量n的類型是()。n={}A、setB、listC、未知類型D、dict答案:D300.常用的圖像去噪方法有()。A、高斯濾波

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論