2022年大數(shù)據(jù)應(yīng)用知識考試題庫(含答案)_第1頁
2022年大數(shù)據(jù)應(yīng)用知識考試題庫(含答案)_第2頁
2022年大數(shù)據(jù)應(yīng)用知識考試題庫(含答案)_第3頁
2022年大數(shù)據(jù)應(yīng)用知識考試題庫(含答案)_第4頁
2022年大數(shù)據(jù)應(yīng)用知識考試題庫(含答案)_第5頁
已閱讀5頁,還剩205頁未讀 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)

文檔簡介

2022年大數(shù)據(jù)應(yīng)用知識考試題庫(含答案)

一'單選題

1.圖像平滑會造成()。

A、圖像邊緣模糊化

B、圖像邊緣清晰化

C、無影響

D、以上答案都不正確

答案:A

解析:為了抑制噪聲,使圖像亮度趨于平緩的處理方法就是圖像平滑。圖像平滑

實際上是低通濾波,平滑過程會導(dǎo)致圖像邊緣模糊化。

2.關(guān)于Spark的說法中,()是錯誤的。

A、采用內(nèi)存計算模式

B、可利用多種語言編程

C、主要用于批處理

D、可進(jìn)行map()操作

答案:C

解析:HadoopMapReduce主要用于批處理,與Hadoop不同的是,Spark更為通用一

些,可以很好地支持流計算、交互式處理、圖計算等多種計算模式。

3.以下關(guān)于代碼規(guī)范描述,哪些是錯誤的()。

A、類總是使用駝峰格式命名,即所有單詞首字母大寫其余字母小寫。

B、除特殊模塊_init_之外,模塊名稱都使用不帶下劃線的小寫字母。

C、不要濫用*args和**kwargs

D、建議把所有方法都放在一個類中

答案:D

解析:以下關(guān)于代碼規(guī)范描述,把所有方法都放在一個類中是錯誤的。

4.下面關(guān)于詞袋模型說法錯誤的是()。

A、詞袋模型使用一個多重集對文本中出現(xiàn)的單詞進(jìn)行編碼

B、詞袋模型不考慮詞語原本在句子中的順序

C、詞袋模型可以應(yīng)用于文檔分類和檢索,同時受到編碼信息的限制

D、詞袋模型產(chǎn)生的靈感來源于包含類似單詞的文檔經(jīng)常有相似的含義

答案:C

解析:文本處理基礎(chǔ)知識。

5.對數(shù)值型輸出,最常見的結(jié)合策略是()。

A、投票法

B、平均法

C、學(xué)習(xí)法

D、排序法

答案:B

解析:對數(shù)值型輸出,最常見的結(jié)合策略是平均法。

6.以下有關(guān)計算機(jī)編程語言說法錯誤的是()。

A、編程語言是用于書寫計算機(jī)程序的語言;

B、計算機(jī)語言可分為機(jī)器語言、匯編語言、高級語言;

C、計算機(jī)能識別和執(zhí)行所有編程語言寫的程序;

D、C/C++、pascalxjavpython都屬于高級編程語言;

答案:C

解析:只有機(jī)器語言才能被計算機(jī)直接識別,Python等高級語言源程序,不能直

接運(yùn)行,必須翻譯成機(jī)器語言才能執(zhí)行。

7.Python中StatsmodeI庫和()庫關(guān)系密切。

A、Numpy

B、Scipy

Cvjieba

D、Pandas

答案:D

解析:StatsmodeIs建立在pandas之上。

8.以下屬于考慮詞語位置關(guān)系的模型有()。

A、詞向量模型

B、詞袋模型

C、詞的分布式表示

D、TF-IDF

答案:A

解析:詞向量模型考慮通過中間詞預(yù)測鄰近詞,需要考慮詞語順序位置。

9.建立一個詞典[AIex,wants,to,go,pIay,footbaII,shopping],下面的句子:AI

exwantstogotopIayfootbaII可以用向量表示為()。

A、[1,1,2,1,1,1,0]

B、[1,1,2,1,1,11

C、[1,1,1,1,1,1,0]

D、[1,1,1,1,1,1,1]

答案:A

解析:向量中每個元素代表該詞在句中出現(xiàn)的次數(shù),比如to在句中出現(xiàn)兩次,所

以第3個元素應(yīng)為2。

10.()是指給目標(biāo)用戶產(chǎn)生的錯誤或不準(zhǔn)確的視覺感知,而這種感知與數(shù)據(jù)可視

化者的意圖或數(shù)據(jù)本身的真實情況不一致。

A、視覺假象

B、視覺認(rèn)知

C、視覺感知

D、數(shù)據(jù)可視

答案:A

解析:視覺假象(VisualIIlusion)是數(shù)據(jù)可視化工作中不可忽略的特殊問題。視

覺假象是指給目標(biāo)用戶產(chǎn)生的錯誤或不準(zhǔn)確的視覺感知,而這種感知與數(shù)據(jù)可視

化者的意圖或數(shù)據(jù)本身的真實情況不一致。視

11.以下濾波器對圖像中的椒鹽噪聲濾波效果最好的是()。

A、中值濾波

B、均值濾波

C、最大值濾波

D、最小值濾波

答案:A

解析:中值濾波對圖像椒鹽噪聲的濾波效果最好。

12.以下哪種方法不能成功創(chuàng)建一個數(shù)組()。

A、a=np.array([1,2,3,4])

B、b=np.zeros((3,4))

Gc=np.ones(1,2,3,4)

D、d=np.arange(10,30,5)

答案:c

解析:onesO函數(shù)必須傳入一個數(shù)組類型的維度參數(shù)所表示的序列,如列表或元

組,所以C無法成功創(chuàng)建數(shù)組,改為np.ones((1,2,3,4))就可以。

13.MapReduce中,Shuffle操作的作用是()。

A、合并

B、排序

C、降維

D、分區(qū)

答案:B

解析:Shuffle—確保每個reduce0函數(shù)的輸入都按鍵排序。

14.一個MapReduce程序中的MapTask的個數(shù)由什么決定0

A、輸入的總文件數(shù)

B、客戶端程序設(shè)置的mapTask的個數(shù)

C、FiIeInputFormat.getSpIits(JobContextjob)計算出的邏輯切片的數(shù)量

D、輸入的總文件大小/數(shù)據(jù)塊大小

答案:C

解析:MapReduce編程模型中的mapTask的并行度決定機(jī)制是由FilelnputForm

at.getSpIits(JobContextjob)決定的。該方法的返回值是List<InputSpIit>sp

Iits,這個結(jié)果集合中的每個InputSpIit就是一個邏輯輸入切片,每個邏輯輸入

切片在默認(rèn)情況下是會要啟動一個MapTask任務(wù)進(jìn)行計算的,因此C對。

15.對于SVM分類算法,待分樣本集中的大部分樣本不是支持向量,下列說法正確

的是()。

A、需要將這些樣本全部強(qiáng)制轉(zhuǎn)換為支持向量

B、需要將這些樣本中可以轉(zhuǎn)化的樣本轉(zhuǎn)換為支持向量,不能轉(zhuǎn)換的直接刪除

C、移去或者減少這些樣本對分類結(jié)果沒有影響

D、以上都不對

答案:C

解析:支持向量機(jī)的一個重要性質(zhì):訓(xùn)練完成后,大部分的訓(xùn)練樣本都不需保留,

最終模型僅與支持向量有關(guān)。

16.下列對于sigmoid函數(shù)的說法,錯誤的是()

A、存在梯度爆炸的問題

B、不是關(guān)于原點(diǎn)對稱

G計算exp比較耗時

D、存在梯度消失的問題

答案:A

解析:對于sigmoid函數(shù),S型函數(shù)圖像向兩邊的斜率逼近0,因此隨著網(wǎng)絡(luò)層增

加,梯度消失比梯度爆炸更容易發(fā)生的多。

17.決策樹模型的規(guī)模應(yīng)當(dāng)是()。

A、越復(fù)雜越好

B、越簡單越好

C、適當(dāng)限制其復(fù)雜程度

D、盡可能利用所有特征

答案:C

解析:決策樹模型的規(guī)模復(fù)雜可能產(chǎn)生過擬合,因此并非越復(fù)雜做好,應(yīng)適當(dāng)限制

其復(fù)雜程度。

18.在Windows系統(tǒng)中,關(guān)閉Python終端會話常用快捷鍵是()。

A、CtrI+C

B、Ctrl+D

C、Ctrl+E

D、Ctrl+Z

答案:D

解析:在Windows系統(tǒng)中,關(guān)閉Python終端會話常用快捷鍵是CtrI+Z。

19.數(shù)據(jù)可視化的本質(zhì)是()。

A、將數(shù)據(jù)轉(zhuǎn)換為知識

B、將知識轉(zhuǎn)換為數(shù)據(jù)

C、將數(shù)據(jù)轉(zhuǎn)換為信息

D、將信息轉(zhuǎn)換為智慧

答案:A

解析:可視化分析學(xué)模型認(rèn)為,數(shù)據(jù)可視化的本質(zhì)是將數(shù)據(jù)轉(zhuǎn)換為知識,而不能僅

僅停留在數(shù)據(jù)的可視化呈現(xiàn)層次之上,并提出從數(shù)據(jù)到知識的轉(zhuǎn)換途徑有兩個:

一是可視化分析,另一個是自動化建模。

20.在HDFS中()是文件系統(tǒng)的工作節(jié)點(diǎn)。

A、DataNode

B、Client

C、NameNode

DvFlume

答案:A

解析:數(shù)據(jù)節(jié)點(diǎn)(DataNode)是分布式文件系統(tǒng)HDFS的工作節(jié)點(diǎn),負(fù)責(zé)數(shù)據(jù)的存儲

和讀取,會根據(jù)客戶端或者是名稱節(jié)點(diǎn)的調(diào)度來進(jìn)行數(shù)據(jù)的存儲和檢索,并且向

名稱節(jié)點(diǎn)定期發(fā)送自己所存儲的塊的列表。每個數(shù)據(jù)節(jié)點(diǎn)中的數(shù)據(jù)會被保存在各

自節(jié)點(diǎn)本地Linux文件系統(tǒng)中。

21.圖像中虛假輪廓的出現(xiàn)就其本質(zhì)而言是()。

A、圖像的灰度級數(shù)不夠多而造成的

B、圖像的空間分辨率不夠高而造成的

C、圖像的灰度級數(shù)過多而造成的

D、圖像的空間分辨率過高而造成的

答案:A

解析:圖像中的虛假輪廓最易在平滑區(qū)域內(nèi)產(chǎn)生。平滑區(qū)域內(nèi)灰度應(yīng)緩慢變化,

但當(dāng)圖像的灰度級數(shù)不夠多時會產(chǎn)生階躍。所以圖像中虛假輪廓的出現(xiàn)就其本質(zhì)

而言是圖像的灰度級數(shù)不夠多而造成的,選Ao

22.對于數(shù)據(jù)3,3,2,3,6,3,10,3,6,3,2.①這組數(shù)據(jù)的眾數(shù)是3;②這組數(shù)據(jù)的眾

數(shù)與中位數(shù)的數(shù)值不相等;③這組數(shù)據(jù)的中位數(shù)與平均數(shù)的數(shù)值不相等;④這組

數(shù)據(jù)的平均數(shù)與眾數(shù)的數(shù)值相等.其中正確結(jié)論的個數(shù)為()。

A、1

B、2

C、3

D、4

答案:B

解析:眾數(shù)是指一組中出現(xiàn)次數(shù)最多的數(shù),中位數(shù)是按順序排列的一組數(shù)據(jù)中居

于中間位置的數(shù),平均值是各數(shù)值加總求和再除以總的個數(shù)。此題中眾數(shù)為3,中

位數(shù)為3,平均值為4,故①和③正確。

23.文本信息往往包含客觀事實和主觀情感,對于文本的情感分析主要是識別文

章中的主觀類詞語,其中()不適用于情感分析。

A、表達(dá)觀點(diǎn)的關(guān)鍵詞

B、表達(dá)程度的關(guān)鍵詞

C、表達(dá)情緒的關(guān)鍵詞

D、表達(dá)客觀事實的關(guān)鍵詞

答案:D

解析:D中表達(dá)客觀事實的關(guān)鍵詞是對事物的客觀性描述,不帶有感情色彩和情

感傾向,即為客觀性文本,不適用于情感分析。而主觀性文本則是作者對各種事物

的看法或想法,帶有作者的喜好厭惡等情感傾向,如ABC中表觀點(diǎn)、程度和情緒的

關(guān)鍵詞都是帶有情感傾向的主觀性文本,適用于情感分析。

24.scipy.stats,moment函數(shù)的作用是()。

A、隨機(jī)變量的概率密度函數(shù)

B、隨機(jī)變量的累積分布函數(shù)

C、隨機(jī)變量的生存函數(shù)

D、計算分布的非中心矩

答案:D

25.以下哪些算法是基于規(guī)則的分類器()。

A、C4.5

B、KNN

C、NaiveBayes

DvANN

答案:A

解析:基于規(guī)則的分類器有決策樹、隨機(jī)森林、Aprior。

26.scipy.stats模塊中對隨機(jī)變量進(jìn)行隨機(jī)取值的函數(shù)是()。

A、rvs

B、pdf

Gcdf

D、sf

答案:A

解析:stats模塊中每個分布都rvs函數(shù),對隨機(jī)變量取值。

27.以下不屬于大數(shù)據(jù)重要意義的是()。

A、大數(shù)據(jù)成為推動經(jīng)濟(jì)轉(zhuǎn)型發(fā)展的新動力

B、大數(shù)據(jù)成為重塑國家競爭優(yōu)勢的新機(jī)遇

C、大數(shù)據(jù)成為提升政府治理能力的新途徑

D、大數(shù)據(jù)會增加經(jīng)濟(jì)發(fā)展的成本

答案:D

解析:大數(shù)據(jù)可以促進(jìn)經(jīng)濟(jì)的發(fā)展,催生新的業(yè)態(tài),在輔助商業(yè)的決策'降低運(yùn)營

成本、精準(zhǔn)市場的營銷方面都能發(fā)揮作用,進(jìn)一步提升企業(yè)競爭力。

28.Spark那個組件用于支持實時計算需求()。

AxSparkSQL

B、SparkStreaming

C、SparkGraphX

D、SparkMLLib

答案:B

解析:SparkStreaming用于實時處理。

29.Mapreduce適用于()

A、任意應(yīng)用程序

B、任意可在windowsservet2008上運(yùn)行的程序

C、可以串行處理的應(yīng)用程序

D、可以并行處理的應(yīng)用程序

答案:D

解析:Mapreduce適用于并行處理的應(yīng)用程序

30.使用Numpy讀取csv文件應(yīng)使用以下哪個函數(shù)()。

A、save()

B、read_csv()

CxIoadtxt()

D、open()

答案:C

解析:Numpy中設(shè)有讀取csv文件的函數(shù),使用np.loadtxt可讀取csv文件。

31.讀代碼,請寫出程序正確的答案()。

#!/usr/bin/envpython3

N=100

Sum=0

Counter=1

WhiIecounter<=n:

Sum+counter

Counter+=1

Print("1到%(1之和為:%d"%(n,sum))

A、結(jié)果:1到100之和為:5000

B、結(jié)果:1到100之和為:0

G結(jié)果:1到100之和為:2050

D、結(jié)果:1到100之和為:5020

答案:B

解析:循環(huán)中沒有給sum賦值,故sum=0

32.以下哪個參數(shù)可以使數(shù)組計算沿指定軸進(jìn)行應(yīng)用操作()。

Axaxis

B、inplace

Cxdata

D、dtype

答案:A

解析:通過指定axis參數(shù),可以沿數(shù)組的指定軸應(yīng)用操作。

33.PageRank是一^t'函數(shù),它對Web中的每個網(wǎng)頁賦予一個實數(shù)值。它的意圖在

于網(wǎng)頁的PageRank越高,那么它就()。

Av相關(guān)性越異]

B、越不重要

C、相關(guān)性越低

D、越重要

答案:D

解析:PageRank認(rèn)為,如果A頁面有一個鏈接指向B頁面,那就可以看作是A頁

面對B頁面的一種信任或推薦。所以,如果一個頁面的反向鏈接越多,再根據(jù)這些

鏈接的價值加權(quán)越高,那搜索引擎就會判斷這樣的頁面更為重要。

34.機(jī)器學(xué)習(xí)中L1正則化和L2正則化的區(qū)別是()。

A、使用L1可以得到稀疏的權(quán)值,使用L2可以得到平滑的權(quán)值

B、使用L1可以得到平滑的權(quán)值,使用L2可以得到平滑的權(quán)值

C、使用L1可以得到平滑的權(quán)值,使用L2可以得到稀疏的權(quán)值

D、使用L1可以得到稀疏的權(quán)值,使用L2可以得到稀疏的權(quán)值

答案:A

解析:使用L1可以得到稀疏的權(quán)值,使用L2可以得到平滑的權(quán)值。

35.下面哪個操作是窄依賴()

A、join

B、filter

C、group

Dxsort

答案:B

解析:spark中常見的窄依賴操作包括map,filer,union,sample等,寬依賴的操

作包括reducebykey,groupbykey,joinWo

36.數(shù)據(jù)科學(xué)中,人們開始注意到傳統(tǒng)數(shù)據(jù)處理方式中普遍存在的“信息丟失”現(xiàn)

象,進(jìn)而數(shù)據(jù)處理范式從()轉(zhuǎn)向()。

A、產(chǎn)品在先,數(shù)據(jù)在后范式;數(shù)據(jù)在先,產(chǎn)品在后范式或無模式

B、模式在先,產(chǎn)品在后范式;產(chǎn)品在先,模式在后范式或無模式

C、數(shù)據(jù)在先,模式在后范式或無模式;模式在先,數(shù)據(jù)在后范式

D、模式在先,數(shù)據(jù)在后范式;數(shù)據(jù)在先,模式在后范式或無模式

答案:D

解析:傳統(tǒng)關(guān)系數(shù)據(jù)庫中,先定義模式,然后嚴(yán)格按照模式要求存儲數(shù)據(jù);當(dāng)需要

調(diào)整模式時,不僅需要數(shù)據(jù)結(jié)構(gòu),而且還需要修改上層應(yīng)用程序。然而,NoSQL技

術(shù)則采用了非常簡單的Key-VaIue等模式在后(SchemaLater)和無模式(SchemaI

ess)的方式提升了數(shù)據(jù)管理系統(tǒng)的自適應(yīng)能力。當(dāng)然,模式在后(SchemaLater)

和無模式(Schemaless)也會帶來新問題,如降低了數(shù)據(jù)管理系統(tǒng)的數(shù)據(jù)處理能力。

37.假如我們使用非線性可分的SVM目標(biāo)函數(shù)作為最優(yōu)化對象,我們怎么保證模

型線性可分()。

A、設(shè)C=1

B、設(shè)C=0

C\設(shè)c=無窮大

D、以上答案都不正確

答案:c

解析:C無窮大保證了所有的線性不可分都是可以忍受的。

38.假定你現(xiàn)在訓(xùn)練了一個線性SVM并推斷出這個模型出現(xiàn)了欠擬合現(xiàn)象,在下

一次訓(xùn)練時,應(yīng)該采取下列什么措施()

A、增加數(shù)據(jù)點(diǎn)

B、減少數(shù)據(jù)點(diǎn)

C、增加特征

D、減少特征

答案:C

解析:欠擬合是指模型擬合程度不高,數(shù)據(jù)距離擬合曲線較遠(yuǎn),或指模型沒有很好

地捕捉到數(shù)據(jù)特征,不能夠很好地擬合數(shù)據(jù)??赏ㄟ^增加特征解決。

39.兩個變量相關(guān),它們的相關(guān)系數(shù)r可能為0?這句話是否正確()

A、正確

B、錯誤

答案:A

解析:Pearson相關(guān)系數(shù)r=0,這表示兩個變量間不存在線性相關(guān)關(guān)系。

40.一幅數(shù)字圖像是()。

A、一個觀測系統(tǒng)

B、一個由許多像素排列而成的實體

C、一個2-D數(shù)組中的元素

D、一個3-D空間中的場景

答案:C

解析:數(shù)字圖像,又稱數(shù)碼圖像或數(shù)位圖像,是二維圖像用有限數(shù)字?jǐn)?shù)值像素的表

7J\o

41.執(zhí)行以下代碼段

Print(booI('False'))

Print(booI())

時輸出為0。

A、TrueTrue

B、TrueFaIse

CxFaIseTrue

DxFaIseFaIse

答案:B

解析:這里'False'只是字符串

42.以下說法正確的是:()。1.一個機(jī)器學(xué)習(xí)模型,如果有較高準(zhǔn)確率,總是說明這

個分類器是好的2.如果增加模型復(fù)雜度,那么模型的測試錯誤率總是會降低3.

如果增加模型復(fù)雜度,那么模型的訓(xùn)練錯誤率總是會降低

A、1

B、2

C、3

D、1and3

答案:C

解析:如果增加模型復(fù)雜度,那么模型的測試錯誤率總是會降低,訓(xùn)練錯誤率可能

降低,也可能增高。

43.從網(wǎng)絡(luò)的原理上來看,結(jié)構(gòu)最復(fù)雜的神經(jīng)網(wǎng)絡(luò)是()。

A、卷積神經(jīng)網(wǎng)絡(luò)

B、長短時記憶神經(jīng)網(wǎng)絡(luò)

C、GRU

D、BP神經(jīng)網(wǎng)絡(luò)

答案:B

解析:從網(wǎng)絡(luò)的原理上來看,結(jié)構(gòu)最復(fù)雜的神經(jīng)網(wǎng)絡(luò)是LSTMo

44.txt=open(fiIename)返回的是()。

A、變量

B、常數(shù)

C、文件內(nèi)容

D、文件對象

答案:D

解析:txt=open(fiIename)返回的是文件對象。

45.pipinstaIIscipy==1.7與pipinstaIIscipy兩者的區(qū)別是()。

A、兩者作用一樣

B、前者安裝指定版本的包,后者安裝最新版本的包

C、前者安裝指定版本的包,后者安裝隨機(jī)版本的包

D、以上答案都不正確

答案:B

解析:pipinstallscipy=1.7與pipinstalIscipy兩者的區(qū)別是前者安裝指定

版本的包,后者安裝最新版本的包。

46.若arr=np.array([[1,2,3,],[4,5,6,],[7,8,9,]]),則arr[:2,1:]的輸出為

()o

Av([[2,3],[5,6]])

B、([⑴[6]])

Cv([[5,6],[8,9]])

D、([[1,2],[4,5]])

答案:A

解析:索引時如果不指定冒號旁邊的數(shù)值,則默認(rèn)從開頭開始或至結(jié)尾結(jié)束。

47.以下不能創(chuàng)建一個字典的語句是()。

A、dict1={}

B、dict2={3:5}

Gdict3={[1,2,3]:"uestc”}

D、dict4={(1,2,3):"uestc”}

答案:c

解析:字典key不可以是可變類型

48.LSTM中,(_)的作用是確定哪些新的信息留在細(xì)胞狀態(tài)中,并更新細(xì)胞狀態(tài)。

A、輸入門

B、遺忘門

G輸出門

D、更新門

答案:A

解析:LSTM中,輸入門的作用是確定哪些新的信息留在細(xì)胞狀態(tài)中,并更新細(xì)胞

狀態(tài);遺忘門決定我們會從細(xì)胞狀態(tài)中丟棄什么信息;輸出門確定輸出。

49.Matplotiib的核心是面向()。

A、過程

B、對象

C、結(jié)果

D、服務(wù)

答案:B

解析:Matplotlib的核心是面向?qū)ο蟮摹H绻枰嗫刂坪妥远x圖,我們建

議直接使用對象。

50.正確導(dǎo)入日期模塊的語句()。

A、importdate

B、importdatetime

C、importtime

D、importdate_time

答案:B

解析:導(dǎo)入日期模塊的語句是importdatetime

51.診斷性分析主要采取的分析方法是()和()。

A、關(guān)聯(lián)分析和因果分析法

B、關(guān)聯(lián)分析和分類分析法

C、關(guān)聯(lián)分析和運(yùn)籌學(xué)

D、因果分析和分類分析法

答案:A

解析:診斷性分析主要關(guān)注過去,回答為什么發(fā)生,主要采用關(guān)聯(lián)分析法和因果分

析法。

52.為了降低MapReduce兩個階段之間的數(shù)據(jù)傳遞量,一般采用()函數(shù)對map階段

的輸出進(jìn)行處理。

A、sort()

B、biner()

C、join()

D、gather()

答案:B

解析:為了降低數(shù)據(jù)傳遞量,采用binerO函數(shù)對map()函數(shù)的數(shù)據(jù)結(jié)果進(jìn)行合并

處理。

53.IDLE環(huán)境的退出命令是()。

A、exit()

B、回車鍵

C、cIose()

D、esc()

答案:A

解析:IDLE使用exit。退出環(huán)境。

54.反轉(zhuǎn)二維數(shù)組arr的行arr=np.arange(9).reshape(3,3)

Avarr[::-1]

B、arr[::-2]

C、arr[::1]

D、arr[::0]

答案:A

解析:::-1進(jìn)行反轉(zhuǎn)。

55.要彌補(bǔ)缺失值,可以使用均值,中位數(shù),眾數(shù)等等,preprocessing模塊中那個

方法可以實現(xiàn)()。

Axpreprocessing.ImputerO

B、preprocessing.PoIynomiaIFeatures()

C、preprocessing.FunctionTransformer()

D、preprocessing.Binarizer()

答案:A

解析:要彌補(bǔ)缺失值,可以使用均值,中位數(shù),眾數(shù)等等,preprocessing中Imput

er方法可以實現(xiàn)。

56.在當(dāng)前圖形上添加一個子圖需要用到哪個方法0。

A、pypIot.stackpIot()

B、pyplot.suptitIe()

Cxpyplot.subpIot()

D、pyplot.imshowO

答案:c

解析:matplotIib.pyplot.subplot()的作用是在當(dāng)前圖形上添加一個子圖。

57.下面哪個是滿足期望輸出的代碼()。

Arr=np.array([0,1,2,3,4,5,6,7,8,9])

期望輸出:array([1,3,5,7,9])

A、arr%2~1

B、arr[arr%2-1]

C、arr[arr/2-1]

D、arr[arr//2==1]

答案:B

解析:題中的結(jié)果是選取了原數(shù)組的奇數(shù),先使用數(shù)組進(jìn)行邏輯判斷得到一個邏

輯數(shù)組,然后以其作為索引選取數(shù)據(jù)。

58.A=np.array([[1,1],[0,1]]),B=np.array([[2,0],[3,4]]),A*B的結(jié)果是()。

A、[[2,0],[0,4]]

B、[[5,4].[3,4]]

C、[[3,4],[5,4]]

D、無法計算

答案:A

解析:Numpy數(shù)組的乘法計算分為兩種:一種是矩陣正常相乘,代碼實現(xiàn)為AB或A.

dot(B),一種是每個元素對應(yīng)相乘,表現(xiàn)方式為A*B,本題所問的是后一種。

59.下列哪種算法可以用神經(jīng)網(wǎng)絡(luò)構(gòu)建?(_)1.K-NN最近鄰算法2.線性回歸3.邏

輯回歸

A、1and2

B、2and3

Cx1,2and3

D、Noneoftheabove

答案:B

解析:KNN是關(guān)于距離的學(xué)習(xí)算法,沒有任何參數(shù),所以無法用神經(jīng)網(wǎng)絡(luò)構(gòu)建。

60.matplotlib中的調(diào)用堆積折線圖的函數(shù)是什么()。

A、step()

B、stackpIot0

C、pIuspIot()

D、hist()

答案:B

解析:stackplot用于繪制堆疊折線圖。

61.信息增益對可取值數(shù)目()的屬性有所偏好,增益率對可取值數(shù)目()的屬性有

所偏好。

A、較高,較高

B、較高,較低

G較低,較高

D、較低,較低

答案:B

解析:信息增益準(zhǔn)則對可取值數(shù)目較多的屬性有所偏好,增益率對可取值數(shù)目較

少的屬性有所偏好。

62.數(shù)組分割使用以下哪個函數(shù)()。

A、vstack()

B、hstack()

C、split()

D、view()

答案:c

解析:np.split()的作用是把一個數(shù)組從左到右按順序切分。

63.關(guān)于基本數(shù)據(jù)的元數(shù)據(jù)是指()。

A、基本元數(shù)據(jù)與數(shù)據(jù)源,數(shù)據(jù)倉庫,數(shù)據(jù)集市和應(yīng)用程序等結(jié)構(gòu)相關(guān)的信息

B、基本元數(shù)據(jù)包括與企業(yè)相關(guān)的管理方面的數(shù)據(jù)和信息

C、基本元數(shù)據(jù)包括日志文件和簡歷執(zhí)行處理的時序調(diào)度信息

D、基本元數(shù)據(jù)包括關(guān)于裝載和更新處理,分析處理以及管理方面的信息

答案:D

解析:元數(shù)據(jù)(Metadata),又稱中介數(shù)據(jù)、中繼數(shù)據(jù),為描述數(shù)據(jù)的數(shù)據(jù)(dataab

outdata)。

64.標(biāo)準(zhǔn)BP算法的目標(biāo)是使訓(xùn)練集上的()為最小。

A、累積方差

B、累積誤差

C、累積協(xié)方差

D、累積偏差

答案:B

解析:標(biāo)準(zhǔn)BP算法的目標(biāo)是使訓(xùn)練集上的累積誤差最小。

65.假負(fù)率是指()。

A、正樣本預(yù)測結(jié)果數(shù)/正樣本實際數(shù)

B、被預(yù)測為負(fù)的正樣本結(jié)果數(shù)/正樣本實際數(shù)

C、被預(yù)測為正的負(fù)樣本結(jié)果數(shù)/負(fù)樣本實際數(shù)

D、負(fù)樣本預(yù)測結(jié)果數(shù)/負(fù)樣本實際數(shù)

答案:B

解析:假負(fù)率是指被預(yù)測為負(fù)的正樣本結(jié)果數(shù)/正樣本實際數(shù)。

66.bootstrap數(shù)據(jù)是什么意思()。

A、有放回地從總共M個特征中抽樣m個特征

B、無放回地從總共M個特征中抽樣m個特征

C、有放回地從總共N個樣本中抽樣n個樣本

D、無放回地從總共N個樣本中抽樣n個樣本

答案:C

解析:自助來樣法(bootstrapsampling),給定包含N個樣本的數(shù)據(jù)集,我們先隨

機(jī)取出一個樣本放入采樣集中,再把該樣本放回初始數(shù)據(jù)集,使得下次采樣時該

樣本仍有可能被選中,這樣經(jīng)過n次隨機(jī)采樣操作,我們得到含n個樣本的采樣集。

67.在編寫程序時經(jīng)常要對某一個條件進(jìn)行判斷,“條件”只有“成立”或“不成

立”兩種結(jié)果。成立用“True”表示,不成立用“False”表示。下列關(guān)系表達(dá)式

中,結(jié)果為“True”的是()。

A、2>5

B、3>=3

C、1!=1

D、6==5

答案:B

解析:>=可表示為>或=。

68.劃分聚類算法是一種簡單的較為基本的重要聚類方法。它的主要思想是通過

將數(shù)據(jù)點(diǎn)集分為()個劃分,并使用重復(fù)的控制策略使某個準(zhǔn)則最優(yōu)化,以達(dá)到最

終的結(jié)果

A、D

B、K

C、E

D、F

答案:B

解析:劃分聚類算法K-Means將數(shù)據(jù)點(diǎn)集分為K個子集。

69.以下代碼的輸出結(jié)果為()。

Importnumpyasnp

A=np.array([0.25,1.33,1,100])

Print(np.reciprocaI(a))

A、[-10.-9.-8.]

B、[-7.-6.-5.]

G[0.251.331.100.]

D、[4.0.75187971.0.01]

答案:D

解析:np.reciprocal。取倒數(shù)。

70.有N個樣本,一般用于訓(xùn)練,一般用于測試。若增大N值,則訓(xùn)練誤差和測試誤

差之間的差距會如何變化()。

A、增大

B、減小

C、無法確定

D、無明顯變化

答案:B

解析:增加數(shù)據(jù),能夠有效減小過擬合,減小訓(xùn)I練樣本誤差和測試樣本誤差之間的

差距。

71.Numpy簡單介紹,不正確的是()。

A、Numpy(NumericaIPython)是Python語言的一個擴(kuò)展程序庫

B、支持大量的維度數(shù)組與矩陣運(yùn)算

C、針對數(shù)組運(yùn)算提供大量的數(shù)學(xué)函數(shù)庫

D、Numpy不開放源代碼

答案:D

解析:Numpy是開源代碼庫。

72.當(dāng)相關(guān)系數(shù)r=0時,說明()。

A、現(xiàn)象之間相關(guān)程度較小

B、現(xiàn)象之間完全相關(guān)

C、現(xiàn)象之間無直線相關(guān)

D、現(xiàn)象之間完全無關(guān)

答案:C

解析:相關(guān)系數(shù)r刻畫了兩個變量之間的相關(guān)程度,|r|小于等于1,|r|越接近1,

則表示兩個變量相關(guān)度越高,反之相關(guān)度越低。相關(guān)系數(shù)片0只能說明線性無關(guān),

不能說明完全無關(guān)。

73.獲取兩個PythonNumpy數(shù)組之間的公共項()。

A=np.array([1,2,3,2,3,4,3,4,5,6])

B=np.array([7,2,10,2,7,4,9,4,9,8])

期望輸出:array([2,4])

A、intersectld(a,b)

B、ersectld(a,b)

C、erset(a,b)

D、ersectld(a)

答案:B

解析:intersect1d()返回二者的交集并排序。

74.大數(shù)據(jù)中的小數(shù)據(jù)可能缺失、冗余、存在垃圾數(shù)據(jù)不影響大數(shù)據(jù)的可信數(shù)據(jù),

體現(xiàn)大數(shù)據(jù)“涌現(xiàn)”的()表現(xiàn)形式。

A、價值涌現(xiàn)

B、隱私涌現(xiàn)

C、質(zhì)量涌現(xiàn)

D、安全涌現(xiàn)

答案:C

解析:大數(shù)據(jù)的“質(zhì)量涌現(xiàn)”是指大數(shù)據(jù)中的成員小數(shù)據(jù)可能有質(zhì)量問題(不可

信的數(shù)據(jù)),如缺失、冗余、垃圾數(shù)據(jù)的存在,但不影響大數(shù)據(jù)的質(zhì)量(可信的數(shù)據(jù))。

75.以下不屬于Python內(nèi)置模塊的是()。

Axsys

B、json

C、os

Dximage

答案:D

解析:image屬于第三方庫。

76.Nu即y的數(shù)組中Ndarray對象屬性描述錯誤的是()。

A、Ndarray.dtypeNdarray對象中每個元素的大小,以字節(jié)為單位

B、Ndarray.fIagsNdarray對象的內(nèi)存信息

GNdarray.realNdarray元素的實部

D、Ndarray.imagNdarray元素的虛部

答案:A

解析:dtype是數(shù)組元素的類型。

77.當(dāng)圖像通過信道傳輸時,噪聲一般與()無關(guān)。

A、信道傳輸?shù)馁|(zhì)量

B、出現(xiàn)的圖像信號

C、是否有中轉(zhuǎn)信道的過程

D、圖像在信道前后的處理

答案:B

解析:當(dāng)圖像通過信道傳輸時,噪聲一般與出現(xiàn)的圖像信號無關(guān),這種獨(dú)立于信號

的退化被稱為加性噪聲。信道傳輸質(zhì)量'中轉(zhuǎn)信道都會影響圖像質(zhì)量,而圖像在

信道前后的預(yù)處理和后處理也會產(chǎn)生噪聲。

78.在留出法、交叉驗證法和自助法三種評估方法中,()更適用于數(shù)據(jù)集較小、難

以劃分訓(xùn)練集和測試集的情況。

A、留出法

B、交叉驗證法

C、自助法

D、留一法

答案:C

解析:自助法更適用于數(shù)據(jù)集較小、難以劃分訓(xùn)練集和測試集的情況。

79.在數(shù)據(jù)科學(xué)中,通??梢圆捎茫ǎ┓椒ㄓ行П苊鈹?shù)據(jù)加工和數(shù)據(jù)備份的偏見。

A、A/B測試

B、訓(xùn)練集和測試集的劃分

C、測試集和驗證集的劃分

D、圖靈測試

答案:A

解析:A/B測試是一種對比試驗,準(zhǔn)確說是一種分離式組間試驗,在試驗過程中,

我們從總體中隨機(jī)抽取一些樣本進(jìn)行數(shù)據(jù)統(tǒng)計,進(jìn)而得出對總體參數(shù)的多個評估。

A/B測試有效避免數(shù)據(jù)加工和準(zhǔn)備偏見以及算法/模型選擇偏見具有重要借鑒意

義。

80.下列不屬于深度學(xué)習(xí)內(nèi)容的是(_)。

A、深度置信網(wǎng)絡(luò)

B、受限玻爾茲曼機(jī)

C、卷積神經(jīng)網(wǎng)絡(luò)

D、貝葉斯學(xué)習(xí)

答案:D

解析:貝葉斯學(xué)習(xí)屬于傳統(tǒng)的機(jī)器學(xué)習(xí)算法。

81.關(guān)于數(shù)據(jù)分析,下列說法正確的是()。

A、描述性分析和預(yù)測性分析是對診斷性分析的基礎(chǔ)

B、斷性分析分析是對規(guī)范性分析的進(jìn)一步理解

C、預(yù)測性分析是規(guī)范性分析的基礎(chǔ)

D、規(guī)范性分析是數(shù)據(jù)分析的最高階段,可以直接產(chǎn)生產(chǎn)業(yè)價值

答案:C

解析:在數(shù)據(jù)分析中,流程分為以下方式:描述性分析、診斷性分析、預(yù)測性分析'

規(guī)范性分析。

82.增加卷積核的大小對于改進(jìn)卷積神經(jīng)網(wǎng)絡(luò)的效果是必要的嗎()

A、是的,增加卷積核尺寸一定能提高性能

B、不是,增加核函數(shù)的大小不一定會提高性能

答案:B

解析:增加核函數(shù)的大小不一定會提高性能。這個問題在很大程度上取決于數(shù)據(jù)

集。

83.關(guān)于Python包,以下說法正確的是()。

A、利用pip包管理器更新已安裝包的代碼是:pipupdate包名

B、單獨(dú)導(dǎo)入包名即可導(dǎo)入包中所包含的所有子模塊

C、下載安裝、更新、查看、移除包等行為可以在命令行中進(jìn)行,但不可以在Jup

yternotebook中進(jìn)行

D、下載安裝'更新、查看、移除包等行為既可以用pip工具,也可以用conda

工具

答案:D

解析:pip更新包指令為pipinstalI—upgradePackage;單獨(dú)導(dǎo)入包之后訪問子

模塊需要用“模塊.子模塊”方式;在Jupyter中也可以通過指令管理包。

84.三維以上數(shù)組是以()的形式輸出的。

A、按行輸出

B、按矩陣輸出

C、按矩陣列表輸出

D、按字符串輸出

答案:C

解析:一維數(shù)組輸出為行,二維數(shù)組輸出為矩陣,三維數(shù)組輸出位矩陣列表。

85.從連續(xù)圖像到數(shù)字圖像需要()。

A、圖像灰度級設(shè)定

B、圖像分辨率設(shè)定

C、確定圖像的存儲空間

D、采樣和量化

答案:D

解析:數(shù)字圖像又稱離散圖像,連續(xù)圖像到數(shù)字圖像需要離散化,離散化是通過采

樣和量化實現(xiàn)的。

86.有數(shù)組arr=Numpy.array([1,2,3,4]),執(zhí)行arr.dtype后輸出結(jié)果為()。

A、int32

B、int64

CxfIoat32

D、fIoat64

答案:A

解析:從列表中創(chuàng)建時,Numpy會自動判斷元素的類型從而確定數(shù)組的類型,此處

都為整數(shù)則確定為int32,如果將元素1改為1.0,則會確定為float64o

87.以下分割方法中不屬于區(qū)域算法的是()。

A、分裂合并

B、閾值分割

C、區(qū)域生長

D、邊緣檢測

答案:D

解析:邊緣檢測算法是標(biāo)識數(shù)字圖像中亮度變化明顯的點(diǎn),不屬于區(qū)域算法發(fā)范

疇。

88.假設(shè)我們已經(jīng)在ImageNet數(shù)據(jù)集(物體識別)上訓(xùn)練好了一個卷積神經(jīng)網(wǎng)絡(luò)。

然后給這張卷積神經(jīng)網(wǎng)絡(luò)輸入一張全白的圖片。對于這個輸入的輸出結(jié)果為任何

種類的物體的可能性都是一樣的,對嗎()。

A、對的

B、不知道

C、看情況

D、不對

答案:D

解析:不對,神經(jīng)網(wǎng)絡(luò)對于未知的數(shù)據(jù)不是均勻預(yù)測的,會對莫一種或多種類別存

在偏向。

89.以下哪個不屬于數(shù)據(jù)治理的內(nèi)容。

A、理解自己的數(shù)據(jù)

B、行為規(guī)范的制定

C、崗位職責(zé)的定義

D、獲得更多的數(shù)據(jù)

答案:D

解析:獲得更多的數(shù)據(jù)不屬于數(shù)據(jù)治理。

90.Python安裝擴(kuò)展庫常用的是()工具。

A、pyinstaII

B、pip

C、pop

Dxpost

答案:B

91.數(shù)據(jù)故事話的“情景'不包括0。

A、還原情景

B、統(tǒng)計情景

C、移植情景

D、虛構(gòu)情景

答案:B

解析:“數(shù)據(jù)的故事化描述(Storytelling)”是指為了提升數(shù)據(jù)的可理解性、可

記憶性及可體驗性,將“數(shù)據(jù)”還原成關(guān)聯(lián)至特定的“情景”的過程。可見,數(shù)據(jù)

故事化也是數(shù)據(jù)轉(zhuǎn)換的表現(xiàn)形式之一,其本質(zhì)是以“故事講述”的方式展現(xiàn)“數(shù)

據(jù)的內(nèi)容”。數(shù)據(jù)故事化中的“情景”,可以是:1)還原情景:還原數(shù)據(jù)所計量和

記錄信息時的“原始情景”;2)移植情景:并非對應(yīng)信息的原始情景,而是將數(shù)據(jù)

移植到另一個真實發(fā)生的情景(如目標(biāo)用戶比較熟悉的情景)之中。3)虛構(gòu)情景:

數(shù)據(jù)的故事化描述中所選擇的情景并非為真實存在的情景,而是根據(jù)講述人的想

象力設(shè)計出來的“虛構(gòu)情景”。

92.Hadoop生態(tài)系統(tǒng)中,HBase是一種0。

A、分布式文件系統(tǒng)

B、數(shù)據(jù)倉庫

C、實時分布式數(shù)據(jù)庫

D、分布式計算系統(tǒng)

答案:C

解析:HBase是一個面向列的實時分布式數(shù)據(jù)庫。

93.以下代碼的輸出結(jié)果為()。

Importnumpyasnp

A二np.arange(9)

B=np.split(a,3)

Print(b)

A、[012345678]

B、[array([0,1,2]),array([3,4,5]),array([6,7,8])]

G[array([0,1,2,3]),array([4,5,6]),array([7,8])]

D、沒有正確答案

答案:B

解析:split將原數(shù)組等分成三個數(shù)組。

94.為了觀察測試Y與X之間的線性關(guān)系,X是連續(xù)變量,使用下列()比較適合。

A、散點(diǎn)圖

B、柱形圖

G直方圖

D、以上答案都不正確

答案:A

解析:散點(diǎn)圖反映了兩個變量之間的相互關(guān)系,在測試Y與X之間的線性關(guān)系時,

使用散點(diǎn)圖最為直觀。

95.下列哪個用于說明在RDD上執(zhí)行何種計算()。

A、分區(qū);

B、算子;

C、日志;

D、數(shù)據(jù)塊;

答案:B

解析:算子是Spark中定義的函數(shù),用于對RDD中的數(shù)據(jù)進(jìn)行操作、轉(zhuǎn)換和計算。

96.情感信息歸納常見的存在形式是()。

A、語料庫

B、情感文摘

C、情感評論

D、情感傾向

答案:B

解析:文本處理基礎(chǔ)知識

97.平滑圖像()處理可以采用RGB彩色模型。

A、直方圖均衡化

B、直方圖均衡化

C、加權(quán)均值濾波

D、中值濾波

答案:C

解析:平滑圖像處理可以采用RGB彩色加權(quán)均值濾波模型。

98.()計算框架源自一種分布式計算模型,其輸入和輸出值均為“鍵-值對”結(jié)構(gòu)。

AxMahout

B、MapReduce

C、Spark

D、Sqoop

答案:B

解析:MapReduce定義

99.下列關(guān)于HDFS的描述正確的是()

A、如果NameNode宕機(jī),SecondaryNameNode會接替它使集群繼續(xù)工作

B、HDFS集群支持?jǐn)?shù)據(jù)的隨機(jī)讀寫

C、NameNode磁盤元數(shù)據(jù)不保存Block的位置信息

D、DataNode通過長連接與NameNode保持通信

答案:C

解析:SecondaryNameNode并不是namenode節(jié)點(diǎn)的備份。所以A錯。;存儲在H

DFS集群上的數(shù)據(jù)是不支持隨機(jī)修改和刪除的,只支持追加,所以B錯;namenode

和datanode之間的通信是基于一種心跳機(jī)制。該機(jī)制不是長連接。是短連接形

式。每次發(fā)送一個數(shù)據(jù)包(自身狀態(tài)信息+數(shù)據(jù)塊信息)即可,所以D錯。

100.以下選項中,輸出結(jié)果是FaIse的是()。

A、?>5isnot4

B、>>>5!=4

G?>False!=0

D、?>5is5

答案:c

解析:False在內(nèi)置表達(dá)式中為0。

101.在抽樣估計中,隨著樣本容量的增大,樣本統(tǒng)計量接近總體參數(shù)的概率就越

大,這一性質(zhì)稱為()

A、無偏性

B、有效性

G及時性

D、一致性

答案:D

解析:一致性是指隨著樣本容量的增大,樣本統(tǒng)計量接近總體參數(shù)的概率就越大,

對于給定的偏差控制水平,兩者間偏差高于此控制水平,兩者間偏差高于此控制

水平的可能性越小。

102.Seikit-Learn中()可以實現(xiàn)評估回歸模型。

A、accuracy_score

B、mean_squared_error

C、f1_score

Dxauc

答案:B

解析:mean_squared_error均方誤差是用來評估回歸模型的指標(biāo),其他三個都是

評估分類模型的指標(biāo)。

103.下列場景中最有可能應(yīng)用人工智能的是()。

A、刷臉辦電

B、輿情分析

C、信通巡檢機(jī)器人

D、以上答案都正確

答案:D

解析:人工智能應(yīng)用的范圍很廣,包括:計算機(jī)科學(xué),金融貿(mào)易,醫(yī)藥,診斷,重工業(yè),

運(yùn)輸,遠(yuǎn)程通訊,在線和電話服務(wù),法律,科學(xué)發(fā)現(xiàn),玩具和游戲,音樂等諸多方面,

刷臉辦電、輿情分析、信通巡檢機(jī)器人當(dāng)然都能很好的應(yīng)用到人工智能,選D。

104.過濾式特征選擇與學(xué)習(xí)器(),包裹式特征選擇與學(xué)習(xí)器()。

A、相關(guān)相關(guān)

B、相關(guān)不相關(guān)

C、不相關(guān)相關(guān)

D、不相關(guān)不相關(guān)

答案:C

解析:過濾式方法先對數(shù)據(jù)集進(jìn)行特征選擇,然后再訓(xùn)練學(xué)習(xí)器,特征選擇過程與

后續(xù)學(xué)習(xí)器無關(guān)。包裹式特征選擇把最終將要使用的學(xué)習(xí)器的性能作為特征于集

的評價準(zhǔn)則。

105.()是數(shù)據(jù)庫管理系統(tǒng)運(yùn)行的基本工作單位。

A、事務(wù)

B、數(shù)據(jù)倉庫

C、數(shù)據(jù)單元

D、數(shù)據(jù)分析

答案:A

解析:在關(guān)系數(shù)據(jù)庫中,事務(wù)(Transaction)是保證數(shù)據(jù)一致性的重要手段,可以

幫助用戶維護(hù)數(shù)據(jù)的一致性。事務(wù)是用戶定義的一個數(shù)據(jù)庫操作序列,這些操作

要么全做,要么全不做,是一個不可分割的工作單位。

106.以下輸出的結(jié)果正確的是()。

Importnumpyasnp

X=np.arange(32).reshape((8,4))

Print(x[[-4,-2,-1,-7]])

A、[[16171819][24252627][28293031][4567]]

B、[[16171819][891011][4567][28293031]

G[[891011][4567]]

D、error

答案:A

解析:二維數(shù)組只傳入一個列表進(jìn)行索弓I時,是對行進(jìn)行選取。

107.DAGScheduler的作用是什么()

A、負(fù)責(zé)分配任務(wù);

B、負(fù)責(zé)調(diào)度Worker的運(yùn)行;

C、負(fù)責(zé)創(chuàng)建執(zhí)行計劃;

D、負(fù)責(zé)清理執(zhí)行完畢的任務(wù);

答案:C

解析:Scheduler模塊分為兩個部分DAGScheduler和TaskScheduler。DAGSche

duIer負(fù)責(zé)創(chuàng)建執(zhí)行計劃;TaskScheduler負(fù)責(zé)分配任務(wù)并調(diào)度Worker的運(yùn)行。

108.HBase使用一個()節(jié)點(diǎn)協(xié)調(diào)管理一個或多個regionserver從屬機(jī)。

A、namenode;

B、datanode;

C、jobtracker;

D、master;

答案:D

解析:Hbase中由一個Master節(jié)點(diǎn)負(fù)責(zé)協(xié)調(diào)管理一個或多個RegionServer從屬

機(jī)

109.數(shù)據(jù)安全不只是技術(shù)問題,還涉及到()o

A、人員問題

B、管理問題

C、行政問題

D、領(lǐng)導(dǎo)問題

答案:B

解析:數(shù)據(jù)安全不只是技術(shù)問題,還涉及到管理問題。

110.關(guān)于表述數(shù)據(jù)可視化在數(shù)據(jù)科學(xué)中重要地位說法中,下列不正確的是()。

A、視覺是人類獲得信息的最主要途徑

B、數(shù)據(jù)可視化處理可以洞察統(tǒng)計分析無法發(fā)現(xiàn)的結(jié)構(gòu)和細(xì)節(jié)

C、數(shù)據(jù)可視化處理結(jié)果的解讀對用戶知識水平的要求較高

D、可視化能夠幫助人們提高理解與處理數(shù)據(jù)的效率

答案:C

解析:視覺是人類獲得信息的最主要途徑,超過50%的人腦功能用于視覺信息的

處理。數(shù)據(jù)可視化處理可以洞察統(tǒng)計分析無法發(fā)現(xiàn)的結(jié)構(gòu)和細(xì)節(jié)。數(shù)據(jù)可視化處

理結(jié)果的解讀對用戶知識水平的要求較低??梢暬軌驇椭藗兲岣呃斫馀c處理

數(shù)據(jù)的效率。

111.以下算法中不屬于基于深度學(xué)習(xí)的圖像分割算法是()。

A、FCN

B、deepIab

C、Mask-RCNN

D、kNN

答案:D

解析:KNN為傳統(tǒng)機(jī)器學(xué)習(xí)方法并非深度學(xué)習(xí)方法。

112.下列關(guān)于文本分類的說法不正確的是()

A、文本分類是指按照預(yù)先定義的主題類別,由計算機(jī)自動地為文檔集合中的每個

文檔確定一個類別

B、文本分類大致可分為基于知識工程的分類系統(tǒng)和基于機(jī)器學(xué)習(xí)的分類系統(tǒng)

C、文本的向量形式一般基于詞袋模型構(gòu)建,該模型考慮了文本詞語的行文順序

D、構(gòu)建文本的向量形式可以歸結(jié)為文本的特征選擇與特征權(quán)重計算兩個步驟

答案:C

解析:詞袋模型是指將所有詞語裝進(jìn)一個袋子里,不考慮其詞法和語序的問題,

即每個詞語都是獨(dú)立的,所以該模型沒有考慮文本詞語的行文順序,C錯誤,選Co

113.關(guān)于函數(shù)的關(guān)鍵字參數(shù)使用限制,以下選項中描述錯誤的是()。

A、關(guān)鍵字參數(shù)必須位于位置參數(shù)之前

B、不得重復(fù)提供實際參數(shù)

C、關(guān)鍵字參數(shù)必須位于位置參數(shù)之后

D、關(guān)鍵字參數(shù)順序無限制

答案:A

解析:關(guān)鍵字參數(shù)必須位于位置參數(shù)之后。

114.Apriori算法的核心思想是()。

A、通過頻繁項集生成和情節(jié)的向下封閉檢測兩個階段來挖掘候選集

B、通過候選集生成和情節(jié)的向下封閉檢測兩個階段來挖掘頻繁項集

C、數(shù)據(jù)集中包含該項集的數(shù)據(jù)所占數(shù)據(jù)集的比例,度量一個集合在原始數(shù)據(jù)中出

現(xiàn)的頻率

D、若某條規(guī)則不滿足最小置信度要求,則該規(guī)則的所有子集也不滿足最小置信度

要求

答案:B

解析:Apriori算法是一種挖掘關(guān)聯(lián)規(guī)則的頻繁項集算法,其核心思想是通過候

選集生成和情節(jié)的向下封閉檢測兩個階段來挖掘頻繁項集。

115.與生成方法、半監(jiān)督SVM、圖半監(jiān)督學(xué)習(xí)等基于單學(xué)習(xí)機(jī)器利用未標(biāo)記數(shù)據(jù)

不同,基于分歧的方法(disagreement-basedmethods)使用多學(xué)習(xí)器,而學(xué)習(xí)器之

間的分歧(disagreement)對未標(biāo)記數(shù)據(jù)的利用至關(guān)重要。()是此類方法的重要代

表。

A、協(xié)同訓(xùn)練

B、組合訓(xùn)練

G配合訓(xùn)練

D、陪同訓(xùn)練

答案:A

解析:與生成方法'半監(jiān)督SVM、圖半監(jiān)督學(xué)習(xí)等基于單學(xué)習(xí)機(jī)器利用未標(biāo)記數(shù)

據(jù)不同,基于分歧的方法(disagreement-basedmethods)使用多學(xué)習(xí)器,而學(xué)習(xí)器

之間的分歧(disagreement)對未標(biāo)記數(shù)據(jù)的利用至關(guān)重要。協(xié)同是此類方法的重

要代表,它很好地利用了多視圖的相容互補(bǔ)性。

116.kNN最近鄰算法在什么情況下效果較好()。

A、樣本較多但典型性不好

B、樣本較少但典型性好

C、樣本呈團(tuán)狀分布

D、樣本呈鏈狀分布

答案:B

解析:K近鄰算法主要依靠的是周圍的點(diǎn),因此如果樣本過多,則難以區(qū)分,典型

性好的容易區(qū)分。

117.數(shù)據(jù)銷毀環(huán)節(jié)的安全技術(shù)措施有通過軟件或物理方式保障磁盤中存儲數(shù)據(jù)

的()、不可恢復(fù),如數(shù)據(jù)銷毀軟件、硬盤消磁機(jī)、硬盤粉碎機(jī)等。

A、暫時隔離

B、暫時刪除

C、永久刪除

D、不作處理

答案:C

解析:數(shù)據(jù)銷毀環(huán)節(jié)的安全技術(shù)措施有通過軟件或物理方式保障磁盤中存儲數(shù)據(jù)

的永久刪除'不可恢復(fù),如數(shù)據(jù)銷毀軟件、硬盤消磁機(jī)、硬盤粉碎機(jī)等。

118.以下代碼的輸出結(jié)果為()。

Importnumpyasnp

A=np.array([[1,2,3],[4,5,6]])

Print(np.append(a,[7,8,9]))

Av[[123][456H

B、[123456789]

G[[123][456][789]]

D、[[123555][4567891]

答案:B

解析:append()函數(shù)在沒有指定軸進(jìn)行操作時,默認(rèn)展平數(shù)組。

119.對于一個分類任務(wù),如果開始時神經(jīng)網(wǎng)絡(luò)的權(quán)重不是隨機(jī)賦值的,而是都設(shè)

成0,下面哪個敘述是正確的()

A、其他選項都不對

B、沒啥問題,神經(jīng)網(wǎng)絡(luò)會正常開始訓(xùn)練

C、神經(jīng)網(wǎng)絡(luò)可以訓(xùn)練,但是所有的神經(jīng)元最后都會變成識別同樣的東西

D、神經(jīng)網(wǎng)絡(luò)不會開始訓(xùn)練,因為沒有梯度改變

答案:C

解析:神經(jīng)網(wǎng)絡(luò)可以訓(xùn)練,但是所有的神經(jīng)元最后都會變成識別同樣的東西。

120.time庫的time.mktime(t)函數(shù)的作用是0。

A、將當(dāng)前程序掛起secs秒,掛起即暫停執(zhí)行

B、將struct」ime對象變量t轉(zhuǎn)換為時間戳

C、返回一個代表時間的精確浮點(diǎn)數(shù),兩次或多次調(diào)用,其差值用來計時

D、根據(jù)format格式定義,解析字符串t,返回struct_time類型時間變量

答案:B

解析:mktime(t)函數(shù)的作用是將結(jié)構(gòu)化時間變量t轉(zhuǎn)換為時間戳。

121.以下()不是NoSQL數(shù)據(jù)庫。

A、MongoDB

B\BigTabIe

C、HBase

D、Access

答案:D

解析:NoSQL是指那些非關(guān)系型的、分布式的、不保證遵循ACID原則的數(shù)據(jù)存

儲系統(tǒng)。典型的NoSQL產(chǎn)品有DangaInteractive的Memcached、10gen的Mongo

DB\Facebook的Cassandra、Google的BigTable及其開源系統(tǒng)HBase、Amazon

的Dynamo、Apache的TokyoCabinet、CouchDB和Redis等。

122.關(guān)于層次聚類算法:⑴不斷重復(fù)直達(dá)達(dá)到預(yù)設(shè)的聚類簇數(shù)⑵不斷合并距離

最近的聚類簇⑶對初始聚類簇和相應(yīng)的距離矩陣初始化⑷對合并得到的聚類

簇進(jìn)行更新。正確的執(zhí)行順序為()。

A、1234

B、1324

C、3241

D、3412

答案:C

解析:層次聚類算法的過程是:

對初始聚類簇和相應(yīng)的距離矩陣初始化;不斷合并距離最近的聚類簇;對合并得

到的聚類簇進(jìn)行更新;不斷重復(fù)直達(dá)達(dá)到預(yù)設(shè)的聚類簇數(shù)。

123.執(zhí)行以下代碼段

MotorcycIes=['honda','yamaha','suzuki']

MotorcycIes.append('ducati')

MotorcycIes.pop(1)

Print(motorcycIes)

時輸出為0。

A、['honda','yamaha','suzuki']

B、['yamaha*,suzuki','ducati']

Cx['honda',yamaha1,suzuki','ducati1]

D、['honda','suzuki',1ducati']

答案:D

解析:pop出第一位置的元素

124.Windows系統(tǒng)下安裝Matplotiib的命令是()。

AxpythonpipinstaIImatpIotIib

B、python-mpipinstaIImatpIotIib

C、sudoapt-getinstaIIpython-matpIotIib

D、sudopython-mpipinstaIImatplotIib

答案:B

解析:A選項缺少參數(shù)'-m',C選項是Linux系統(tǒng)下安裝命令,D選項是MacOSX

系統(tǒng)下安裝命令。

125.以下()屬于DMM(數(shù)據(jù)管理成熟度模型)中的關(guān)鍵過程域“數(shù)據(jù)戰(zhàn)略”。

A、數(shù)據(jù)戰(zhàn)略制定

B、業(yè)務(wù)術(shù)語表

C、數(shù)據(jù)質(zhì)量評估

D、過程質(zhì)量保障

答案:A

解析:數(shù)據(jù)戰(zhàn)略制定屬于DMM(數(shù)據(jù)管理成熟度模型)中的關(guān)鍵過程域“數(shù)據(jù)戰(zhàn)略”o

126.深度學(xué)習(xí)是當(dāng)前很熱門的機(jī)器學(xué)習(xí)算法,在深度學(xué)習(xí)中,涉及到大量的矩陣

相乘,現(xiàn)在需要計算三個稠密矩陣A,B,C的乘積ABC,假設(shè)三個矩陣的尺寸分別為

m*n,n*p,p*q,且m<n<p<q,以下計算順序效率最高的是(_)。

A、(AB)C

B、AC(B)

C、A(BC)

D、所有效率都相同

答案:A

解析:B選項中A的列數(shù)與C的行數(shù)不相等,無法相乘,B選項排除。A選項需要

的乘法次數(shù)為m*n*p+m*p*q,C選項需要的乘法次數(shù)為n*p*q+m*n*q,由于m<n<p<

q,顯然A運(yùn)算次數(shù)更少。

127.ordinalencoder將屬性轉(zhuǎn)化為()。

A、獨(dú)熱編碼

B、附帶特性的數(shù)字

C、二進(jìn)制編碼

D、ASCII碼

答案:B

解析:ordinalencoder的作用是數(shù)值化,但是不增加列數(shù)。

128.下列關(guān)于大數(shù)據(jù)的分析理念的說法中,錯誤的是0。

A、在數(shù)據(jù)基礎(chǔ)上傾向于全體數(shù)據(jù)而不是抽樣數(shù)據(jù)

B、在分析方法上更注重相關(guān)分析而不是因果分析

C、在分析效果上更追求效率而不是絕對精確

D、在數(shù)據(jù)規(guī)模上強(qiáng)調(diào)相對數(shù)據(jù)而不是絕對數(shù)據(jù)

答案:D

解析:在大數(shù)據(jù)的分析理念中,數(shù)據(jù)規(guī)模上強(qiáng)調(diào)絕對數(shù)據(jù)而不是相對數(shù)據(jù)。

129.以下哪個是正確的運(yùn)行結(jié)果()。

Importnumpyasnpa=np.logspace(0,9,10,base=2)

Print(a)

A、[1357]

B、[.28.256.512.]

G[0123456789]

D、[010]

答案:B

解析:np.logspace()計算時可以先求相同參數(shù)的Iinspace結(jié)果,然后對每個元

素做以base參數(shù)為底的懸運(yùn)算。此處為以2為底,依此做0-9的塞運(yùn)算。

130.np.exp(x).round⑸的結(jié)果是2.71828,x的值是()。

A、0

B、1

C、2

D、2.71828

答案:B

解析:e的1次方。

131.以下關(guān)于圖像的平滑處理錯誤的說法是()。

A、圖像的平滑處理是指在盡量保留原有信息的情況下,過濾掉圖像內(nèi)部的噪音

B、圖像平滑處理會對圖像中與周圍像素點(diǎn)的像素值差異較大的像素點(diǎn)進(jìn)行處理,

將其值調(diào)整為周圍像素點(diǎn)像素值的近似值

C、講過平滑處理后圖像質(zhì)量會下降

D、以上答案都正確

答案:C

解析:圖像的平滑處理不會損壞圖像的輪廓及邊緣等重要信息,使得圖像清晰視

覺效果好。

132.在抽樣方法中,當(dāng)合適的樣本容量很難確定時,可以使用的抽樣方法是:Oo

A、有放回的簡單隨機(jī)抽樣

B、無放回的簡單隨機(jī)抽樣

C、分層抽樣

D、漸進(jìn)抽樣

答案:D

解析:在抽樣方法中,當(dāng)合適的樣本容量很難確定時,可以使用的抽樣方法是漸進(jìn)

抽樣。

133.數(shù)據(jù)安全技術(shù)保護(hù)與信息系統(tǒng)“三同步”原則不包括以下哪項()。

A、同步規(guī)劃

B\同步建設(shè)

C、同步使用

D、同步運(yùn)維

答案:D

解析:數(shù)據(jù)安全技術(shù)保護(hù)與信息系統(tǒng)包含同步規(guī)則、同步建設(shè)、同步適用三項原

則。

134.如果要將讀寫位置移動到文件開頭,需要使用的命令是()。

A、close

B、seek(0)

Cxtruncate

D、write('stuff')

答案:B

解析:seek(0)指移動指針到0位置即開頭。

135.以下代碼的輸出結(jié)果為()。

Importnumpyasnp

A=np.array([[10,7,4],[3,2,1]])

Print(np.percentiIe(a,50))

A、[[1074][321]]

B、3.5

C、[]

D、[7.2.]

答案:B

解析:percentiIe是百分位數(shù),此處是50%,即中位數(shù),因為數(shù)組個數(shù)為偶數(shù)個,

因此中位數(shù)為3和4的均值。

136.a=np.array([[0,0,0],[10,10,10],[20,20,20],[30,30,30]])

B=np.array([1,2,3]),a+b的輸出結(jié)果為0。

A、[[123][101010][202020][303030]]

B、[[123][000][101010][202020][303030]]

G[[123][111213][212223][313233]]

D、無法計算

答案:c

解析:在Numpy中兩個維度不同的數(shù)組進(jìn)行計算時會自動觸發(fā)Numpy的廣播機(jī)制,

原公式會轉(zhuǎn)換為[[1,2,3],[1,2,3],[1,2,3],[1,2,3]]+[[0,0,0],[10,10,10],

[20,20,20],[30,30,30]]0

137.()將觀測值分為相同數(shù)目的兩部分,當(dāng)統(tǒng)計結(jié)果為非對稱分布時,經(jīng)常使用

它。

A、眾數(shù)

B、標(biāo)準(zhǔn)差

C、中位數(shù)

D、均值

答案:C

解析:中位數(shù)是指一組數(shù)據(jù)排序后處于中間位置的變量值。

138.關(guān)于0LAP的特性,下面正確的是:(1)快速性⑵可分析性⑶多維性(4)信息

性⑸共享性()

A、(1)(2)(3)

B、(2)(3)(4)

C、(1)(2)(3)(4)

Dv(1)(2)(3)(4)(5)

答案:D

解析:OLAP具有快速性、可分析性、多維性、信息性、共享性等特征。

139.()是指針對用戶非常明確的數(shù)據(jù)查詢和處理任務(wù),以高性能和高吞吐量的方

式實現(xiàn)大眾化的服務(wù),是數(shù)據(jù)價值最重要也是最直接的發(fā)現(xiàn)方式。

A、數(shù)據(jù)服務(wù)

B、數(shù)據(jù)分析

C、數(shù)據(jù)治理

D、數(shù)據(jù)應(yīng)用

答案:A

解析:數(shù)據(jù)服務(wù)指針對用戶非常明確的數(shù)據(jù)查詢和處理任務(wù),以高性能和高吞吐

量的方式實現(xiàn)大眾化的服務(wù),是數(shù)據(jù)價值最重要也是最直接的發(fā)現(xiàn)方式。

140.數(shù)據(jù)斐產(chǎn)維護(hù)是指為保證數(shù)據(jù)質(zhì)量,對數(shù)據(jù)進(jìn)行()等處理的過程。

A、更正

B、刪除

C、補(bǔ)充錄入

D、以上答案都正確

答案:D

解析:數(shù)據(jù)資產(chǎn)維護(hù)是指為保證數(shù)據(jù)質(zhì)量,對數(shù)據(jù)進(jìn)行更正、刪除、補(bǔ)充錄入等

處理的過程。

141.SparkJob默認(rèn)的調(diào)度模式是()。

A、FIFO

B、FAIR

G無

D、運(yùn)行時指定

答案:A

解析:Spark中的調(diào)度模式主要有兩種FIFO和FAIR。默認(rèn)情況下Spark的調(diào)度

模式是FIFO(先進(jìn)先出)。

142.以下可以應(yīng)用關(guān)鍵詞提取的是()。

A、文獻(xiàn)檢索

B、自動文摘

C、文本聚類/分類

D、以上答案都正確

答案:D

解析:在自然語言處理領(lǐng)域,處理海量的文本文件最關(guān)鍵的是要把用戶最關(guān)心的

問題提取出來。

143.()是實現(xiàn)數(shù)據(jù)戰(zhàn)略的重要保障。

A、數(shù)據(jù)管理

B、數(shù)據(jù)分析

C、數(shù)據(jù)治理

D、數(shù)據(jù)規(guī)劃

答案:C

解析:從DMM模型可以看出,數(shù)據(jù)治理是實現(xiàn)數(shù)據(jù)戰(zhàn)略的重要保障。數(shù)據(jù)管理的

是指通過管理“數(shù)據(jù)”實現(xiàn)組織機(jī)構(gòu)的某種業(yè)務(wù)目的。然而,數(shù)據(jù)治理則指如何

確?!皵?shù)據(jù)管理”的順利、有效'科學(xué)地完成。

144.ggpIot2的核心理念是()o

A、繪圖與數(shù)據(jù)分離

B、結(jié)構(gòu)與數(shù)據(jù)分離

C、繪圖與結(jié)構(gòu)分離

D、繪圖與數(shù)據(jù)和結(jié)構(gòu)分離

答案:A

解析:ggplot2的核心理念是將繪圖與數(shù)據(jù)分離,數(shù)據(jù)相關(guān)的繪圖與數(shù)據(jù)無關(guān)的

繪圖分離。

145.最早被提出的循環(huán)神經(jīng)網(wǎng)絡(luò)門控算法是什么()

A、長短期記憶網(wǎng)絡(luò)

B、門控循環(huán)單元網(wǎng)絡(luò)

C、堆疊循環(huán)神經(jīng)網(wǎng)絡(luò)

D、雙向循環(huán)神經(jīng)網(wǎng)絡(luò)

答案:A

解析:LSTM是最早被提出的循環(huán)神經(jīng)網(wǎng)絡(luò)門控算法。長短期記憶網(wǎng)絡(luò)(Long-Sho

rtTermMemory,LSTM)論文首次發(fā)表于1997年11月15日。門控循環(huán)單元網(wǎng)絡(luò)(G

RU)論文發(fā)表于2014年。堆疊循環(huán)神經(jīng)網(wǎng)絡(luò)(SRNN)論文發(fā)表于2017年。雙向循

環(huán)神經(jīng)網(wǎng)絡(luò)(BidirectionaIrecurrentneuraInetworks)發(fā)表于1997年11月。

146.在其他條件不變的前提下,以下哪種做法容易引起機(jī)器學(xué)習(xí)中的過擬合問題

()o

A、增加訓(xùn)練集量

B、減少神經(jīng)網(wǎng)絡(luò)隱藏層節(jié)點(diǎn)數(shù)

C、刪除稀疏的特征

D、SVM算法中使用高斯核/RBF核代替線性核

答案:D

解析:神經(jīng)網(wǎng)絡(luò)減少隱藏層節(jié)點(diǎn),就是在減少參數(shù),只會將訓(xùn)練誤差變高,不會導(dǎo)

致過擬合。D選項中SVM高斯核函數(shù)比線性核函數(shù)模型更復(fù)雜,容易過擬合。

147.下列的哪種方法可以用來降低深度學(xué)習(xí)模型的過擬合問題()。

1增加更多的數(shù)據(jù)

2使用數(shù)據(jù)擴(kuò)增技術(shù)(dataaugmentation)

3使用歸納性更好的架構(gòu)

4正規(guī)化數(shù)據(jù)

5降低架構(gòu)的復(fù)雜度

A、145

B、123

C、1345

D、所有項目都有用

答案:D

解析:增多數(shù)據(jù)、數(shù)據(jù)擴(kuò)增'正規(guī)化數(shù)據(jù)'選擇歸納性更好、復(fù)雜度更低的架構(gòu)

均可以用來降低深度學(xué)習(xí)模型的過擬合問題。

148.神經(jīng)網(wǎng)絡(luò)感知機(jī)只有(_)神經(jīng)元進(jìn)行激活函數(shù)處理,即只擁有一層功能神經(jīng)

兀。

A、輸出層

B、輸入層

G感知層

D、網(wǎng)絡(luò)層

答案:A

解析:神經(jīng)網(wǎng)絡(luò)感知機(jī)只有輸入層神經(jīng)元進(jìn)行激活函數(shù)處理,即只擁有一層功能

神經(jīng)元。

149.下列不屬于transform操作的是()

Axmap

BvfiIter

CxsampIe

Dxcount

答案:D

解析:Transformation常用函數(shù)為map、filter、fIatMapxsample、union、j

oin寺。

150.下列方法中,用于獲取當(dāng)前目錄的是()。

A、open

Bvwrite

GGetpwd

D、read

答案:C

解析:用于獲取當(dāng)前目錄的方法是Getcwd。

151.Scipy中計算偏度的函數(shù)是哪個()。

Axscipy.stats,skewtest()

B、scipy.stats,norm,rvs()

C、scipy.stats,kurtosis()

D、scipy.stats,poisson.rvs0

答案:A

解析:利用stats.skewtest()計算偏度,有兩個返回值,第二個為p-value,即數(shù)

據(jù)集服從正態(tài)分布的概率(0~1)o

152.相對于HadoopMapReduc

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論