版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)
文檔簡介
2022年大數(shù)據(jù)應(yīng)用知識考試題庫(含答案)
一'單選題
1.圖像平滑會造成()。
A、圖像邊緣模糊化
B、圖像邊緣清晰化
C、無影響
D、以上答案都不正確
答案:A
解析:為了抑制噪聲,使圖像亮度趨于平緩的處理方法就是圖像平滑。圖像平滑
實際上是低通濾波,平滑過程會導(dǎo)致圖像邊緣模糊化。
2.關(guān)于Spark的說法中,()是錯誤的。
A、采用內(nèi)存計算模式
B、可利用多種語言編程
C、主要用于批處理
D、可進(jìn)行map()操作
答案:C
解析:HadoopMapReduce主要用于批處理,與Hadoop不同的是,Spark更為通用一
些,可以很好地支持流計算、交互式處理、圖計算等多種計算模式。
3.以下關(guān)于代碼規(guī)范描述,哪些是錯誤的()。
A、類總是使用駝峰格式命名,即所有單詞首字母大寫其余字母小寫。
B、除特殊模塊_init_之外,模塊名稱都使用不帶下劃線的小寫字母。
C、不要濫用*args和**kwargs
D、建議把所有方法都放在一個類中
答案:D
解析:以下關(guān)于代碼規(guī)范描述,把所有方法都放在一個類中是錯誤的。
4.下面關(guān)于詞袋模型說法錯誤的是()。
A、詞袋模型使用一個多重集對文本中出現(xiàn)的單詞進(jìn)行編碼
B、詞袋模型不考慮詞語原本在句子中的順序
C、詞袋模型可以應(yīng)用于文檔分類和檢索,同時受到編碼信息的限制
D、詞袋模型產(chǎn)生的靈感來源于包含類似單詞的文檔經(jīng)常有相似的含義
答案:C
解析:文本處理基礎(chǔ)知識。
5.對數(shù)值型輸出,最常見的結(jié)合策略是()。
A、投票法
B、平均法
C、學(xué)習(xí)法
D、排序法
答案:B
解析:對數(shù)值型輸出,最常見的結(jié)合策略是平均法。
6.以下有關(guān)計算機(jī)編程語言說法錯誤的是()。
A、編程語言是用于書寫計算機(jī)程序的語言;
B、計算機(jī)語言可分為機(jī)器語言、匯編語言、高級語言;
C、計算機(jī)能識別和執(zhí)行所有編程語言寫的程序;
D、C/C++、pascalxjavpython都屬于高級編程語言;
答案:C
解析:只有機(jī)器語言才能被計算機(jī)直接識別,Python等高級語言源程序,不能直
接運(yùn)行,必須翻譯成機(jī)器語言才能執(zhí)行。
7.Python中StatsmodeI庫和()庫關(guān)系密切。
A、Numpy
B、Scipy
Cvjieba
D、Pandas
答案:D
解析:StatsmodeIs建立在pandas之上。
8.以下屬于考慮詞語位置關(guān)系的模型有()。
A、詞向量模型
B、詞袋模型
C、詞的分布式表示
D、TF-IDF
答案:A
解析:詞向量模型考慮通過中間詞預(yù)測鄰近詞,需要考慮詞語順序位置。
9.建立一個詞典[AIex,wants,to,go,pIay,footbaII,shopping],下面的句子:AI
exwantstogotopIayfootbaII可以用向量表示為()。
A、[1,1,2,1,1,1,0]
B、[1,1,2,1,1,11
C、[1,1,1,1,1,1,0]
D、[1,1,1,1,1,1,1]
答案:A
解析:向量中每個元素代表該詞在句中出現(xiàn)的次數(shù),比如to在句中出現(xiàn)兩次,所
以第3個元素應(yīng)為2。
10.()是指給目標(biāo)用戶產(chǎn)生的錯誤或不準(zhǔn)確的視覺感知,而這種感知與數(shù)據(jù)可視
化者的意圖或數(shù)據(jù)本身的真實情況不一致。
A、視覺假象
B、視覺認(rèn)知
C、視覺感知
D、數(shù)據(jù)可視
答案:A
解析:視覺假象(VisualIIlusion)是數(shù)據(jù)可視化工作中不可忽略的特殊問題。視
覺假象是指給目標(biāo)用戶產(chǎn)生的錯誤或不準(zhǔn)確的視覺感知,而這種感知與數(shù)據(jù)可視
化者的意圖或數(shù)據(jù)本身的真實情況不一致。視
11.以下濾波器對圖像中的椒鹽噪聲濾波效果最好的是()。
A、中值濾波
B、均值濾波
C、最大值濾波
D、最小值濾波
答案:A
解析:中值濾波對圖像椒鹽噪聲的濾波效果最好。
12.以下哪種方法不能成功創(chuàng)建一個數(shù)組()。
A、a=np.array([1,2,3,4])
B、b=np.zeros((3,4))
Gc=np.ones(1,2,3,4)
D、d=np.arange(10,30,5)
答案:c
解析:onesO函數(shù)必須傳入一個數(shù)組類型的維度參數(shù)所表示的序列,如列表或元
組,所以C無法成功創(chuàng)建數(shù)組,改為np.ones((1,2,3,4))就可以。
13.MapReduce中,Shuffle操作的作用是()。
A、合并
B、排序
C、降維
D、分區(qū)
答案:B
解析:Shuffle—確保每個reduce0函數(shù)的輸入都按鍵排序。
14.一個MapReduce程序中的MapTask的個數(shù)由什么決定0
A、輸入的總文件數(shù)
B、客戶端程序設(shè)置的mapTask的個數(shù)
C、FiIeInputFormat.getSpIits(JobContextjob)計算出的邏輯切片的數(shù)量
D、輸入的總文件大小/數(shù)據(jù)塊大小
答案:C
解析:MapReduce編程模型中的mapTask的并行度決定機(jī)制是由FilelnputForm
at.getSpIits(JobContextjob)決定的。該方法的返回值是List<InputSpIit>sp
Iits,這個結(jié)果集合中的每個InputSpIit就是一個邏輯輸入切片,每個邏輯輸入
切片在默認(rèn)情況下是會要啟動一個MapTask任務(wù)進(jìn)行計算的,因此C對。
15.對于SVM分類算法,待分樣本集中的大部分樣本不是支持向量,下列說法正確
的是()。
A、需要將這些樣本全部強(qiáng)制轉(zhuǎn)換為支持向量
B、需要將這些樣本中可以轉(zhuǎn)化的樣本轉(zhuǎn)換為支持向量,不能轉(zhuǎn)換的直接刪除
C、移去或者減少這些樣本對分類結(jié)果沒有影響
D、以上都不對
答案:C
解析:支持向量機(jī)的一個重要性質(zhì):訓(xùn)練完成后,大部分的訓(xùn)練樣本都不需保留,
最終模型僅與支持向量有關(guān)。
16.下列對于sigmoid函數(shù)的說法,錯誤的是()
A、存在梯度爆炸的問題
B、不是關(guān)于原點(diǎn)對稱
G計算exp比較耗時
D、存在梯度消失的問題
答案:A
解析:對于sigmoid函數(shù),S型函數(shù)圖像向兩邊的斜率逼近0,因此隨著網(wǎng)絡(luò)層增
加,梯度消失比梯度爆炸更容易發(fā)生的多。
17.決策樹模型的規(guī)模應(yīng)當(dāng)是()。
A、越復(fù)雜越好
B、越簡單越好
C、適當(dāng)限制其復(fù)雜程度
D、盡可能利用所有特征
答案:C
解析:決策樹模型的規(guī)模復(fù)雜可能產(chǎn)生過擬合,因此并非越復(fù)雜做好,應(yīng)適當(dāng)限制
其復(fù)雜程度。
18.在Windows系統(tǒng)中,關(guān)閉Python終端會話常用快捷鍵是()。
A、CtrI+C
B、Ctrl+D
C、Ctrl+E
D、Ctrl+Z
答案:D
解析:在Windows系統(tǒng)中,關(guān)閉Python終端會話常用快捷鍵是CtrI+Z。
19.數(shù)據(jù)可視化的本質(zhì)是()。
A、將數(shù)據(jù)轉(zhuǎn)換為知識
B、將知識轉(zhuǎn)換為數(shù)據(jù)
C、將數(shù)據(jù)轉(zhuǎn)換為信息
D、將信息轉(zhuǎn)換為智慧
答案:A
解析:可視化分析學(xué)模型認(rèn)為,數(shù)據(jù)可視化的本質(zhì)是將數(shù)據(jù)轉(zhuǎn)換為知識,而不能僅
僅停留在數(shù)據(jù)的可視化呈現(xiàn)層次之上,并提出從數(shù)據(jù)到知識的轉(zhuǎn)換途徑有兩個:
一是可視化分析,另一個是自動化建模。
20.在HDFS中()是文件系統(tǒng)的工作節(jié)點(diǎn)。
A、DataNode
B、Client
C、NameNode
DvFlume
答案:A
解析:數(shù)據(jù)節(jié)點(diǎn)(DataNode)是分布式文件系統(tǒng)HDFS的工作節(jié)點(diǎn),負(fù)責(zé)數(shù)據(jù)的存儲
和讀取,會根據(jù)客戶端或者是名稱節(jié)點(diǎn)的調(diào)度來進(jìn)行數(shù)據(jù)的存儲和檢索,并且向
名稱節(jié)點(diǎn)定期發(fā)送自己所存儲的塊的列表。每個數(shù)據(jù)節(jié)點(diǎn)中的數(shù)據(jù)會被保存在各
自節(jié)點(diǎn)本地Linux文件系統(tǒng)中。
21.圖像中虛假輪廓的出現(xiàn)就其本質(zhì)而言是()。
A、圖像的灰度級數(shù)不夠多而造成的
B、圖像的空間分辨率不夠高而造成的
C、圖像的灰度級數(shù)過多而造成的
D、圖像的空間分辨率過高而造成的
答案:A
解析:圖像中的虛假輪廓最易在平滑區(qū)域內(nèi)產(chǎn)生。平滑區(qū)域內(nèi)灰度應(yīng)緩慢變化,
但當(dāng)圖像的灰度級數(shù)不夠多時會產(chǎn)生階躍。所以圖像中虛假輪廓的出現(xiàn)就其本質(zhì)
而言是圖像的灰度級數(shù)不夠多而造成的,選Ao
22.對于數(shù)據(jù)3,3,2,3,6,3,10,3,6,3,2.①這組數(shù)據(jù)的眾數(shù)是3;②這組數(shù)據(jù)的眾
數(shù)與中位數(shù)的數(shù)值不相等;③這組數(shù)據(jù)的中位數(shù)與平均數(shù)的數(shù)值不相等;④這組
數(shù)據(jù)的平均數(shù)與眾數(shù)的數(shù)值相等.其中正確結(jié)論的個數(shù)為()。
A、1
B、2
C、3
D、4
答案:B
解析:眾數(shù)是指一組中出現(xiàn)次數(shù)最多的數(shù),中位數(shù)是按順序排列的一組數(shù)據(jù)中居
于中間位置的數(shù),平均值是各數(shù)值加總求和再除以總的個數(shù)。此題中眾數(shù)為3,中
位數(shù)為3,平均值為4,故①和③正確。
23.文本信息往往包含客觀事實和主觀情感,對于文本的情感分析主要是識別文
章中的主觀類詞語,其中()不適用于情感分析。
A、表達(dá)觀點(diǎn)的關(guān)鍵詞
B、表達(dá)程度的關(guān)鍵詞
C、表達(dá)情緒的關(guān)鍵詞
D、表達(dá)客觀事實的關(guān)鍵詞
答案:D
解析:D中表達(dá)客觀事實的關(guān)鍵詞是對事物的客觀性描述,不帶有感情色彩和情
感傾向,即為客觀性文本,不適用于情感分析。而主觀性文本則是作者對各種事物
的看法或想法,帶有作者的喜好厭惡等情感傾向,如ABC中表觀點(diǎn)、程度和情緒的
關(guān)鍵詞都是帶有情感傾向的主觀性文本,適用于情感分析。
24.scipy.stats,moment函數(shù)的作用是()。
A、隨機(jī)變量的概率密度函數(shù)
B、隨機(jī)變量的累積分布函數(shù)
C、隨機(jī)變量的生存函數(shù)
D、計算分布的非中心矩
答案:D
25.以下哪些算法是基于規(guī)則的分類器()。
A、C4.5
B、KNN
C、NaiveBayes
DvANN
答案:A
解析:基于規(guī)則的分類器有決策樹、隨機(jī)森林、Aprior。
26.scipy.stats模塊中對隨機(jī)變量進(jìn)行隨機(jī)取值的函數(shù)是()。
A、rvs
B、pdf
Gcdf
D、sf
答案:A
解析:stats模塊中每個分布都rvs函數(shù),對隨機(jī)變量取值。
27.以下不屬于大數(shù)據(jù)重要意義的是()。
A、大數(shù)據(jù)成為推動經(jīng)濟(jì)轉(zhuǎn)型發(fā)展的新動力
B、大數(shù)據(jù)成為重塑國家競爭優(yōu)勢的新機(jī)遇
C、大數(shù)據(jù)成為提升政府治理能力的新途徑
D、大數(shù)據(jù)會增加經(jīng)濟(jì)發(fā)展的成本
答案:D
解析:大數(shù)據(jù)可以促進(jìn)經(jīng)濟(jì)的發(fā)展,催生新的業(yè)態(tài),在輔助商業(yè)的決策'降低運(yùn)營
成本、精準(zhǔn)市場的營銷方面都能發(fā)揮作用,進(jìn)一步提升企業(yè)競爭力。
28.Spark那個組件用于支持實時計算需求()。
AxSparkSQL
B、SparkStreaming
C、SparkGraphX
D、SparkMLLib
答案:B
解析:SparkStreaming用于實時處理。
29.Mapreduce適用于()
A、任意應(yīng)用程序
B、任意可在windowsservet2008上運(yùn)行的程序
C、可以串行處理的應(yīng)用程序
D、可以并行處理的應(yīng)用程序
答案:D
解析:Mapreduce適用于并行處理的應(yīng)用程序
30.使用Numpy讀取csv文件應(yīng)使用以下哪個函數(shù)()。
A、save()
B、read_csv()
CxIoadtxt()
D、open()
答案:C
解析:Numpy中設(shè)有讀取csv文件的函數(shù),使用np.loadtxt可讀取csv文件。
31.讀代碼,請寫出程序正確的答案()。
#!/usr/bin/envpython3
N=100
Sum=0
Counter=1
WhiIecounter<=n:
Sum+counter
Counter+=1
Print("1到%(1之和為:%d"%(n,sum))
A、結(jié)果:1到100之和為:5000
B、結(jié)果:1到100之和為:0
G結(jié)果:1到100之和為:2050
D、結(jié)果:1到100之和為:5020
答案:B
解析:循環(huán)中沒有給sum賦值,故sum=0
32.以下哪個參數(shù)可以使數(shù)組計算沿指定軸進(jìn)行應(yīng)用操作()。
Axaxis
B、inplace
Cxdata
D、dtype
答案:A
解析:通過指定axis參數(shù),可以沿數(shù)組的指定軸應(yīng)用操作。
33.PageRank是一^t'函數(shù),它對Web中的每個網(wǎng)頁賦予一個實數(shù)值。它的意圖在
于網(wǎng)頁的PageRank越高,那么它就()。
Av相關(guān)性越異]
B、越不重要
C、相關(guān)性越低
D、越重要
答案:D
解析:PageRank認(rèn)為,如果A頁面有一個鏈接指向B頁面,那就可以看作是A頁
面對B頁面的一種信任或推薦。所以,如果一個頁面的反向鏈接越多,再根據(jù)這些
鏈接的價值加權(quán)越高,那搜索引擎就會判斷這樣的頁面更為重要。
34.機(jī)器學(xué)習(xí)中L1正則化和L2正則化的區(qū)別是()。
A、使用L1可以得到稀疏的權(quán)值,使用L2可以得到平滑的權(quán)值
B、使用L1可以得到平滑的權(quán)值,使用L2可以得到平滑的權(quán)值
C、使用L1可以得到平滑的權(quán)值,使用L2可以得到稀疏的權(quán)值
D、使用L1可以得到稀疏的權(quán)值,使用L2可以得到稀疏的權(quán)值
答案:A
解析:使用L1可以得到稀疏的權(quán)值,使用L2可以得到平滑的權(quán)值。
35.下面哪個操作是窄依賴()
A、join
B、filter
C、group
Dxsort
答案:B
解析:spark中常見的窄依賴操作包括map,filer,union,sample等,寬依賴的操
作包括reducebykey,groupbykey,joinWo
36.數(shù)據(jù)科學(xué)中,人們開始注意到傳統(tǒng)數(shù)據(jù)處理方式中普遍存在的“信息丟失”現(xiàn)
象,進(jìn)而數(shù)據(jù)處理范式從()轉(zhuǎn)向()。
A、產(chǎn)品在先,數(shù)據(jù)在后范式;數(shù)據(jù)在先,產(chǎn)品在后范式或無模式
B、模式在先,產(chǎn)品在后范式;產(chǎn)品在先,模式在后范式或無模式
C、數(shù)據(jù)在先,模式在后范式或無模式;模式在先,數(shù)據(jù)在后范式
D、模式在先,數(shù)據(jù)在后范式;數(shù)據(jù)在先,模式在后范式或無模式
答案:D
解析:傳統(tǒng)關(guān)系數(shù)據(jù)庫中,先定義模式,然后嚴(yán)格按照模式要求存儲數(shù)據(jù);當(dāng)需要
調(diào)整模式時,不僅需要數(shù)據(jù)結(jié)構(gòu),而且還需要修改上層應(yīng)用程序。然而,NoSQL技
術(shù)則采用了非常簡單的Key-VaIue等模式在后(SchemaLater)和無模式(SchemaI
ess)的方式提升了數(shù)據(jù)管理系統(tǒng)的自適應(yīng)能力。當(dāng)然,模式在后(SchemaLater)
和無模式(Schemaless)也會帶來新問題,如降低了數(shù)據(jù)管理系統(tǒng)的數(shù)據(jù)處理能力。
37.假如我們使用非線性可分的SVM目標(biāo)函數(shù)作為最優(yōu)化對象,我們怎么保證模
型線性可分()。
A、設(shè)C=1
B、設(shè)C=0
C\設(shè)c=無窮大
D、以上答案都不正確
答案:c
解析:C無窮大保證了所有的線性不可分都是可以忍受的。
38.假定你現(xiàn)在訓(xùn)練了一個線性SVM并推斷出這個模型出現(xiàn)了欠擬合現(xiàn)象,在下
一次訓(xùn)練時,應(yīng)該采取下列什么措施()
A、增加數(shù)據(jù)點(diǎn)
B、減少數(shù)據(jù)點(diǎn)
C、增加特征
D、減少特征
答案:C
解析:欠擬合是指模型擬合程度不高,數(shù)據(jù)距離擬合曲線較遠(yuǎn),或指模型沒有很好
地捕捉到數(shù)據(jù)特征,不能夠很好地擬合數(shù)據(jù)??赏ㄟ^增加特征解決。
39.兩個變量相關(guān),它們的相關(guān)系數(shù)r可能為0?這句話是否正確()
A、正確
B、錯誤
答案:A
解析:Pearson相關(guān)系數(shù)r=0,這表示兩個變量間不存在線性相關(guān)關(guān)系。
40.一幅數(shù)字圖像是()。
A、一個觀測系統(tǒng)
B、一個由許多像素排列而成的實體
C、一個2-D數(shù)組中的元素
D、一個3-D空間中的場景
答案:C
解析:數(shù)字圖像,又稱數(shù)碼圖像或數(shù)位圖像,是二維圖像用有限數(shù)字?jǐn)?shù)值像素的表
7J\o
41.執(zhí)行以下代碼段
Print(booI('False'))
Print(booI())
時輸出為0。
A、TrueTrue
B、TrueFaIse
CxFaIseTrue
DxFaIseFaIse
答案:B
解析:這里'False'只是字符串
42.以下說法正確的是:()。1.一個機(jī)器學(xué)習(xí)模型,如果有較高準(zhǔn)確率,總是說明這
個分類器是好的2.如果增加模型復(fù)雜度,那么模型的測試錯誤率總是會降低3.
如果增加模型復(fù)雜度,那么模型的訓(xùn)練錯誤率總是會降低
A、1
B、2
C、3
D、1and3
答案:C
解析:如果增加模型復(fù)雜度,那么模型的測試錯誤率總是會降低,訓(xùn)練錯誤率可能
降低,也可能增高。
43.從網(wǎng)絡(luò)的原理上來看,結(jié)構(gòu)最復(fù)雜的神經(jīng)網(wǎng)絡(luò)是()。
A、卷積神經(jīng)網(wǎng)絡(luò)
B、長短時記憶神經(jīng)網(wǎng)絡(luò)
C、GRU
D、BP神經(jīng)網(wǎng)絡(luò)
答案:B
解析:從網(wǎng)絡(luò)的原理上來看,結(jié)構(gòu)最復(fù)雜的神經(jīng)網(wǎng)絡(luò)是LSTMo
44.txt=open(fiIename)返回的是()。
A、變量
B、常數(shù)
C、文件內(nèi)容
D、文件對象
答案:D
解析:txt=open(fiIename)返回的是文件對象。
45.pipinstaIIscipy==1.7與pipinstaIIscipy兩者的區(qū)別是()。
A、兩者作用一樣
B、前者安裝指定版本的包,后者安裝最新版本的包
C、前者安裝指定版本的包,后者安裝隨機(jī)版本的包
D、以上答案都不正確
答案:B
解析:pipinstallscipy=1.7與pipinstalIscipy兩者的區(qū)別是前者安裝指定
版本的包,后者安裝最新版本的包。
46.若arr=np.array([[1,2,3,],[4,5,6,],[7,8,9,]]),則arr[:2,1:]的輸出為
()o
Av([[2,3],[5,6]])
B、([⑴[6]])
Cv([[5,6],[8,9]])
D、([[1,2],[4,5]])
答案:A
解析:索引時如果不指定冒號旁邊的數(shù)值,則默認(rèn)從開頭開始或至結(jié)尾結(jié)束。
47.以下不能創(chuàng)建一個字典的語句是()。
A、dict1={}
B、dict2={3:5}
Gdict3={[1,2,3]:"uestc”}
D、dict4={(1,2,3):"uestc”}
答案:c
解析:字典key不可以是可變類型
48.LSTM中,(_)的作用是確定哪些新的信息留在細(xì)胞狀態(tài)中,并更新細(xì)胞狀態(tài)。
A、輸入門
B、遺忘門
G輸出門
D、更新門
答案:A
解析:LSTM中,輸入門的作用是確定哪些新的信息留在細(xì)胞狀態(tài)中,并更新細(xì)胞
狀態(tài);遺忘門決定我們會從細(xì)胞狀態(tài)中丟棄什么信息;輸出門確定輸出。
49.Matplotiib的核心是面向()。
A、過程
B、對象
C、結(jié)果
D、服務(wù)
答案:B
解析:Matplotlib的核心是面向?qū)ο蟮摹H绻枰嗫刂坪妥远x圖,我們建
議直接使用對象。
50.正確導(dǎo)入日期模塊的語句()。
A、importdate
B、importdatetime
C、importtime
D、importdate_time
答案:B
解析:導(dǎo)入日期模塊的語句是importdatetime
51.診斷性分析主要采取的分析方法是()和()。
A、關(guān)聯(lián)分析和因果分析法
B、關(guān)聯(lián)分析和分類分析法
C、關(guān)聯(lián)分析和運(yùn)籌學(xué)
D、因果分析和分類分析法
答案:A
解析:診斷性分析主要關(guān)注過去,回答為什么發(fā)生,主要采用關(guān)聯(lián)分析法和因果分
析法。
52.為了降低MapReduce兩個階段之間的數(shù)據(jù)傳遞量,一般采用()函數(shù)對map階段
的輸出進(jìn)行處理。
A、sort()
B、biner()
C、join()
D、gather()
答案:B
解析:為了降低數(shù)據(jù)傳遞量,采用binerO函數(shù)對map()函數(shù)的數(shù)據(jù)結(jié)果進(jìn)行合并
處理。
53.IDLE環(huán)境的退出命令是()。
A、exit()
B、回車鍵
C、cIose()
D、esc()
答案:A
解析:IDLE使用exit。退出環(huán)境。
54.反轉(zhuǎn)二維數(shù)組arr的行arr=np.arange(9).reshape(3,3)
Avarr[::-1]
B、arr[::-2]
C、arr[::1]
D、arr[::0]
答案:A
解析:::-1進(jìn)行反轉(zhuǎn)。
55.要彌補(bǔ)缺失值,可以使用均值,中位數(shù),眾數(shù)等等,preprocessing模塊中那個
方法可以實現(xiàn)()。
Axpreprocessing.ImputerO
B、preprocessing.PoIynomiaIFeatures()
C、preprocessing.FunctionTransformer()
D、preprocessing.Binarizer()
答案:A
解析:要彌補(bǔ)缺失值,可以使用均值,中位數(shù),眾數(shù)等等,preprocessing中Imput
er方法可以實現(xiàn)。
56.在當(dāng)前圖形上添加一個子圖需要用到哪個方法0。
A、pypIot.stackpIot()
B、pyplot.suptitIe()
Cxpyplot.subpIot()
D、pyplot.imshowO
答案:c
解析:matplotIib.pyplot.subplot()的作用是在當(dāng)前圖形上添加一個子圖。
57.下面哪個是滿足期望輸出的代碼()。
Arr=np.array([0,1,2,3,4,5,6,7,8,9])
期望輸出:array([1,3,5,7,9])
A、arr%2~1
B、arr[arr%2-1]
C、arr[arr/2-1]
D、arr[arr//2==1]
答案:B
解析:題中的結(jié)果是選取了原數(shù)組的奇數(shù),先使用數(shù)組進(jìn)行邏輯判斷得到一個邏
輯數(shù)組,然后以其作為索引選取數(shù)據(jù)。
58.A=np.array([[1,1],[0,1]]),B=np.array([[2,0],[3,4]]),A*B的結(jié)果是()。
A、[[2,0],[0,4]]
B、[[5,4].[3,4]]
C、[[3,4],[5,4]]
D、無法計算
答案:A
解析:Numpy數(shù)組的乘法計算分為兩種:一種是矩陣正常相乘,代碼實現(xiàn)為AB或A.
dot(B),一種是每個元素對應(yīng)相乘,表現(xiàn)方式為A*B,本題所問的是后一種。
59.下列哪種算法可以用神經(jīng)網(wǎng)絡(luò)構(gòu)建?(_)1.K-NN最近鄰算法2.線性回歸3.邏
輯回歸
A、1and2
B、2and3
Cx1,2and3
D、Noneoftheabove
答案:B
解析:KNN是關(guān)于距離的學(xué)習(xí)算法,沒有任何參數(shù),所以無法用神經(jīng)網(wǎng)絡(luò)構(gòu)建。
60.matplotlib中的調(diào)用堆積折線圖的函數(shù)是什么()。
A、step()
B、stackpIot0
C、pIuspIot()
D、hist()
答案:B
解析:stackplot用于繪制堆疊折線圖。
61.信息增益對可取值數(shù)目()的屬性有所偏好,增益率對可取值數(shù)目()的屬性有
所偏好。
A、較高,較高
B、較高,較低
G較低,較高
D、較低,較低
答案:B
解析:信息增益準(zhǔn)則對可取值數(shù)目較多的屬性有所偏好,增益率對可取值數(shù)目較
少的屬性有所偏好。
62.數(shù)組分割使用以下哪個函數(shù)()。
A、vstack()
B、hstack()
C、split()
D、view()
答案:c
解析:np.split()的作用是把一個數(shù)組從左到右按順序切分。
63.關(guān)于基本數(shù)據(jù)的元數(shù)據(jù)是指()。
A、基本元數(shù)據(jù)與數(shù)據(jù)源,數(shù)據(jù)倉庫,數(shù)據(jù)集市和應(yīng)用程序等結(jié)構(gòu)相關(guān)的信息
B、基本元數(shù)據(jù)包括與企業(yè)相關(guān)的管理方面的數(shù)據(jù)和信息
C、基本元數(shù)據(jù)包括日志文件和簡歷執(zhí)行處理的時序調(diào)度信息
D、基本元數(shù)據(jù)包括關(guān)于裝載和更新處理,分析處理以及管理方面的信息
答案:D
解析:元數(shù)據(jù)(Metadata),又稱中介數(shù)據(jù)、中繼數(shù)據(jù),為描述數(shù)據(jù)的數(shù)據(jù)(dataab
outdata)。
64.標(biāo)準(zhǔn)BP算法的目標(biāo)是使訓(xùn)練集上的()為最小。
A、累積方差
B、累積誤差
C、累積協(xié)方差
D、累積偏差
答案:B
解析:標(biāo)準(zhǔn)BP算法的目標(biāo)是使訓(xùn)練集上的累積誤差最小。
65.假負(fù)率是指()。
A、正樣本預(yù)測結(jié)果數(shù)/正樣本實際數(shù)
B、被預(yù)測為負(fù)的正樣本結(jié)果數(shù)/正樣本實際數(shù)
C、被預(yù)測為正的負(fù)樣本結(jié)果數(shù)/負(fù)樣本實際數(shù)
D、負(fù)樣本預(yù)測結(jié)果數(shù)/負(fù)樣本實際數(shù)
答案:B
解析:假負(fù)率是指被預(yù)測為負(fù)的正樣本結(jié)果數(shù)/正樣本實際數(shù)。
66.bootstrap數(shù)據(jù)是什么意思()。
A、有放回地從總共M個特征中抽樣m個特征
B、無放回地從總共M個特征中抽樣m個特征
C、有放回地從總共N個樣本中抽樣n個樣本
D、無放回地從總共N個樣本中抽樣n個樣本
答案:C
解析:自助來樣法(bootstrapsampling),給定包含N個樣本的數(shù)據(jù)集,我們先隨
機(jī)取出一個樣本放入采樣集中,再把該樣本放回初始數(shù)據(jù)集,使得下次采樣時該
樣本仍有可能被選中,這樣經(jīng)過n次隨機(jī)采樣操作,我們得到含n個樣本的采樣集。
67.在編寫程序時經(jīng)常要對某一個條件進(jìn)行判斷,“條件”只有“成立”或“不成
立”兩種結(jié)果。成立用“True”表示,不成立用“False”表示。下列關(guān)系表達(dá)式
中,結(jié)果為“True”的是()。
A、2>5
B、3>=3
C、1!=1
D、6==5
答案:B
解析:>=可表示為>或=。
68.劃分聚類算法是一種簡單的較為基本的重要聚類方法。它的主要思想是通過
將數(shù)據(jù)點(diǎn)集分為()個劃分,并使用重復(fù)的控制策略使某個準(zhǔn)則最優(yōu)化,以達(dá)到最
終的結(jié)果
A、D
B、K
C、E
D、F
答案:B
解析:劃分聚類算法K-Means將數(shù)據(jù)點(diǎn)集分為K個子集。
69.以下代碼的輸出結(jié)果為()。
Importnumpyasnp
A=np.array([0.25,1.33,1,100])
Print(np.reciprocaI(a))
A、[-10.-9.-8.]
B、[-7.-6.-5.]
G[0.251.331.100.]
D、[4.0.75187971.0.01]
答案:D
解析:np.reciprocal。取倒數(shù)。
70.有N個樣本,一般用于訓(xùn)練,一般用于測試。若增大N值,則訓(xùn)練誤差和測試誤
差之間的差距會如何變化()。
A、增大
B、減小
C、無法確定
D、無明顯變化
答案:B
解析:增加數(shù)據(jù),能夠有效減小過擬合,減小訓(xùn)I練樣本誤差和測試樣本誤差之間的
差距。
71.Numpy簡單介紹,不正確的是()。
A、Numpy(NumericaIPython)是Python語言的一個擴(kuò)展程序庫
B、支持大量的維度數(shù)組與矩陣運(yùn)算
C、針對數(shù)組運(yùn)算提供大量的數(shù)學(xué)函數(shù)庫
D、Numpy不開放源代碼
答案:D
解析:Numpy是開源代碼庫。
72.當(dāng)相關(guān)系數(shù)r=0時,說明()。
A、現(xiàn)象之間相關(guān)程度較小
B、現(xiàn)象之間完全相關(guān)
C、現(xiàn)象之間無直線相關(guān)
D、現(xiàn)象之間完全無關(guān)
答案:C
解析:相關(guān)系數(shù)r刻畫了兩個變量之間的相關(guān)程度,|r|小于等于1,|r|越接近1,
則表示兩個變量相關(guān)度越高,反之相關(guān)度越低。相關(guān)系數(shù)片0只能說明線性無關(guān),
不能說明完全無關(guān)。
73.獲取兩個PythonNumpy數(shù)組之間的公共項()。
A=np.array([1,2,3,2,3,4,3,4,5,6])
B=np.array([7,2,10,2,7,4,9,4,9,8])
期望輸出:array([2,4])
A、intersectld(a,b)
B、ersectld(a,b)
C、erset(a,b)
D、ersectld(a)
答案:B
解析:intersect1d()返回二者的交集并排序。
74.大數(shù)據(jù)中的小數(shù)據(jù)可能缺失、冗余、存在垃圾數(shù)據(jù)不影響大數(shù)據(jù)的可信數(shù)據(jù),
體現(xiàn)大數(shù)據(jù)“涌現(xiàn)”的()表現(xiàn)形式。
A、價值涌現(xiàn)
B、隱私涌現(xiàn)
C、質(zhì)量涌現(xiàn)
D、安全涌現(xiàn)
答案:C
解析:大數(shù)據(jù)的“質(zhì)量涌現(xiàn)”是指大數(shù)據(jù)中的成員小數(shù)據(jù)可能有質(zhì)量問題(不可
信的數(shù)據(jù)),如缺失、冗余、垃圾數(shù)據(jù)的存在,但不影響大數(shù)據(jù)的質(zhì)量(可信的數(shù)據(jù))。
75.以下不屬于Python內(nèi)置模塊的是()。
Axsys
B、json
C、os
Dximage
答案:D
解析:image屬于第三方庫。
76.Nu即y的數(shù)組中Ndarray對象屬性描述錯誤的是()。
A、Ndarray.dtypeNdarray對象中每個元素的大小,以字節(jié)為單位
B、Ndarray.fIagsNdarray對象的內(nèi)存信息
GNdarray.realNdarray元素的實部
D、Ndarray.imagNdarray元素的虛部
答案:A
解析:dtype是數(shù)組元素的類型。
77.當(dāng)圖像通過信道傳輸時,噪聲一般與()無關(guān)。
A、信道傳輸?shù)馁|(zhì)量
B、出現(xiàn)的圖像信號
C、是否有中轉(zhuǎn)信道的過程
D、圖像在信道前后的處理
答案:B
解析:當(dāng)圖像通過信道傳輸時,噪聲一般與出現(xiàn)的圖像信號無關(guān),這種獨(dú)立于信號
的退化被稱為加性噪聲。信道傳輸質(zhì)量'中轉(zhuǎn)信道都會影響圖像質(zhì)量,而圖像在
信道前后的預(yù)處理和后處理也會產(chǎn)生噪聲。
78.在留出法、交叉驗證法和自助法三種評估方法中,()更適用于數(shù)據(jù)集較小、難
以劃分訓(xùn)練集和測試集的情況。
A、留出法
B、交叉驗證法
C、自助法
D、留一法
答案:C
解析:自助法更適用于數(shù)據(jù)集較小、難以劃分訓(xùn)練集和測試集的情況。
79.在數(shù)據(jù)科學(xué)中,通??梢圆捎茫ǎ┓椒ㄓ行П苊鈹?shù)據(jù)加工和數(shù)據(jù)備份的偏見。
A、A/B測試
B、訓(xùn)練集和測試集的劃分
C、測試集和驗證集的劃分
D、圖靈測試
答案:A
解析:A/B測試是一種對比試驗,準(zhǔn)確說是一種分離式組間試驗,在試驗過程中,
我們從總體中隨機(jī)抽取一些樣本進(jìn)行數(shù)據(jù)統(tǒng)計,進(jìn)而得出對總體參數(shù)的多個評估。
A/B測試有效避免數(shù)據(jù)加工和準(zhǔn)備偏見以及算法/模型選擇偏見具有重要借鑒意
義。
80.下列不屬于深度學(xué)習(xí)內(nèi)容的是(_)。
A、深度置信網(wǎng)絡(luò)
B、受限玻爾茲曼機(jī)
C、卷積神經(jīng)網(wǎng)絡(luò)
D、貝葉斯學(xué)習(xí)
答案:D
解析:貝葉斯學(xué)習(xí)屬于傳統(tǒng)的機(jī)器學(xué)習(xí)算法。
81.關(guān)于數(shù)據(jù)分析,下列說法正確的是()。
A、描述性分析和預(yù)測性分析是對診斷性分析的基礎(chǔ)
B、斷性分析分析是對規(guī)范性分析的進(jìn)一步理解
C、預(yù)測性分析是規(guī)范性分析的基礎(chǔ)
D、規(guī)范性分析是數(shù)據(jù)分析的最高階段,可以直接產(chǎn)生產(chǎn)業(yè)價值
答案:C
解析:在數(shù)據(jù)分析中,流程分為以下方式:描述性分析、診斷性分析、預(yù)測性分析'
規(guī)范性分析。
82.增加卷積核的大小對于改進(jìn)卷積神經(jīng)網(wǎng)絡(luò)的效果是必要的嗎()
A、是的,增加卷積核尺寸一定能提高性能
B、不是,增加核函數(shù)的大小不一定會提高性能
答案:B
解析:增加核函數(shù)的大小不一定會提高性能。這個問題在很大程度上取決于數(shù)據(jù)
集。
83.關(guān)于Python包,以下說法正確的是()。
A、利用pip包管理器更新已安裝包的代碼是:pipupdate包名
B、單獨(dú)導(dǎo)入包名即可導(dǎo)入包中所包含的所有子模塊
C、下載安裝、更新、查看、移除包等行為可以在命令行中進(jìn)行,但不可以在Jup
yternotebook中進(jìn)行
D、下載安裝'更新、查看、移除包等行為既可以用pip工具,也可以用conda
工具
答案:D
解析:pip更新包指令為pipinstalI—upgradePackage;單獨(dú)導(dǎo)入包之后訪問子
模塊需要用“模塊.子模塊”方式;在Jupyter中也可以通過指令管理包。
84.三維以上數(shù)組是以()的形式輸出的。
A、按行輸出
B、按矩陣輸出
C、按矩陣列表輸出
D、按字符串輸出
答案:C
解析:一維數(shù)組輸出為行,二維數(shù)組輸出為矩陣,三維數(shù)組輸出位矩陣列表。
85.從連續(xù)圖像到數(shù)字圖像需要()。
A、圖像灰度級設(shè)定
B、圖像分辨率設(shè)定
C、確定圖像的存儲空間
D、采樣和量化
答案:D
解析:數(shù)字圖像又稱離散圖像,連續(xù)圖像到數(shù)字圖像需要離散化,離散化是通過采
樣和量化實現(xiàn)的。
86.有數(shù)組arr=Numpy.array([1,2,3,4]),執(zhí)行arr.dtype后輸出結(jié)果為()。
A、int32
B、int64
CxfIoat32
D、fIoat64
答案:A
解析:從列表中創(chuàng)建時,Numpy會自動判斷元素的類型從而確定數(shù)組的類型,此處
都為整數(shù)則確定為int32,如果將元素1改為1.0,則會確定為float64o
87.以下分割方法中不屬于區(qū)域算法的是()。
A、分裂合并
B、閾值分割
C、區(qū)域生長
D、邊緣檢測
答案:D
解析:邊緣檢測算法是標(biāo)識數(shù)字圖像中亮度變化明顯的點(diǎn),不屬于區(qū)域算法發(fā)范
疇。
88.假設(shè)我們已經(jīng)在ImageNet數(shù)據(jù)集(物體識別)上訓(xùn)練好了一個卷積神經(jīng)網(wǎng)絡(luò)。
然后給這張卷積神經(jīng)網(wǎng)絡(luò)輸入一張全白的圖片。對于這個輸入的輸出結(jié)果為任何
種類的物體的可能性都是一樣的,對嗎()。
A、對的
B、不知道
C、看情況
D、不對
答案:D
解析:不對,神經(jīng)網(wǎng)絡(luò)對于未知的數(shù)據(jù)不是均勻預(yù)測的,會對莫一種或多種類別存
在偏向。
89.以下哪個不屬于數(shù)據(jù)治理的內(nèi)容。
A、理解自己的數(shù)據(jù)
B、行為規(guī)范的制定
C、崗位職責(zé)的定義
D、獲得更多的數(shù)據(jù)
答案:D
解析:獲得更多的數(shù)據(jù)不屬于數(shù)據(jù)治理。
90.Python安裝擴(kuò)展庫常用的是()工具。
A、pyinstaII
B、pip
C、pop
Dxpost
答案:B
91.數(shù)據(jù)故事話的“情景'不包括0。
A、還原情景
B、統(tǒng)計情景
C、移植情景
D、虛構(gòu)情景
答案:B
解析:“數(shù)據(jù)的故事化描述(Storytelling)”是指為了提升數(shù)據(jù)的可理解性、可
記憶性及可體驗性,將“數(shù)據(jù)”還原成關(guān)聯(lián)至特定的“情景”的過程。可見,數(shù)據(jù)
故事化也是數(shù)據(jù)轉(zhuǎn)換的表現(xiàn)形式之一,其本質(zhì)是以“故事講述”的方式展現(xiàn)“數(shù)
據(jù)的內(nèi)容”。數(shù)據(jù)故事化中的“情景”,可以是:1)還原情景:還原數(shù)據(jù)所計量和
記錄信息時的“原始情景”;2)移植情景:并非對應(yīng)信息的原始情景,而是將數(shù)據(jù)
移植到另一個真實發(fā)生的情景(如目標(biāo)用戶比較熟悉的情景)之中。3)虛構(gòu)情景:
數(shù)據(jù)的故事化描述中所選擇的情景并非為真實存在的情景,而是根據(jù)講述人的想
象力設(shè)計出來的“虛構(gòu)情景”。
92.Hadoop生態(tài)系統(tǒng)中,HBase是一種0。
A、分布式文件系統(tǒng)
B、數(shù)據(jù)倉庫
C、實時分布式數(shù)據(jù)庫
D、分布式計算系統(tǒng)
答案:C
解析:HBase是一個面向列的實時分布式數(shù)據(jù)庫。
93.以下代碼的輸出結(jié)果為()。
Importnumpyasnp
A二np.arange(9)
B=np.split(a,3)
Print(b)
A、[012345678]
B、[array([0,1,2]),array([3,4,5]),array([6,7,8])]
G[array([0,1,2,3]),array([4,5,6]),array([7,8])]
D、沒有正確答案
答案:B
解析:split將原數(shù)組等分成三個數(shù)組。
94.為了觀察測試Y與X之間的線性關(guān)系,X是連續(xù)變量,使用下列()比較適合。
A、散點(diǎn)圖
B、柱形圖
G直方圖
D、以上答案都不正確
答案:A
解析:散點(diǎn)圖反映了兩個變量之間的相互關(guān)系,在測試Y與X之間的線性關(guān)系時,
使用散點(diǎn)圖最為直觀。
95.下列哪個用于說明在RDD上執(zhí)行何種計算()。
A、分區(qū);
B、算子;
C、日志;
D、數(shù)據(jù)塊;
答案:B
解析:算子是Spark中定義的函數(shù),用于對RDD中的數(shù)據(jù)進(jìn)行操作、轉(zhuǎn)換和計算。
96.情感信息歸納常見的存在形式是()。
A、語料庫
B、情感文摘
C、情感評論
D、情感傾向
答案:B
解析:文本處理基礎(chǔ)知識
97.平滑圖像()處理可以采用RGB彩色模型。
A、直方圖均衡化
B、直方圖均衡化
C、加權(quán)均值濾波
D、中值濾波
答案:C
解析:平滑圖像處理可以采用RGB彩色加權(quán)均值濾波模型。
98.()計算框架源自一種分布式計算模型,其輸入和輸出值均為“鍵-值對”結(jié)構(gòu)。
AxMahout
B、MapReduce
C、Spark
D、Sqoop
答案:B
解析:MapReduce定義
99.下列關(guān)于HDFS的描述正確的是()
A、如果NameNode宕機(jī),SecondaryNameNode會接替它使集群繼續(xù)工作
B、HDFS集群支持?jǐn)?shù)據(jù)的隨機(jī)讀寫
C、NameNode磁盤元數(shù)據(jù)不保存Block的位置信息
D、DataNode通過長連接與NameNode保持通信
答案:C
解析:SecondaryNameNode并不是namenode節(jié)點(diǎn)的備份。所以A錯。;存儲在H
DFS集群上的數(shù)據(jù)是不支持隨機(jī)修改和刪除的,只支持追加,所以B錯;namenode
和datanode之間的通信是基于一種心跳機(jī)制。該機(jī)制不是長連接。是短連接形
式。每次發(fā)送一個數(shù)據(jù)包(自身狀態(tài)信息+數(shù)據(jù)塊信息)即可,所以D錯。
100.以下選項中,輸出結(jié)果是FaIse的是()。
A、?>5isnot4
B、>>>5!=4
G?>False!=0
D、?>5is5
答案:c
解析:False在內(nèi)置表達(dá)式中為0。
101.在抽樣估計中,隨著樣本容量的增大,樣本統(tǒng)計量接近總體參數(shù)的概率就越
大,這一性質(zhì)稱為()
A、無偏性
B、有效性
G及時性
D、一致性
答案:D
解析:一致性是指隨著樣本容量的增大,樣本統(tǒng)計量接近總體參數(shù)的概率就越大,
對于給定的偏差控制水平,兩者間偏差高于此控制水平,兩者間偏差高于此控制
水平的可能性越小。
102.Seikit-Learn中()可以實現(xiàn)評估回歸模型。
A、accuracy_score
B、mean_squared_error
C、f1_score
Dxauc
答案:B
解析:mean_squared_error均方誤差是用來評估回歸模型的指標(biāo),其他三個都是
評估分類模型的指標(biāo)。
103.下列場景中最有可能應(yīng)用人工智能的是()。
A、刷臉辦電
B、輿情分析
C、信通巡檢機(jī)器人
D、以上答案都正確
答案:D
解析:人工智能應(yīng)用的范圍很廣,包括:計算機(jī)科學(xué),金融貿(mào)易,醫(yī)藥,診斷,重工業(yè),
運(yùn)輸,遠(yuǎn)程通訊,在線和電話服務(wù),法律,科學(xué)發(fā)現(xiàn),玩具和游戲,音樂等諸多方面,
刷臉辦電、輿情分析、信通巡檢機(jī)器人當(dāng)然都能很好的應(yīng)用到人工智能,選D。
104.過濾式特征選擇與學(xué)習(xí)器(),包裹式特征選擇與學(xué)習(xí)器()。
A、相關(guān)相關(guān)
B、相關(guān)不相關(guān)
C、不相關(guān)相關(guān)
D、不相關(guān)不相關(guān)
答案:C
解析:過濾式方法先對數(shù)據(jù)集進(jìn)行特征選擇,然后再訓(xùn)練學(xué)習(xí)器,特征選擇過程與
后續(xù)學(xué)習(xí)器無關(guān)。包裹式特征選擇把最終將要使用的學(xué)習(xí)器的性能作為特征于集
的評價準(zhǔn)則。
105.()是數(shù)據(jù)庫管理系統(tǒng)運(yùn)行的基本工作單位。
A、事務(wù)
B、數(shù)據(jù)倉庫
C、數(shù)據(jù)單元
D、數(shù)據(jù)分析
答案:A
解析:在關(guān)系數(shù)據(jù)庫中,事務(wù)(Transaction)是保證數(shù)據(jù)一致性的重要手段,可以
幫助用戶維護(hù)數(shù)據(jù)的一致性。事務(wù)是用戶定義的一個數(shù)據(jù)庫操作序列,這些操作
要么全做,要么全不做,是一個不可分割的工作單位。
106.以下輸出的結(jié)果正確的是()。
Importnumpyasnp
X=np.arange(32).reshape((8,4))
Print(x[[-4,-2,-1,-7]])
A、[[16171819][24252627][28293031][4567]]
B、[[16171819][891011][4567][28293031]
G[[891011][4567]]
D、error
答案:A
解析:二維數(shù)組只傳入一個列表進(jìn)行索弓I時,是對行進(jìn)行選取。
107.DAGScheduler的作用是什么()
A、負(fù)責(zé)分配任務(wù);
B、負(fù)責(zé)調(diào)度Worker的運(yùn)行;
C、負(fù)責(zé)創(chuàng)建執(zhí)行計劃;
D、負(fù)責(zé)清理執(zhí)行完畢的任務(wù);
答案:C
解析:Scheduler模塊分為兩個部分DAGScheduler和TaskScheduler。DAGSche
duIer負(fù)責(zé)創(chuàng)建執(zhí)行計劃;TaskScheduler負(fù)責(zé)分配任務(wù)并調(diào)度Worker的運(yùn)行。
108.HBase使用一個()節(jié)點(diǎn)協(xié)調(diào)管理一個或多個regionserver從屬機(jī)。
A、namenode;
B、datanode;
C、jobtracker;
D、master;
答案:D
解析:Hbase中由一個Master節(jié)點(diǎn)負(fù)責(zé)協(xié)調(diào)管理一個或多個RegionServer從屬
機(jī)
109.數(shù)據(jù)安全不只是技術(shù)問題,還涉及到()o
A、人員問題
B、管理問題
C、行政問題
D、領(lǐng)導(dǎo)問題
答案:B
解析:數(shù)據(jù)安全不只是技術(shù)問題,還涉及到管理問題。
110.關(guān)于表述數(shù)據(jù)可視化在數(shù)據(jù)科學(xué)中重要地位說法中,下列不正確的是()。
A、視覺是人類獲得信息的最主要途徑
B、數(shù)據(jù)可視化處理可以洞察統(tǒng)計分析無法發(fā)現(xiàn)的結(jié)構(gòu)和細(xì)節(jié)
C、數(shù)據(jù)可視化處理結(jié)果的解讀對用戶知識水平的要求較高
D、可視化能夠幫助人們提高理解與處理數(shù)據(jù)的效率
答案:C
解析:視覺是人類獲得信息的最主要途徑,超過50%的人腦功能用于視覺信息的
處理。數(shù)據(jù)可視化處理可以洞察統(tǒng)計分析無法發(fā)現(xiàn)的結(jié)構(gòu)和細(xì)節(jié)。數(shù)據(jù)可視化處
理結(jié)果的解讀對用戶知識水平的要求較低??梢暬軌驇椭藗兲岣呃斫馀c處理
數(shù)據(jù)的效率。
111.以下算法中不屬于基于深度學(xué)習(xí)的圖像分割算法是()。
A、FCN
B、deepIab
C、Mask-RCNN
D、kNN
答案:D
解析:KNN為傳統(tǒng)機(jī)器學(xué)習(xí)方法并非深度學(xué)習(xí)方法。
112.下列關(guān)于文本分類的說法不正確的是()
A、文本分類是指按照預(yù)先定義的主題類別,由計算機(jī)自動地為文檔集合中的每個
文檔確定一個類別
B、文本分類大致可分為基于知識工程的分類系統(tǒng)和基于機(jī)器學(xué)習(xí)的分類系統(tǒng)
C、文本的向量形式一般基于詞袋模型構(gòu)建,該模型考慮了文本詞語的行文順序
D、構(gòu)建文本的向量形式可以歸結(jié)為文本的特征選擇與特征權(quán)重計算兩個步驟
答案:C
解析:詞袋模型是指將所有詞語裝進(jìn)一個袋子里,不考慮其詞法和語序的問題,
即每個詞語都是獨(dú)立的,所以該模型沒有考慮文本詞語的行文順序,C錯誤,選Co
113.關(guān)于函數(shù)的關(guān)鍵字參數(shù)使用限制,以下選項中描述錯誤的是()。
A、關(guān)鍵字參數(shù)必須位于位置參數(shù)之前
B、不得重復(fù)提供實際參數(shù)
C、關(guān)鍵字參數(shù)必須位于位置參數(shù)之后
D、關(guān)鍵字參數(shù)順序無限制
答案:A
解析:關(guān)鍵字參數(shù)必須位于位置參數(shù)之后。
114.Apriori算法的核心思想是()。
A、通過頻繁項集生成和情節(jié)的向下封閉檢測兩個階段來挖掘候選集
B、通過候選集生成和情節(jié)的向下封閉檢測兩個階段來挖掘頻繁項集
C、數(shù)據(jù)集中包含該項集的數(shù)據(jù)所占數(shù)據(jù)集的比例,度量一個集合在原始數(shù)據(jù)中出
現(xiàn)的頻率
D、若某條規(guī)則不滿足最小置信度要求,則該規(guī)則的所有子集也不滿足最小置信度
要求
答案:B
解析:Apriori算法是一種挖掘關(guān)聯(lián)規(guī)則的頻繁項集算法,其核心思想是通過候
選集生成和情節(jié)的向下封閉檢測兩個階段來挖掘頻繁項集。
115.與生成方法、半監(jiān)督SVM、圖半監(jiān)督學(xué)習(xí)等基于單學(xué)習(xí)機(jī)器利用未標(biāo)記數(shù)據(jù)
不同,基于分歧的方法(disagreement-basedmethods)使用多學(xué)習(xí)器,而學(xué)習(xí)器之
間的分歧(disagreement)對未標(biāo)記數(shù)據(jù)的利用至關(guān)重要。()是此類方法的重要代
表。
A、協(xié)同訓(xùn)練
B、組合訓(xùn)練
G配合訓(xùn)練
D、陪同訓(xùn)練
答案:A
解析:與生成方法'半監(jiān)督SVM、圖半監(jiān)督學(xué)習(xí)等基于單學(xué)習(xí)機(jī)器利用未標(biāo)記數(shù)
據(jù)不同,基于分歧的方法(disagreement-basedmethods)使用多學(xué)習(xí)器,而學(xué)習(xí)器
之間的分歧(disagreement)對未標(biāo)記數(shù)據(jù)的利用至關(guān)重要。協(xié)同是此類方法的重
要代表,它很好地利用了多視圖的相容互補(bǔ)性。
116.kNN最近鄰算法在什么情況下效果較好()。
A、樣本較多但典型性不好
B、樣本較少但典型性好
C、樣本呈團(tuán)狀分布
D、樣本呈鏈狀分布
答案:B
解析:K近鄰算法主要依靠的是周圍的點(diǎn),因此如果樣本過多,則難以區(qū)分,典型
性好的容易區(qū)分。
117.數(shù)據(jù)銷毀環(huán)節(jié)的安全技術(shù)措施有通過軟件或物理方式保障磁盤中存儲數(shù)據(jù)
的()、不可恢復(fù),如數(shù)據(jù)銷毀軟件、硬盤消磁機(jī)、硬盤粉碎機(jī)等。
A、暫時隔離
B、暫時刪除
C、永久刪除
D、不作處理
答案:C
解析:數(shù)據(jù)銷毀環(huán)節(jié)的安全技術(shù)措施有通過軟件或物理方式保障磁盤中存儲數(shù)據(jù)
的永久刪除'不可恢復(fù),如數(shù)據(jù)銷毀軟件、硬盤消磁機(jī)、硬盤粉碎機(jī)等。
118.以下代碼的輸出結(jié)果為()。
Importnumpyasnp
A=np.array([[1,2,3],[4,5,6]])
Print(np.append(a,[7,8,9]))
Av[[123][456H
B、[123456789]
G[[123][456][789]]
D、[[123555][4567891]
答案:B
解析:append()函數(shù)在沒有指定軸進(jìn)行操作時,默認(rèn)展平數(shù)組。
119.對于一個分類任務(wù),如果開始時神經(jīng)網(wǎng)絡(luò)的權(quán)重不是隨機(jī)賦值的,而是都設(shè)
成0,下面哪個敘述是正確的()
A、其他選項都不對
B、沒啥問題,神經(jīng)網(wǎng)絡(luò)會正常開始訓(xùn)練
C、神經(jīng)網(wǎng)絡(luò)可以訓(xùn)練,但是所有的神經(jīng)元最后都會變成識別同樣的東西
D、神經(jīng)網(wǎng)絡(luò)不會開始訓(xùn)練,因為沒有梯度改變
答案:C
解析:神經(jīng)網(wǎng)絡(luò)可以訓(xùn)練,但是所有的神經(jīng)元最后都會變成識別同樣的東西。
120.time庫的time.mktime(t)函數(shù)的作用是0。
A、將當(dāng)前程序掛起secs秒,掛起即暫停執(zhí)行
B、將struct」ime對象變量t轉(zhuǎn)換為時間戳
C、返回一個代表時間的精確浮點(diǎn)數(shù),兩次或多次調(diào)用,其差值用來計時
D、根據(jù)format格式定義,解析字符串t,返回struct_time類型時間變量
答案:B
解析:mktime(t)函數(shù)的作用是將結(jié)構(gòu)化時間變量t轉(zhuǎn)換為時間戳。
121.以下()不是NoSQL數(shù)據(jù)庫。
A、MongoDB
B\BigTabIe
C、HBase
D、Access
答案:D
解析:NoSQL是指那些非關(guān)系型的、分布式的、不保證遵循ACID原則的數(shù)據(jù)存
儲系統(tǒng)。典型的NoSQL產(chǎn)品有DangaInteractive的Memcached、10gen的Mongo
DB\Facebook的Cassandra、Google的BigTable及其開源系統(tǒng)HBase、Amazon
的Dynamo、Apache的TokyoCabinet、CouchDB和Redis等。
122.關(guān)于層次聚類算法:⑴不斷重復(fù)直達(dá)達(dá)到預(yù)設(shè)的聚類簇數(shù)⑵不斷合并距離
最近的聚類簇⑶對初始聚類簇和相應(yīng)的距離矩陣初始化⑷對合并得到的聚類
簇進(jìn)行更新。正確的執(zhí)行順序為()。
A、1234
B、1324
C、3241
D、3412
答案:C
解析:層次聚類算法的過程是:
對初始聚類簇和相應(yīng)的距離矩陣初始化;不斷合并距離最近的聚類簇;對合并得
到的聚類簇進(jìn)行更新;不斷重復(fù)直達(dá)達(dá)到預(yù)設(shè)的聚類簇數(shù)。
123.執(zhí)行以下代碼段
MotorcycIes=['honda','yamaha','suzuki']
MotorcycIes.append('ducati')
MotorcycIes.pop(1)
Print(motorcycIes)
時輸出為0。
A、['honda','yamaha','suzuki']
B、['yamaha*,suzuki','ducati']
Cx['honda',yamaha1,suzuki','ducati1]
D、['honda','suzuki',1ducati']
答案:D
解析:pop出第一位置的元素
124.Windows系統(tǒng)下安裝Matplotiib的命令是()。
AxpythonpipinstaIImatpIotIib
B、python-mpipinstaIImatpIotIib
C、sudoapt-getinstaIIpython-matpIotIib
D、sudopython-mpipinstaIImatplotIib
答案:B
解析:A選項缺少參數(shù)'-m',C選項是Linux系統(tǒng)下安裝命令,D選項是MacOSX
系統(tǒng)下安裝命令。
125.以下()屬于DMM(數(shù)據(jù)管理成熟度模型)中的關(guān)鍵過程域“數(shù)據(jù)戰(zhàn)略”。
A、數(shù)據(jù)戰(zhàn)略制定
B、業(yè)務(wù)術(shù)語表
C、數(shù)據(jù)質(zhì)量評估
D、過程質(zhì)量保障
答案:A
解析:數(shù)據(jù)戰(zhàn)略制定屬于DMM(數(shù)據(jù)管理成熟度模型)中的關(guān)鍵過程域“數(shù)據(jù)戰(zhàn)略”o
126.深度學(xué)習(xí)是當(dāng)前很熱門的機(jī)器學(xué)習(xí)算法,在深度學(xué)習(xí)中,涉及到大量的矩陣
相乘,現(xiàn)在需要計算三個稠密矩陣A,B,C的乘積ABC,假設(shè)三個矩陣的尺寸分別為
m*n,n*p,p*q,且m<n<p<q,以下計算順序效率最高的是(_)。
A、(AB)C
B、AC(B)
C、A(BC)
D、所有效率都相同
答案:A
解析:B選項中A的列數(shù)與C的行數(shù)不相等,無法相乘,B選項排除。A選項需要
的乘法次數(shù)為m*n*p+m*p*q,C選項需要的乘法次數(shù)為n*p*q+m*n*q,由于m<n<p<
q,顯然A運(yùn)算次數(shù)更少。
127.ordinalencoder將屬性轉(zhuǎn)化為()。
A、獨(dú)熱編碼
B、附帶特性的數(shù)字
C、二進(jìn)制編碼
D、ASCII碼
答案:B
解析:ordinalencoder的作用是數(shù)值化,但是不增加列數(shù)。
128.下列關(guān)于大數(shù)據(jù)的分析理念的說法中,錯誤的是0。
A、在數(shù)據(jù)基礎(chǔ)上傾向于全體數(shù)據(jù)而不是抽樣數(shù)據(jù)
B、在分析方法上更注重相關(guān)分析而不是因果分析
C、在分析效果上更追求效率而不是絕對精確
D、在數(shù)據(jù)規(guī)模上強(qiáng)調(diào)相對數(shù)據(jù)而不是絕對數(shù)據(jù)
答案:D
解析:在大數(shù)據(jù)的分析理念中,數(shù)據(jù)規(guī)模上強(qiáng)調(diào)絕對數(shù)據(jù)而不是相對數(shù)據(jù)。
129.以下哪個是正確的運(yùn)行結(jié)果()。
Importnumpyasnpa=np.logspace(0,9,10,base=2)
Print(a)
A、[1357]
B、[.28.256.512.]
G[0123456789]
D、[010]
答案:B
解析:np.logspace()計算時可以先求相同參數(shù)的Iinspace結(jié)果,然后對每個元
素做以base參數(shù)為底的懸運(yùn)算。此處為以2為底,依此做0-9的塞運(yùn)算。
130.np.exp(x).round⑸的結(jié)果是2.71828,x的值是()。
A、0
B、1
C、2
D、2.71828
答案:B
解析:e的1次方。
131.以下關(guān)于圖像的平滑處理錯誤的說法是()。
A、圖像的平滑處理是指在盡量保留原有信息的情況下,過濾掉圖像內(nèi)部的噪音
B、圖像平滑處理會對圖像中與周圍像素點(diǎn)的像素值差異較大的像素點(diǎn)進(jìn)行處理,
將其值調(diào)整為周圍像素點(diǎn)像素值的近似值
C、講過平滑處理后圖像質(zhì)量會下降
D、以上答案都正確
答案:C
解析:圖像的平滑處理不會損壞圖像的輪廓及邊緣等重要信息,使得圖像清晰視
覺效果好。
132.在抽樣方法中,當(dāng)合適的樣本容量很難確定時,可以使用的抽樣方法是:Oo
A、有放回的簡單隨機(jī)抽樣
B、無放回的簡單隨機(jī)抽樣
C、分層抽樣
D、漸進(jìn)抽樣
答案:D
解析:在抽樣方法中,當(dāng)合適的樣本容量很難確定時,可以使用的抽樣方法是漸進(jìn)
抽樣。
133.數(shù)據(jù)安全技術(shù)保護(hù)與信息系統(tǒng)“三同步”原則不包括以下哪項()。
A、同步規(guī)劃
B\同步建設(shè)
C、同步使用
D、同步運(yùn)維
答案:D
解析:數(shù)據(jù)安全技術(shù)保護(hù)與信息系統(tǒng)包含同步規(guī)則、同步建設(shè)、同步適用三項原
則。
134.如果要將讀寫位置移動到文件開頭,需要使用的命令是()。
A、close
B、seek(0)
Cxtruncate
D、write('stuff')
答案:B
解析:seek(0)指移動指針到0位置即開頭。
135.以下代碼的輸出結(jié)果為()。
Importnumpyasnp
A=np.array([[10,7,4],[3,2,1]])
Print(np.percentiIe(a,50))
A、[[1074][321]]
B、3.5
C、[]
D、[7.2.]
答案:B
解析:percentiIe是百分位數(shù),此處是50%,即中位數(shù),因為數(shù)組個數(shù)為偶數(shù)個,
因此中位數(shù)為3和4的均值。
136.a=np.array([[0,0,0],[10,10,10],[20,20,20],[30,30,30]])
B=np.array([1,2,3]),a+b的輸出結(jié)果為0。
A、[[123][101010][202020][303030]]
B、[[123][000][101010][202020][303030]]
G[[123][111213][212223][313233]]
D、無法計算
答案:c
解析:在Numpy中兩個維度不同的數(shù)組進(jìn)行計算時會自動觸發(fā)Numpy的廣播機(jī)制,
原公式會轉(zhuǎn)換為[[1,2,3],[1,2,3],[1,2,3],[1,2,3]]+[[0,0,0],[10,10,10],
[20,20,20],[30,30,30]]0
137.()將觀測值分為相同數(shù)目的兩部分,當(dāng)統(tǒng)計結(jié)果為非對稱分布時,經(jīng)常使用
它。
A、眾數(shù)
B、標(biāo)準(zhǔn)差
C、中位數(shù)
D、均值
答案:C
解析:中位數(shù)是指一組數(shù)據(jù)排序后處于中間位置的變量值。
138.關(guān)于0LAP的特性,下面正確的是:(1)快速性⑵可分析性⑶多維性(4)信息
性⑸共享性()
A、(1)(2)(3)
B、(2)(3)(4)
C、(1)(2)(3)(4)
Dv(1)(2)(3)(4)(5)
答案:D
解析:OLAP具有快速性、可分析性、多維性、信息性、共享性等特征。
139.()是指針對用戶非常明確的數(shù)據(jù)查詢和處理任務(wù),以高性能和高吞吐量的方
式實現(xiàn)大眾化的服務(wù),是數(shù)據(jù)價值最重要也是最直接的發(fā)現(xiàn)方式。
A、數(shù)據(jù)服務(wù)
B、數(shù)據(jù)分析
C、數(shù)據(jù)治理
D、數(shù)據(jù)應(yīng)用
答案:A
解析:數(shù)據(jù)服務(wù)指針對用戶非常明確的數(shù)據(jù)查詢和處理任務(wù),以高性能和高吞吐
量的方式實現(xiàn)大眾化的服務(wù),是數(shù)據(jù)價值最重要也是最直接的發(fā)現(xiàn)方式。
140.數(shù)據(jù)斐產(chǎn)維護(hù)是指為保證數(shù)據(jù)質(zhì)量,對數(shù)據(jù)進(jìn)行()等處理的過程。
A、更正
B、刪除
C、補(bǔ)充錄入
D、以上答案都正確
答案:D
解析:數(shù)據(jù)資產(chǎn)維護(hù)是指為保證數(shù)據(jù)質(zhì)量,對數(shù)據(jù)進(jìn)行更正、刪除、補(bǔ)充錄入等
處理的過程。
141.SparkJob默認(rèn)的調(diào)度模式是()。
A、FIFO
B、FAIR
G無
D、運(yùn)行時指定
答案:A
解析:Spark中的調(diào)度模式主要有兩種FIFO和FAIR。默認(rèn)情況下Spark的調(diào)度
模式是FIFO(先進(jìn)先出)。
142.以下可以應(yīng)用關(guān)鍵詞提取的是()。
A、文獻(xiàn)檢索
B、自動文摘
C、文本聚類/分類
D、以上答案都正確
答案:D
解析:在自然語言處理領(lǐng)域,處理海量的文本文件最關(guān)鍵的是要把用戶最關(guān)心的
問題提取出來。
143.()是實現(xiàn)數(shù)據(jù)戰(zhàn)略的重要保障。
A、數(shù)據(jù)管理
B、數(shù)據(jù)分析
C、數(shù)據(jù)治理
D、數(shù)據(jù)規(guī)劃
答案:C
解析:從DMM模型可以看出,數(shù)據(jù)治理是實現(xiàn)數(shù)據(jù)戰(zhàn)略的重要保障。數(shù)據(jù)管理的
是指通過管理“數(shù)據(jù)”實現(xiàn)組織機(jī)構(gòu)的某種業(yè)務(wù)目的。然而,數(shù)據(jù)治理則指如何
確?!皵?shù)據(jù)管理”的順利、有效'科學(xué)地完成。
144.ggpIot2的核心理念是()o
A、繪圖與數(shù)據(jù)分離
B、結(jié)構(gòu)與數(shù)據(jù)分離
C、繪圖與結(jié)構(gòu)分離
D、繪圖與數(shù)據(jù)和結(jié)構(gòu)分離
答案:A
解析:ggplot2的核心理念是將繪圖與數(shù)據(jù)分離,數(shù)據(jù)相關(guān)的繪圖與數(shù)據(jù)無關(guān)的
繪圖分離。
145.最早被提出的循環(huán)神經(jīng)網(wǎng)絡(luò)門控算法是什么()
A、長短期記憶網(wǎng)絡(luò)
B、門控循環(huán)單元網(wǎng)絡(luò)
C、堆疊循環(huán)神經(jīng)網(wǎng)絡(luò)
D、雙向循環(huán)神經(jīng)網(wǎng)絡(luò)
答案:A
解析:LSTM是最早被提出的循環(huán)神經(jīng)網(wǎng)絡(luò)門控算法。長短期記憶網(wǎng)絡(luò)(Long-Sho
rtTermMemory,LSTM)論文首次發(fā)表于1997年11月15日。門控循環(huán)單元網(wǎng)絡(luò)(G
RU)論文發(fā)表于2014年。堆疊循環(huán)神經(jīng)網(wǎng)絡(luò)(SRNN)論文發(fā)表于2017年。雙向循
環(huán)神經(jīng)網(wǎng)絡(luò)(BidirectionaIrecurrentneuraInetworks)發(fā)表于1997年11月。
146.在其他條件不變的前提下,以下哪種做法容易引起機(jī)器學(xué)習(xí)中的過擬合問題
()o
A、增加訓(xùn)練集量
B、減少神經(jīng)網(wǎng)絡(luò)隱藏層節(jié)點(diǎn)數(shù)
C、刪除稀疏的特征
D、SVM算法中使用高斯核/RBF核代替線性核
答案:D
解析:神經(jīng)網(wǎng)絡(luò)減少隱藏層節(jié)點(diǎn),就是在減少參數(shù),只會將訓(xùn)練誤差變高,不會導(dǎo)
致過擬合。D選項中SVM高斯核函數(shù)比線性核函數(shù)模型更復(fù)雜,容易過擬合。
147.下列的哪種方法可以用來降低深度學(xué)習(xí)模型的過擬合問題()。
1增加更多的數(shù)據(jù)
2使用數(shù)據(jù)擴(kuò)增技術(shù)(dataaugmentation)
3使用歸納性更好的架構(gòu)
4正規(guī)化數(shù)據(jù)
5降低架構(gòu)的復(fù)雜度
A、145
B、123
C、1345
D、所有項目都有用
答案:D
解析:增多數(shù)據(jù)、數(shù)據(jù)擴(kuò)增'正規(guī)化數(shù)據(jù)'選擇歸納性更好、復(fù)雜度更低的架構(gòu)
均可以用來降低深度學(xué)習(xí)模型的過擬合問題。
148.神經(jīng)網(wǎng)絡(luò)感知機(jī)只有(_)神經(jīng)元進(jìn)行激活函數(shù)處理,即只擁有一層功能神經(jīng)
兀。
A、輸出層
B、輸入層
G感知層
D、網(wǎng)絡(luò)層
答案:A
解析:神經(jīng)網(wǎng)絡(luò)感知機(jī)只有輸入層神經(jīng)元進(jìn)行激活函數(shù)處理,即只擁有一層功能
神經(jīng)元。
149.下列不屬于transform操作的是()
Axmap
BvfiIter
CxsampIe
Dxcount
答案:D
解析:Transformation常用函數(shù)為map、filter、fIatMapxsample、union、j
oin寺。
150.下列方法中,用于獲取當(dāng)前目錄的是()。
A、open
Bvwrite
GGetpwd
D、read
答案:C
解析:用于獲取當(dāng)前目錄的方法是Getcwd。
151.Scipy中計算偏度的函數(shù)是哪個()。
Axscipy.stats,skewtest()
B、scipy.stats,norm,rvs()
C、scipy.stats,kurtosis()
D、scipy.stats,poisson.rvs0
答案:A
解析:利用stats.skewtest()計算偏度,有兩個返回值,第二個為p-value,即數(shù)
據(jù)集服從正態(tài)分布的概率(0~1)o
152.相對于HadoopMapReduc
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 二零二五年度產(chǎn)業(yè)園品牌推廣及市場合作合同3篇
- 2025年度濟(jì)南旅游開發(fā)合作合同2篇
- 2025版文化藝術(shù)行業(yè)崗位勞動合同規(guī)范匯編3篇
- 二零二五年度冠梁材料供應(yīng)與安裝承包合同3篇
- 二零二五年度房屋買賣合同:針對共有產(chǎn)權(quán)及子女入學(xué)權(quán)益3篇
- 2025年度版權(quán)許可使用合同:數(shù)字音樂平臺著作權(quán)授權(quán)協(xié)議2篇
- 皮帶修復(fù)課程設(shè)計
- 海南外國語職業(yè)學(xué)院《西方思想文化專題研究》2023-2024學(xué)年第一學(xué)期期末試卷
- 海南外國語職業(yè)學(xué)院《環(huán)保設(shè)備基礎(chǔ)》2023-2024學(xué)年第一學(xué)期期末試卷
- 海南體育職業(yè)技術(shù)學(xué)院《建筑力學(xué)(一)》2023-2024學(xué)年第一學(xué)期期末試卷
- 蘇教版六年級科學(xué)上冊復(fù)習(xí)資料-已整理
- 科勒衛(wèi)浴行業(yè)分析
- 湖南省邵陽市初中聯(lián)考2023-2024學(xué)年九年級上學(xué)期期末地理試題
- 美術(shù)概論課件
- 綠籬移栽施工方案
- 機(jī)器人論文3000字范文
- 中國保險行業(yè)協(xié)會-2022年度商業(yè)健康保險經(jīng)營數(shù)據(jù)分析報告
- 新人教版小學(xué)五年級數(shù)學(xué)上冊知識點(diǎn)歸納總結(jié)
- 四年級上冊口算、豎式計算、脫式計算
- 腎內(nèi)科降低透析器凝血發(fā)生率品管圈PDCA成果匯報
- 回族做禮拜的念詞集合6篇
評論
0/150
提交評論