大數(shù)據(jù)分析與應(yīng)用智慧樹知到答案章節(jié)測試2023年_第1頁
大數(shù)據(jù)分析與應(yīng)用智慧樹知到答案章節(jié)測試2023年_第2頁
大數(shù)據(jù)分析與應(yīng)用智慧樹知到答案章節(jié)測試2023年_第3頁
大數(shù)據(jù)分析與應(yīng)用智慧樹知到答案章節(jié)測試2023年_第4頁
大數(shù)據(jù)分析與應(yīng)用智慧樹知到答案章節(jié)測試2023年_第5頁
已閱讀5頁,還剩12頁未讀 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

第一章測試大數(shù)據(jù)泛指巨量的()。

A:數(shù)組集

B:字符集

C:數(shù)據(jù)集

D:數(shù)字集

答案:C數(shù)據(jù)分析指的是用適當?shù)模ǎκ占瘉淼拇罅繑?shù)據(jù)進行分析,提取有用信息并形成結(jié)論。

A:統(tǒng)計分析方法

B:系統(tǒng)分析方法

C:定性與定量方法

D:概率分析方法

答案:A瀏覽數(shù)據(jù)這一步驟可以通過對大數(shù)據(jù)進行()來實現(xiàn)。

A:簡易化

B:可視化

C:流程化

D:分析化

答案:BGartner將大數(shù)據(jù)定義為是需要新處理模式才能具有更強的()以及高增長率和多樣化的信息資產(chǎn)。

A:洞察發(fā)現(xiàn)力

B:決策力

C:流程優(yōu)化能力

D:數(shù)據(jù)處理能力

答案:ABC我們通常用“4V”來反映大數(shù)據(jù)的特點,4V是指()。

A:Variety

B:Velocity

C:Valid

D:Various

答案:AB大數(shù)據(jù)分析可以應(yīng)用在那些領(lǐng)域()。

A:農(nóng)業(yè)領(lǐng)域

B:醫(yī)療衛(wèi)生領(lǐng)域

C:商業(yè)領(lǐng)域

D:交通運輸領(lǐng)域

答案:ABCD大數(shù)據(jù)分析的過程包括()。

A:數(shù)據(jù)優(yōu)化

B:數(shù)據(jù)準備

C:數(shù)據(jù)理解

D:數(shù)據(jù)處理

答案:BC數(shù)據(jù)只要有足夠的規(guī)模就可以稱為大數(shù)據(jù)。()

A:對

B:錯

答案:A大數(shù)據(jù)分析是大數(shù)據(jù)到知識,再到信息的關(guān)鍵步驟。()

A:錯

B:對

答案:A大數(shù)據(jù)分析模型用于描述數(shù)據(jù)之間的關(guān)系。如確定自變量、因變量,進而通過聚類、回歸等方法確定其關(guān)系。()

A:錯

B:對

答案:B第二章測試數(shù)據(jù)倉庫的定義于哪一年提出()。

A:2015

B:1991

C:1902

D:2002

答案:B符合選擇建立數(shù)據(jù)倉庫平臺的公認標準的是()。

A:是否支持串聯(lián)操作

B:數(shù)據(jù)庫對大數(shù)據(jù)量的支持能力

C:是否支持對數(shù)據(jù)庫的管理

D:是否提供支持少量數(shù)據(jù)的數(shù)據(jù)加載

答案:B建立數(shù)據(jù)倉庫的首要步驟是()。

A:構(gòu)建模型

B:數(shù)據(jù)倉庫管理

C:確認主題

D:數(shù)據(jù)預處理

答案:C數(shù)據(jù)倉庫的數(shù)據(jù)模型進行邏輯建模的分析角度是()。

A:邏輯分析

B:經(jīng)濟分析

C:政治分析

D:業(yè)務(wù)分析

答案:D建立數(shù)據(jù)倉庫的選擇平臺是()。

A:分析工具

B:數(shù)據(jù)庫

C:維度表

D:建模工具

答案:ABD建立數(shù)據(jù)倉庫的步驟是()。

A:選擇平臺

B:確認主題

C:數(shù)據(jù)清洗

D:數(shù)據(jù)傳輸

答案:ABCD符合多維度數(shù)據(jù)模型構(gòu)成的是()。

A:維度表

B:測量表

C:事實表

D:電子表

答案:AC屬于衡量業(yè)務(wù)性能指標的是()。

A:地點編號

B:銷售額

C:時間

D:銷售量

答案:BD數(shù)據(jù)倉庫的邏輯數(shù)據(jù)模型是一維結(jié)構(gòu)的數(shù)據(jù)視圖。()

A:對

B:錯

答案:B元數(shù)據(jù)是對數(shù)據(jù)倉庫中數(shù)據(jù)的描述信息。()

A:對

B:錯

答案:A第三章測試下列哪項屬于隨機抽樣的缺點?()

A:樣本中個體數(shù)量過多,效率低下

B:抽樣方法不具有科學性

C:需要將樣本分為不同類別

D:樣本不具有代表性

答案:A整群抽樣中將總體各單位歸并成若干個()的集合,成為群,然后以群為單位抽取樣本。

A:可以交叉,互不重復

B:互不交叉,可以重復

C:互不交叉,互不重復

D:可以交叉,可以重復

答案:C數(shù)據(jù)抽樣和過濾的相似之處是它們的目的都是為了減少要處理的數(shù)據(jù)量。()

A:對

B:錯

答案:A以下哪種方法適用于原始數(shù)據(jù)的取值范圍已經(jīng)確定的情況?()

A:log函數(shù)轉(zhuǎn)換

B:反正切函數(shù)

C:0-1標準化

D:Z-score標準化

答案:C數(shù)據(jù)有那些性質(zhì)?()

A:一致性

B:完整性

C:時效性

D:精確性

答案:ABCD數(shù)據(jù)缺陷有哪些類型?()

A:非規(guī)范化數(shù)據(jù)

B:錯誤數(shù)據(jù)

C:噪聲數(shù)據(jù)

D:缺失數(shù)據(jù)

答案:ACD先將總體的觀察按某一順序號分為n個部分,再從每一部分各抽取一定數(shù)量的觀察組成樣本,屬于哪種抽樣方式?()

A:隨機抽樣

B:按比例抽樣

C:系統(tǒng)抽樣

D:整群抽樣

答案:C數(shù)據(jù)清洗浪費時間,是沒有意義的。()

A:對

B:錯

答案:B數(shù)據(jù)標準化就是為了方便數(shù)據(jù)的下一步處理,而對數(shù)據(jù)進行的等比例縮放。()

A:錯

B:對

答案:B下列屬于邏輯錯誤清洗的是()

A:去重

B:修正矛盾內(nèi)容

C:改正格式錯誤

D:去除不合理值

答案:ABD第四章測試關(guān)于經(jīng)濟計量模型進行預測出現(xiàn)誤差的原因,正確的說法是()。

A:只有隨機因素

B:只有系統(tǒng)因素

C:既有隨機因素,又有系統(tǒng)因素

D:其他三個選項都不正確

答案:C在多元線性回歸模型中,若某個解釋變量對其余解釋變量的判定系數(shù)接近于1,則表明模型中存在()。

A:高擬合優(yōu)度

B:序列相關(guān)

C:異方差性

D:多重共線性

答案:DLogistic回歸系數(shù)與優(yōu)勢比OR的關(guān)系為()。

A:其他三個選項均正確

B:β<0等價于OR<1

C:β=0等價于OR=1,β>0等價于OR>1

D:β>0等價于OR>1

答案:ALogistic回歸可用于()。

A:校正混雜因素

B:其他三個選項均正確

C:影響因素分析

D:預測

答案:BLogistic回歸中自變量如為多分類變量,宜將其按啞變量處理,與其他變量進行變量篩選時可用()。

A:軟件自動篩選的逐步法

B:應(yīng)將幾個啞變量作為一個因素,整體進出回歸方程

C:軟件自動篩選的后退法

D:軟件自動篩選的前進法

答案:B在由n=30的一組樣本估計的、包含3個解釋變量的線性回歸模型中,計算得多重決定系數(shù)為0.8500,則調(diào)整后的多重決定系數(shù)為()。

A:0.8655

B:0.8327

C:0.8389

D:0.8603

答案:B半對數(shù)模型中,參數(shù)1的含義是()。

A:X的相對變化,引起Y的期望值絕對量變化

B:Y關(guān)于X的彈性

C:Y關(guān)于X的邊際變化

D:X的絕對量變化,引起Y的絕對量變化

答案:A回歸變差,或回歸平方和是指()。

A:被解釋變量的實際值與平均值的離差平方和

B:被解釋變量的回歸值與平均值的離差平方和

C:解釋變量變動所引起的被解釋變量的變差

D:被解釋變量的總變差與剩余變差之差

答案:BCD剩余變差是指()。

A:被解釋變量的變差中,回歸方程不能做出解釋的部分

B:被解釋變量的總變差與回歸平方和之差

C:被解釋變量的實際值與回歸值的離差平方和

D:隨機因素影響所引起的被解釋變量的變差解釋變量的實際值與平均值的離差平方和

答案:ABCD參數(shù)的估計量具備有效性是指()。

A:Var()=0

B:

C:Var()為最小

D:為最小

答案:C第五章測試以下不屬于數(shù)據(jù)挖掘軟件的是()

A:SPSSModeler;

B:ApacheSpark;

C:Weka;

D:Knime;

答案:B購物籃分析中,數(shù)據(jù)是以()的形式呈現(xiàn)

A:對稱二元變量;

B:自變量;

C:不對稱二元變量;

D:布爾變量;

答案:C一個關(guān)聯(lián)規(guī)則同時滿足最小支持度和最小置信度,我們稱之為()

A:關(guān)聯(lián)規(guī)則;

B:強規(guī)則;

C:弱規(guī)則;

D:簡潔規(guī)則;

答案:B在回歸與相關(guān)分析中,因變量值隨自變量值的增大(減小)而減?。ㄔ龃螅┑默F(xiàn)象叫做()

A:負相關(guān);

B:間接相關(guān);

C:正相關(guān);

D:直接相關(guān);

答案:A給定關(guān)聯(lián)規(guī)則A-B,意味著:若A發(fā)生,B也會發(fā)生。()

A:錯

B:對

答案:A不滿足給定評價度量的關(guān)聯(lián)規(guī)則是無趣的()

A:對

B:錯

答案:B頻繁閉項集可用來無損壓縮頻繁項集。()

A:錯

B:對

答案:B下面購物籃能夠提取的最大項集和最小項集的數(shù)量是多少()。ID購買項:1.牛奶,啤酒、2.面包,黃油,牛奶、3.牛奶,尿布,餅干、4.面包,黃油,餅干、5.啤酒,餅干,尿布、6.牛奶,尿布,面包,黃油、7.面包,黃油,尿布、8.啤酒,尿布、9.牛奶,尿布,面包,黃油、10.啤酒,餅干

A:2;

B:1;

C:4;

D:3;

答案:CD關(guān)聯(lián)規(guī)則的評價度量主要有()

A:頻繁度;

B:支持度;

C:置信度;

D:飽和度;

答案:BC關(guān)聯(lián)分析中表示關(guān)聯(lián)關(guān)系的方法主要有()

A:關(guān)聯(lián)規(guī)則;

B:項集;

C:單項集;

D:強關(guān)聯(lián)規(guī)則;

答案:AB第六章測試樸素貝葉斯算法是貝葉斯算法中最簡單的一個算法,假設(shè)它里邊的各個類條件是()。

A:獨立的

B:交叉的

C:相似的

D:相同的

答案:A關(guān)于樸素貝葉斯算法,下列說法正確的是()。

A:有著堅實的數(shù)學理論基礎(chǔ),分類效果比其他分類器好

B:通過先驗概率的結(jié)果,對后驗概率不斷地調(diào)整

C:對數(shù)據(jù)的缺失值不敏感,所需估計的參數(shù)也比較少

D:假設(shè)樣本各屬性之間是相互獨立的

答案:D隨機森林的訓練過程分為?()。

A:決策過程

B:生成過程

C:生長過程

D:投票過程

答案:CD影響隨機森林分類性能的主要因素()。

A:森林中決策樹的相關(guān)度

B:決策樹的分類算法

C:決策樹的數(shù)量

D:單顆決策樹的分類強度

答案:AD隨機森林結(jié)合策略有哪些?()。

A:迭代法

B:加權(quán)平均法

C:投票法

D:簡單平均法

答案:BCD人工神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)包括?()。

A:隱含層

B:隱藏層

C:輸出層

D:輸入層

答案:ACD單層神經(jīng)網(wǎng)絡(luò)有幾層?()。

A:4

B:2

C:1

D:3

答案:B神經(jīng)網(wǎng)絡(luò)的各層之間的初始參數(shù)是如何設(shè)定的?()。

A:人為設(shè)定

B:隨機產(chǎn)生

C:模型規(guī)定

D:算法設(shè)定

答案:B深度學習模型有哪些?()。

A:深度神經(jīng)網(wǎng)絡(luò)

B:生成-對抗神經(jīng)網(wǎng)絡(luò)

C:循環(huán)神經(jīng)網(wǎng)絡(luò)

D:卷積神經(jīng)網(wǎng)絡(luò)

答案:ABCD神經(jīng)網(wǎng)絡(luò)模型構(gòu)思來源于對人腦的模擬。()

A:對

B:錯

答案:A第七章測試聚類分析是將樣品或變量按照它們在性質(zhì)上的什么進行分類的()。

A:親疏程度

B:距離

C:簇

D:密度

答案:A哪個方法不是類間距離的度量方法()。

A:最近距離法

B:最遠距離法

C:重心距離

D:歐式距離

答案:D閔可夫斯基距離λ可以取哪些值()。

A:無窮大

B:正數(shù)

C:其他三個選項均正確

D:負數(shù)

答案:C關(guān)于聚類分析下列說法正確的是()。

A:系統(tǒng)聚類屬于有監(jiān)督分類

B:K-means屬于無監(jiān)督分類

C:系統(tǒng)幾類并不適合數(shù)據(jù)量很大的情形

D:通過K-means聚類和系統(tǒng)聚類,可以直接輸出分為n類和數(shù)值n

答案:BC根據(jù)簇之間的關(guān)系,聚類分析可以分為()。

A:指數(shù)聚類

B:層次型聚類

C:重疊聚類

D:劃分型聚類

答案:BCD哪些屬性可以通過取值的差來衡量相異度()。

A:對稱屬性

B:區(qū)間屬性

C:非對稱屬性

D:比率屬性

答案:BD聚類與分類一樣,具有預測功能。()

A:錯

B:對

答案:AK-Means算法需要用初始隨機種子點來做,不同起點結(jié)果不同,可能導致算法陷入局部最優(yōu)。()

A:對

B:錯

答案:ADBSCAN是基于密度的噪聲應(yīng)用空間聚類。()

A:錯

B:對

答案:B緊密度和分離度是聚類分析評價的兩個原則。()

A:錯

B:對

答案:B第八章測試待定系數(shù)a稱為灰色作用量()。

A:錯

B:對

答案:A馬爾科夫過程是具有馬爾科夫性質(zhì)的離散隨機過程。()。

A:對

B:錯

答案:A在馬爾科夫過程中,在給定當前信息或知識時,過去對于預測未來是有關(guān)的。()。

A:對

B:錯

答案:B馬爾科夫分析法是研究隨機事件變化趨勢的一種方法。()。

A:錯

B:對

答案:B預測分析的基本思路為:列出并分析現(xiàn)有數(shù)據(jù)-尋找計算手段-得出結(jié)論。()。

A:對

B:錯

答案:A預測的方法可以分為定性預測方法和定量預測方法。()。

A:對

B:錯

答案:A在諸多的灰色模型中,哪種模型最常用?()。

A:GM(2,1)

B:GM(1,1)

C:GM(2,2)”

D:GM(1,2)

答案:B馬爾科夫性中,n+1時刻的狀態(tài)的條件概率只依存哪種時刻的狀態(tài)()。

A:n

B:n+1

C:n-1

D:n+2

答案:A以下哪幾點是預測分析的關(guān)鍵點()。

A:數(shù)據(jù)的數(shù)量

B:數(shù)據(jù)的相關(guān)性

C:數(shù)據(jù)的全面性

D:數(shù)據(jù)在時間上的持續(xù)性

答案:ACD預測分析主要對以下哪些方面的作用()。

A:自適應(yīng)管理

B:決策管理

C:績效管理

D:成本控制

答案:ABCD第九章測試基于聚類的離群點檢測可以分為幾類?()。

A:五類

B:四類;

C:三類;

D:兩類;

答案:D基于聚類的離群點檢測有什么缺點?()。

A:可能同時發(fā)現(xiàn)簇和離群點;

B:時間復雜度是線性或接近線性的;

C:產(chǎn)生的離群點集非常依賴所用的簇的個數(shù);

D:空間復雜度是線性或接近線性的;

答案:C基于密度的離群點檢測優(yōu)點是?()。

A:計算的時間復雜度一直很低;

B:可以處理擁有不同密度區(qū)域的數(shù)據(jù)集;

C:參數(shù)選擇容易;

D:不會忽視基于簇的離群點的存在

答案:B在基于聚類的離群點檢測中,對象是否被認為是離群點可能高度依賴于簇的個數(shù)。()

A:對

B:錯

答案:A基于聚類的離群點分析方法,在已有聚類結(jié)果的基礎(chǔ)上,計算量小,效率高,但是它的有效性也非常依賴聚類的結(jié)果。()

A:對

B:錯

答案:A對于基于原型的聚類,評估對象屬于簇的程度主要有兩種方法:一是度量對象到簇原型的距離,二是考慮到簇具有不同的密度,可以度量簇到原型的相對距離。()

A:錯

B:對

答案:B對于基于距離的離群點分析方法,其基本思想是一個對象如果遠離大部分其它對象,那么它是離群的。()

A:錯

B:對

答案:B基于距離的離群點分析可以處理多維數(shù)據(jù)。()

A:對

B:錯

答案:A當數(shù)據(jù)集包含不同密度的區(qū)域時,基于距離的離群點檢測方法不能很好地識別離群點。()

A:錯

B:對

答案:B基于距離的離群點檢測方案簡單,不必知道數(shù)據(jù)的分布,計算量大。()

A:對

B:錯

答案:B第十章測試用于提取主題的文本分析方法包括()。

A:LDA

B:PLSA

C:LSA

D:PLDA

答案:ABCD可以通過詞匯來判斷文檔之間的相似度。()

A:錯

B:對

答案:B以下哪些屬于文本分析模型?()

A:TF-IDF

B:主題模型

C:TextRank

D:統(tǒng)計語言模型

答案:ABCD中文分詞的難點是什么?()

A:歧義問題

B:規(guī)范問題

C:計算問題

D:未登錄詞問題

答案:ABCD詞的同義和多義現(xiàn)象是文本分析中存在的問題。()

A:對

B:錯

答案:A詞嵌入方法將詞表示為數(shù)值向量。()

A:對

B:錯

答案:A主題抽取使得文本的處理大大簡化。()

A:對

B:錯

答案:A某詞的IDF值越高,說明該詞越不常見。()

A:錯

B:對

答案:B網(wǎng)絡(luò)上的信息錯綜復雜,沒有辦法對文本進行分析。()

A:錯

B:對

答案:A基于統(tǒng)計的方法使用句子出現(xiàn)的概

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論