數(shù)據(jù)倉庫與數(shù)據(jù)挖掘(山東聯(lián)盟)智慧樹知到期末考試答案2024年_第1頁
數(shù)據(jù)倉庫與數(shù)據(jù)挖掘(山東聯(lián)盟)智慧樹知到期末考試答案2024年_第2頁
免費預覽已結束,剩余3頁可下載查看

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領

文檔簡介

數(shù)據(jù)倉庫與數(shù)據(jù)挖掘(山東聯(lián)盟)智慧樹知到期末考試答案2024年數(shù)據(jù)倉庫與數(shù)據(jù)挖掘(山東聯(lián)盟)頻繁項集、頻繁閉項集、最?頻繁項集之間的關系是:()

A:頻繁項集頻繁閉項集最?頻繁項集B:頻繁項集=頻繁閉項集最?頻繁項集C:頻繁項集頻繁閉項集=最?頻繁項集D:頻繁項集=頻繁閉項集=最?頻繁項集答案:頻繁項集頻繁閉項集最?頻繁項集決策樹中不包含?下哪種結點,()

A:根結點(rootnode)B:葉結點(leafnode)C:內部結點(internalnode)D:外部結點(externalnode)答案:外部結點(externalnode)下面哪個不屬于數(shù)據(jù)的屬性類型(

)

A:區(qū)間B:相異C:序數(shù)D:標稱答案:相異關于OLAP和OLTP的區(qū)別描述,不正確的是:()

A:OLAP是以數(shù)據(jù)倉庫為基礎的,但其最終數(shù)據(jù)來源與OLTP?樣均來?底層的數(shù)據(jù)庫系統(tǒng),兩者?對的?戶是相同的.B:OLAP主要是關于如何理解聚集的?量不同的數(shù)據(jù).它與OTAP應?程序不同.C:OLAP的特點在于事務量?,但事務內容?較簡單且重復率?.D:與OLAP應?程序不同,OLTP應?程序包含?量相對簡單的事務.答案:OLAP設X={1,2,3}是頻繁項集,則可由X產?__()__個關聯(lián)規(guī)則。

A:7B:4C:6D:5答案:6以下哪些算法是分類算法,()

A:K-MeanB:EMC:DBSCAND:C4.5答案:C4.5下?購物籃能夠提取的3-項集的最?數(shù)量是多少ID購買項1?奶,啤酒,尿布2?包,?油,?奶3?奶,尿布,餅?4?包,?油,餅?5啤酒,餅?,尿布6?奶,尿布,?包,?油7?包,?油,尿布8啤酒,尿布9?奶,尿布,?包,?油10啤酒,餅?()

A:2B:4C:1D:3答案:3以下哪種方法不屬于特征選擇的標準方法(

)

A:抽樣B:嵌入C:包裝D:過濾答案:抽樣數(shù)據(jù)倉庫是隨著時間變化的,下?的描述不正確的是()

A:捕捉到的新數(shù)據(jù)會覆蓋原來的快照;B:數(shù)據(jù)倉庫中包含?量的綜合數(shù)據(jù),這些綜合數(shù)據(jù)會隨著時間的變化不斷地進?重新綜合.C:數(shù)據(jù)倉庫隨事件變化不斷刪去舊的數(shù)據(jù)內容;D:數(shù)據(jù)倉庫隨時間的變化不斷增加新的數(shù)據(jù)內容;答案:數(shù)據(jù)倉庫隨事件變化不斷刪去舊的數(shù)據(jù)內容;有關數(shù)據(jù)倉庫的開發(fā)特點,不正確的描述是:()

A:在數(shù)據(jù)倉庫環(huán)境中,并不存在操作型環(huán)境中所固定的和較確切的處理流,數(shù)據(jù)倉庫中數(shù)據(jù)分析和處理更靈活,且沒有固定的模式B:數(shù)據(jù)倉庫使?的需求在開發(fā)出去就要明確;C:數(shù)據(jù)倉庫開發(fā)要從數(shù)據(jù)出發(fā);D:數(shù)據(jù)倉庫的開發(fā)是?個不斷循環(huán)的過程,是啟發(fā)式的開發(fā);答案:數(shù)據(jù)倉庫開發(fā)要從數(shù)據(jù)出發(fā);下?列出的條?中,哪些是數(shù)據(jù)倉庫的基本特征:()

A:數(shù)據(jù)倉庫的數(shù)據(jù)是相對穩(wěn)定的B:數(shù)據(jù)倉庫是?向事務的C:數(shù)據(jù)倉庫的數(shù)據(jù)是集成的D:數(shù)據(jù)倉庫的數(shù)據(jù)是反映歷史變化的E:數(shù)據(jù)倉庫是?向主題的答案:數(shù)據(jù)倉庫是?向主題的###數(shù)據(jù)倉庫的數(shù)據(jù)是相對穩(wěn)定的###數(shù)據(jù)倉庫的數(shù)據(jù)是反映歷史變化的對于數(shù)據(jù)挖掘中的原始數(shù)據(jù),存在的問題有:()

A:不?致B:重復C:不完整D:含噪聲E:維度?答案:不?致###不完整###含噪聲###維度?###重復在評價不平衡類問題分類的度量?法有如下?種()

A:F1度量B:真正率(turepositiverate,TPR)C:召回率(recall)D:精度(precision)答案:F1度量###召回率(recall)###真正率(ture###精度(precision)在決策樹中,隨著樹中結點數(shù)變得太?,即使模型的訓練誤差還在繼續(xù)減低,但是檢驗誤差開始增?,這是出現(xiàn)了模型擬合不?的問題。()

A:正確B:錯誤答案:(錯)數(shù)據(jù)倉庫中間層OLAP服務器只能采?關系型OLAP()

A:錯B:對答案:錯先驗原理可以表述為:如果?個項集是頻繁的,那包含它的所有項集也是頻繁的。()

A:錯誤B:正確答案:錯誤DSS主要是基于數(shù)據(jù)倉庫.聯(lián)機數(shù)據(jù)分析和數(shù)據(jù)挖掘技術的應?。()

A:錯B:對答案:對Web數(shù)據(jù)挖掘是通過數(shù)據(jù)庫仲的?些屬性來預測另?個屬性,它在驗證?戶提出的假設過程中提取信息.()

A:錯誤B:正確答案:錯誤尋找模式和規(guī)則主要是對數(shù)據(jù)進??擾,使其符合某種規(guī)則以及模式。()

A:對B:錯答案:錯如果?個對象不強屬于任何簇,那么該對象是基于聚類的離群點。()

A:對B:錯答案:對分類模型的誤差?致分為兩種:訓練誤差(trainingerror)和泛化誤差(generalizationerror).()

A:正確B:錯誤答案:正確分類和回歸都可?于預測,分類的輸出是離散的類別值,?回歸的輸出是連續(xù)數(shù)值。()

A:錯誤B:正確答案:正確序列數(shù)據(jù)沒有時間戳。()

A:錯誤B:正確答案:正確圖挖掘技術在社會?絡分析中扮演了重要的??。()

A:錯誤B:正確答案:正確從點作為個體簇開始,每?步合并兩個最接近的簇,這是?種分裂的層次聚類?法。()

A:錯誤B:正確答案:錯誤聚類(clustering)是這樣的過程:它找出描述并區(qū)分數(shù)據(jù)類或概念的模型(或函數(shù)),以便能夠使?模型預測類標記未知的對象類。()

A:錯誤B:正確答案:錯誤數(shù)據(jù)倉庫系統(tǒng)的組成部分包括數(shù)據(jù)倉庫,倉庫管理,數(shù)據(jù)抽取,分析?具等四個部分.()

A:正確B:錯誤答案:錯誤在聚類分析當中,簇內的相似性越?,簇間的差別越?,聚類的效果就越差。()

A:錯誤B:正確答案:錯誤下列__()__不是將主觀信息加?到模式發(fā)現(xiàn)任務中的?法。

A:主觀興趣度量B:可視化C:與同?時期其他數(shù)據(jù)對?D:基于模板的?法答案:AI參考:正確答案是D:基于模板的?法。\n選項D中基于模板的方法不是將主觀信息加?到模式發(fā)現(xiàn)任務中的?法。其它三個選項(A:主觀興趣度量、B:可視化、C:與同?時期其他數(shù)據(jù)對?)都是可以將主觀信息加?到模式發(fā)現(xiàn)任務中的?法。\n\n解釋:\n\n-主觀興趣度量可以基于數(shù)據(jù)專家或用戶的興趣愛好等因素對數(shù)據(jù)進行分析,從中發(fā)現(xiàn)數(shù)據(jù)中的規(guī)律或模式。\n-可視化可以將數(shù)據(jù)以圖表或圖形化的形式展示,通過視覺觀察發(fā)現(xiàn)數(shù)據(jù)中的規(guī)律和模式。\n-與同?時期其他數(shù)據(jù)對?可以通過對比不同時期的數(shù)據(jù),找出數(shù)據(jù)中可能存在的變化規(guī)律和模式。\n\n而基于模板的方法是?種傳統(tǒng)的模式發(fā)現(xiàn)?法,它是基于預先設定的模板或模式對數(shù)據(jù)進?分類或預測。這種方法不需要考慮數(shù)據(jù)的主觀信息,因此不是將主觀信息加?到模式發(fā)現(xiàn)任務中的?法。'什么是KDD?()

A:文檔知識發(fā)現(xiàn)B:數(shù)據(jù)挖掘與知識發(fā)現(xiàn)C:領域知識發(fā)現(xiàn)D:動態(tài)知識發(fā)現(xiàn)答案:AI參考:正確選項是【B:數(shù)據(jù)挖掘與知識發(fā)現(xiàn)】。\n\nKDD是數(shù)據(jù)挖掘與知識發(fā)現(xiàn)的簡稱,所以B選項是正確答案。文檔知識發(fā)現(xiàn)、領域知識發(fā)現(xiàn)和動態(tài)知識發(fā)現(xiàn)都不是KDD的準確描述。'如下那些不是基于規(guī)則分類器的特點,()

A:?常適合處理類分布不平衡的數(shù)據(jù)集B:規(guī)則集的表達能?遠不如決策樹好C:?法被?來產?更易于解釋的描述性模型D:基于規(guī)則的分類器都對屬性空間進?直線劃分,并將類指派到每個劃分答案:AI參考:基于規(guī)則的分類器并不總是對屬性空間進行直線劃分,并將類指派到每個劃分。所以選項D不正確。同時,基于規(guī)則的分類器在規(guī)則集的表達能力上可能不如決策樹,因此選項B的說法也是正確的。另外,基于規(guī)則的分類器通常需要手動構建規(guī)則,這可能會影響其生成的模型的解釋性,因此選項C也是正確的。最后,雖然基于規(guī)則的分類器在處理類分布不平衡的數(shù)據(jù)集上表現(xiàn)較好,但是這并不是它們的唯一優(yōu)點,因此選項A也不是特點。所以,正確選項是D:基于規(guī)則的分類器都對屬性空間進?直線劃分,并將類指派到每個劃分。\n\n請注意,這些特點只是基于規(guī)則分類器的某些可能缺點或局限性,具體取決于具體的實現(xiàn)方法和應用場景。在某些情況下,基于規(guī)則的分類器可能具有其他優(yōu)點或更適合某些任務。'選項中屬于聚類算法的是()

A:Jarvis-Patrick(JP)B:K均值C:DBSCAND:Apriori答案:AI參考:屬于聚類算法的是:B:K均值;C:DBSCAN。\n

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經權益所有人同意不得將文件中的內容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
  • 6. 下載文件中如有侵權或不適當內容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論