




版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
MOOC數(shù)據(jù)挖掘與python實(shí)踐-中央財(cái)經(jīng)大學(xué)中國(guó)大學(xué)慕課答案第一單元測(cè)驗(yàn)1、問(wèn)題:數(shù)據(jù)挖掘又稱(chēng)從數(shù)據(jù)中發(fā)現(xiàn)知識(shí),后者英文簡(jiǎn)稱(chēng)為()。選項(xiàng):A、KPPB、KDPC、KDDD、KPD正確答案:【KDD】2、問(wèn)題:數(shù)據(jù)挖掘又稱(chēng)從數(shù)據(jù)中發(fā)現(xiàn)知識(shí),前者英文簡(jiǎn)稱(chēng)為()。選項(xiàng):A、KPPB、DMC、KDDD、DD正確答案:【DM】3、問(wèn)題:一般數(shù)據(jù)挖掘的流程順序,下列正確的是()。①選擇數(shù)據(jù)挖掘的技術(shù)、功能和合適的算法②選擇數(shù)據(jù),數(shù)據(jù)清洗和預(yù)處理③了解應(yīng)用領(lǐng)域,了解相關(guān)的知識(shí)和應(yīng)用目標(biāo)④尋找感興趣的模式、模式評(píng)估、知識(shí)表示⑤創(chuàng)建目標(biāo)數(shù)據(jù)集選項(xiàng):A、③④①⑤②B、⑤④②①③C、③②⑤①④D、③⑤②①④正確答案:【③⑤②①④】4、問(wèn)題:結(jié)構(gòu)化的數(shù)據(jù)是指一些數(shù)據(jù)通過(guò)統(tǒng)一的()的形式存儲(chǔ)的,這類(lèi)數(shù)據(jù)我們稱(chēng)為結(jié)構(gòu)化的數(shù)據(jù)。選項(xiàng):A、文檔B、二維表格C、圖像D、聲音正確答案:【二維表格】5、問(wèn)題:數(shù)值預(yù)測(cè)用于連續(xù)變量的取值,常用的預(yù)測(cè)方法是()。選項(xiàng):A、回歸分析B、聚類(lèi)C、關(guān)聯(lián)D、分類(lèi)正確答案:【回歸分析】6、問(wèn)題:下列應(yīng)用場(chǎng)景不屬于分類(lèi)的是()。選項(xiàng):A、對(duì)信用卡申請(qǐng)者判斷其信譽(yù)高低B、醫(yī)生根據(jù)患者的癥狀判斷所患疾病類(lèi)型C、推廣新產(chǎn)品時(shí)預(yù)測(cè)已有客戶是否對(duì)新產(chǎn)品感興趣D、為了解用戶特點(diǎn),公司將客戶分群正確答案:【為了解用戶特點(diǎn),公司將客戶分群】7、問(wèn)題:Python語(yǔ)言的創(chuàng)始人是()。選項(xiàng):A、GuidovanRossumB、BillGatesC、SergeyBrinD、LarryPage正確答案:【GuidovanRossum】8、問(wèn)題:Python科學(xué)計(jì)算的基本包是()。選項(xiàng):A、NumpyB、PandasC、Scikit-learnD、Matplotlib正確答案:【Numpy】9、問(wèn)題:以下Python包中,繪圖功能最強(qiáng)大的是()。選項(xiàng):A、MatplotlibB、PandasC、Scikit-learnD、Numpy正確答案:【Matplotlib】10、問(wèn)題:以下Python包中,最適合用于機(jī)器學(xué)習(xí)的是()。選項(xiàng):A、Scikit-learnB、PandasC、NumpyD、Matplotlib正確答案:【Scikit-learn】11、問(wèn)題:以下Python包中,提供了DataFrame數(shù)據(jù)類(lèi)型的是()。選項(xiàng):A、PandasB、Scikit-learnC、NumpyD、Matplotlib正確答案:【Pandas】12、問(wèn)題:為了避免包的依賴關(guān)系和系統(tǒng)兼容性等方面出現(xiàn)問(wèn)題,本課程推薦的Python安裝方式為()。選項(xiàng):A、通過(guò)Anaconda安裝B、直接下載Python安裝C、通過(guò)瀏覽器查找處理過(guò)的Python安裝包D、直接安裝Pycharm正確答案:【通過(guò)Anaconda安裝】13、問(wèn)題:數(shù)據(jù)挖掘包括下面哪些方法()。選項(xiàng):A、分類(lèi)B、聚類(lèi)C、關(guān)聯(lián)D、異常發(fā)現(xiàn)正確答案:【分類(lèi)#聚類(lèi)#關(guān)聯(lián)#異常發(fā)現(xiàn)】14、問(wèn)題:數(shù)據(jù)挖掘和哪些學(xué)科領(lǐng)域有關(guān)系()。選項(xiàng):A、統(tǒng)計(jì)B、機(jī)器學(xué)習(xí)C、數(shù)據(jù)庫(kù)D、優(yōu)化正確答案:【統(tǒng)計(jì)#機(jī)器學(xué)習(xí)#數(shù)據(jù)庫(kù)#優(yōu)化】15、問(wèn)題:聚類(lèi)針對(duì)有標(biāo)簽的數(shù)據(jù)。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【錯(cuò)誤】16、問(wèn)題:分類(lèi)和回歸都可用于預(yù)測(cè),分類(lèi)的輸出是離散的類(lèi)別值。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【正確】17、問(wèn)題:分類(lèi)就是根據(jù)物以類(lèi)聚的原理,將沒(méi)有類(lèi)別的對(duì)象根據(jù)對(duì)象的特征自動(dòng)聚成不同簇的過(guò)程。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【錯(cuò)誤】18、問(wèn)題:序列分析經(jīng)常會(huì)用在購(gòu)物籃分析中。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【錯(cuò)誤】19、問(wèn)題:關(guān)聯(lián)分析是數(shù)據(jù)分析中常用的分析方法。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【正確】20、填空題:在這個(gè)大數(shù)據(jù)爆炸的時(shí)代,我們期待能夠從這些數(shù)據(jù)中提煉出有用的知識(shí),解決的方法就是數(shù)據(jù)倉(cāng)庫(kù)技術(shù)和技術(shù)。正確答案:【數(shù)據(jù)挖掘】21、填空題:在這個(gè)大數(shù)據(jù)爆炸的時(shí)代,我們期待能夠從這些數(shù)據(jù)中提煉出有用的知識(shí),解決的方法就是技術(shù)和數(shù)據(jù)挖掘技術(shù)。正確答案:【數(shù)據(jù)倉(cāng)庫(kù)】22、填空題:從存儲(chǔ)方式對(duì)數(shù)據(jù)類(lèi)型進(jìn)行分類(lèi),可分為數(shù)據(jù)和數(shù)據(jù)。(輸入兩個(gè)位置的答案時(shí),以一個(gè)空格作為分隔符)正確答案:【結(jié)構(gòu)化非結(jié)構(gòu)化】23、填空題:預(yù)測(cè)的模型構(gòu)建需要來(lái)進(jìn)行分析。正確答案:【歷史數(shù)據(jù)】24、填空題:就是根據(jù)有類(lèi)別的數(shù)據(jù)提供的信息,來(lái)概括類(lèi)別的主要特征,構(gòu)建模型或者規(guī)則,根據(jù)該模型或者規(guī)則預(yù)測(cè)對(duì)象的類(lèi)別。正確答案:【分類(lèi)】第二章單元測(cè)驗(yàn)1、問(wèn)題:下列對(duì)學(xué)生相關(guān)屬性描述中,不是標(biāo)稱(chēng)屬性的是()。選項(xiàng):A、頭發(fā)顏色B、婚姻狀況C、身高D、學(xué)號(hào)正確答案:【身高】2、問(wèn)題:下列哪些選項(xiàng)能表示序數(shù)屬性的數(shù)據(jù)集中趨勢(shì)度量()。選項(xiàng):A、眾數(shù)B、均值C、四分位數(shù)D、標(biāo)準(zhǔn)差正確答案:【眾數(shù)】3、問(wèn)題:()可以觀察從一個(gè)分布到另一分布是否有漂移。選項(xiàng):A、直方圖B、散點(diǎn)圖C、盒圖D、分位數(shù)-分位數(shù)圖正確答案:【分位數(shù)-分位數(shù)圖】4、問(wèn)題:4人喜歡服飾的顏色如下,屬性是標(biāo)稱(chēng)屬性。李四和孫六的相似性是()。姓名帽子顏色上衣顏色褲子顏色鞋子顏色圍巾顏色張三紅藍(lán)藍(lán)綠紅李四紅藍(lán)藍(lán)紅粉王五黃綠藍(lán)綠紅孫六藍(lán)藍(lán)藍(lán)紅粉選項(xiàng):A、1/5B、2/5C、3/5D、4/5正確答案:【4/5】5、問(wèn)題:度量作為一種測(cè)度,滿足以下哪些條件:選項(xiàng):A、同一性B、對(duì)稱(chēng)性C、三角不等式D、以上均是正確答案:【以上均是】6、問(wèn)題:Python語(yǔ)言在創(chuàng)始人是()。選項(xiàng):A、BillGatesB、SergeyBrinC、LarryPageD、GuidovanRossum正確答案:【GuidovanRossum】7、問(wèn)題:Python科學(xué)計(jì)算的基本包是()。選項(xiàng):A、PandasB、Scikit-learnC、NumpyD、Matplotlib正確答案:【Numpy】8、問(wèn)題:以下Python包中,繪圖功能最強(qiáng)大的是()。選項(xiàng):A、PandasB、Scikit-learnC、NumpyD、Matplotlib正確答案:【Matplotlib】9、問(wèn)題:以下Python包中,最適合用于機(jī)器學(xué)習(xí)的是()。選項(xiàng):A、PandasB、Scikit-learnC、NumpyD、Matplotlib正確答案:【Scikit-learn】10、問(wèn)題:以下Python包中,提供了DataFrame數(shù)據(jù)類(lèi)型的是()。選項(xiàng):A、PandasB、Scikit-learnC、NumpyD、Matplotlib正確答案:【Pandas】11、問(wèn)題:為了避免包的依賴關(guān)系和系統(tǒng)兼容性等方面出現(xiàn)問(wèn)題,本課程推薦的Python安裝方式為()。選項(xiàng):A、直接下載Python安裝B、通過(guò)Anaconda安裝C、通過(guò)瀏覽器查找處理過(guò)的Python安裝包D、直接安裝Pycharm正確答案:【通過(guò)Anaconda安裝】12、問(wèn)題:下列對(duì)學(xué)生的描述屬性中,標(biāo)稱(chēng)屬性的屬性是:選項(xiàng):A、頭發(fā)顏色B、婚姻狀況C、身高D、學(xué)號(hào)正確答案:【頭發(fā)顏色#婚姻狀況#學(xué)號(hào)】13、問(wèn)題:下列哪些指標(biāo)可以度量數(shù)據(jù)的離散趨勢(shì)度量:選項(xiàng):A、極差B、四分位數(shù)C、四分位數(shù)極差D、五數(shù)概括正確答案:【極差#四分位數(shù)#四分位數(shù)極差#五數(shù)概括】14、問(wèn)題:在探索性數(shù)據(jù)分析中,認(rèn)為最有代表性,最能反映數(shù)據(jù)重要特征的五數(shù)概括,包括:選項(xiàng):A、中位數(shù)Q2B、四分位數(shù)Q1C、四分位數(shù)Q3D、最小值E、最大值正確答案:【中位數(shù)Q2#四分位數(shù)Q1#四分位數(shù)Q3#最小值#最大值】15、問(wèn)題:在文獻(xiàn)中,屬性、維、特征和變量通??梢曰Q地使用。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【正確】16、問(wèn)題:二元屬性是一種特殊的標(biāo)稱(chēng)屬性,分為對(duì)稱(chēng)和不對(duì)稱(chēng)兩種。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【正確】17、問(wèn)題:序數(shù)屬性的值存在有意義的序。相鄰兩者之間的差是已知的。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【錯(cuò)誤】18、問(wèn)題:如果屬性不是離散的,則它是連續(xù)的。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【正確】19、問(wèn)題:四分位數(shù)極差(IQR)是第1個(gè)和第2個(gè)四分位數(shù)之間的距離。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【錯(cuò)誤】20、問(wèn)題:盒圖用來(lái)考察兩個(gè)屬性之間是否存在正相關(guān)和負(fù)相關(guān)。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【錯(cuò)誤】21、問(wèn)題:對(duì)于非對(duì)稱(chēng)的二元屬性,兩個(gè)都取值1的情況(正匹配)被認(rèn)為比兩個(gè)都取值0的情況(負(fù)匹配)更有意義,其中負(fù)匹配數(shù)t被認(rèn)為是不重要的,因此在計(jì)算時(shí)可以忽略。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【正確】22、問(wèn)題:一般來(lái)說(shuō)數(shù)據(jù)庫(kù)中行對(duì)應(yīng)于數(shù)據(jù)對(duì)象,而列對(duì)應(yīng)于屬性。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【正確】23、問(wèn)題:相異性矩陣又稱(chēng)對(duì)象-對(duì)象結(jié)構(gòu),存放n個(gè)對(duì)象兩兩之間的鄰近度。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【正確】24、問(wèn)題:在計(jì)算混合類(lèi)型屬性的相異性時(shí),一般是通過(guò)將所有有意義的屬性轉(zhuǎn)換到共同的區(qū)間[0.0,1.0]上,實(shí)現(xiàn)在單個(gè)相異性矩陣中進(jìn)行計(jì)算。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【正確】25、填空題:為了抵消少數(shù)極端值對(duì)均值計(jì)算的影響,我們可以使用。正確答案:【截尾均值】26、填空題:中列數(shù)是數(shù)據(jù)集的最大值和的平均值。正確答案:【最小值】27、填空題:給定兩個(gè)數(shù)據(jù)對(duì)象(19,4,5)和(22,6,3),則兩個(gè)對(duì)象之間的歐氏距離?!救绻?jì)算結(jié)果是小數(shù),則保留一位;如果是整數(shù),則直接填寫(xiě)整數(shù)】正確答案:【4.1】28、填空題:給定兩個(gè)數(shù)據(jù)對(duì)象(19,4,5)和(22,6,3),則兩個(gè)對(duì)象之間的曼哈頓距離。【如果計(jì)算結(jié)果是小數(shù),則保留一位;如果是整數(shù),則直接填寫(xiě)整數(shù)】正確答案:【7】29、填空題:給定兩個(gè)數(shù)據(jù)對(duì)象(19,4,5)和(22,6,3),則兩個(gè)對(duì)象之間的上確界距離?!救绻?jì)算結(jié)果是小數(shù),則保留一位;如果是整數(shù),則直接填寫(xiě)整數(shù)】正確答案:【3】30、填空題:x=(5,0,3,0,2,0,0,2,0,0)和y=(3,0,2,0,1,1,0,1,0,1),使用余弦相似度公式計(jì)算這兩個(gè)向量之間的相似性等于?!救绻?jì)算結(jié)果是小數(shù),則保留一位;如果是整數(shù),則直接填寫(xiě)整數(shù)】正確答案:【0.9】第三單元測(cè)驗(yàn)1、問(wèn)題:運(yùn)行以下代碼fromsklearn.datasetsimportload_irisiris_data=load_iris()iris_data.data.shape輸出結(jié)果為(150,4)。則表示iris數(shù)據(jù)集包括樣本個(gè)數(shù)為()。選項(xiàng):A、150B、4C、600D、154正確答案:【150】2、問(wèn)題:運(yùn)行以下代碼fromsklearn.datasetsimportload_irisiris_data=load_iris()iris_data.data.shape輸出結(jié)果為(150,4)。則表示iris數(shù)據(jù)集包括樣本特征數(shù)為()。選項(xiàng):A、150B、4C、600D、154正確答案:【4】3、問(wèn)題:在Numpy包中,計(jì)算中位數(shù)的函數(shù)為()。選項(xiàng):A、numpy.mean()B、numpy.median()C、numpy.std()D、numpy.var()正確答案:【numpy.median()】4、問(wèn)題:在Numpy包中,計(jì)算標(biāo)準(zhǔn)差的函數(shù)為()。選項(xiàng):A、numpy.mean()B、numpy.median()C、numpy.std()D、numpy.var()正確答案:【numpy.std()】5、問(wèn)題:給定df是一個(gè)DataFrame對(duì)象,對(duì)df所有字段進(jìn)行描述性統(tǒng)計(jì),可以利用的方法為()。選項(xiàng):A、df.summary()B、df.statistics()C、df.mean()D、df.describe()正確答案:【df.describe()】6、問(wèn)題:運(yùn)行以下代碼”importmatplotlib.pyplotasplt”引入plt后,要繪制餅狀圖,需要利用的函數(shù)為()。選項(xiàng):A、plt.bar()B、plt.pie()C、plt.plot()D、plt.hist()正確答案:【plt.pie()】7、問(wèn)題:運(yùn)行以下代碼”importmatplotlib.pyplotasplt”引入plt后,要繪制折線圖,需要利用的函數(shù)為()。選項(xiàng):A、plt.bar()B、plt.pie()C、plt.plot()D、plt.hist()正確答案:【plt.plot()】8、問(wèn)題:運(yùn)行以下代碼”importmatplotlib.pyplotasplt”引入plt后,要繪制直方圖,需要利用的函數(shù)為()。選項(xiàng):A、plt.bar()B、plt.pie()C、plt.plot()D、plt.hist()正確答案:【plt.hist()】9、問(wèn)題:運(yùn)行以下代碼”importmatplotlib.pyplotasplt”引入plt后,要繪制散點(diǎn)圖,需要利用的函數(shù)為()。選項(xiàng):A、plt.bar()B、plt.scatter()C、plt.plot()D、plt.hist()正確答案:【plt.scatter()】10、問(wèn)題:使用最小-最大法進(jìn)行數(shù)據(jù)規(guī)范化,需要映射的目標(biāo)區(qū)間為[0,100],原來(lái)的取值范圍是[-10,10]。根據(jù)等比映射的原理,一個(gè)值8映射到新區(qū)間后的值是()。選項(xiàng):A、80B、85C、90D、95正確答案:【90】11、問(wèn)題:使用零均值規(guī)范化方法,年收入屬性的均值為65,標(biāo)準(zhǔn)差為12,則年收入59萬(wàn)元規(guī)范化后為()。選項(xiàng):A、-0.5B、-0.2C、0.3D、0.5正確答案:【-0.5】12、問(wèn)題:使用等距離分箱法進(jìn)行數(shù)據(jù)離散化,數(shù)據(jù)范圍為20,40,50,58,65,80,80,82,86,90,96,105,120,200,區(qū)間個(gè)數(shù)為4。下列屬于4個(gè)箱的區(qū)間是()。選項(xiàng):A、[20,65]B、(65,110)C、[110,155)D、(155,200]正確答案:【[110,155)】13、問(wèn)題:特征選擇方法中,一般的啟發(fā)式方法有()。選項(xiàng):A、逐步增加法B、逐步遞減法C、隨機(jī)選擇D、以上都是正確答案:【以上都是】14、問(wèn)題:在使用主成分分析法進(jìn)行數(shù)據(jù)屬性特征提取中,在對(duì)數(shù)據(jù)集進(jìn)行中心化處理后,為了去除冗余和降低噪音,應(yīng)將協(xié)方差矩陣非對(duì)角線上的元素化為()。選項(xiàng):A、-1/2B、0C、1/2D、不用處理正確答案:【0】15、問(wèn)題:關(guān)聯(lián)規(guī)則的挖掘算法只能處理()類(lèi)型的取值,為此()是繼續(xù)其知識(shí)發(fā)現(xiàn)過(guò)程的必要步驟。選項(xiàng):A、離散;數(shù)據(jù)離散化B、連續(xù);數(shù)據(jù)離散化C、離散;數(shù)據(jù)規(guī)范化D、連續(xù);數(shù)據(jù)規(guī)范化正確答案:【離散;數(shù)據(jù)離散化】16、問(wèn)題:()是指對(duì)描述對(duì)象的屬性進(jìn)行重新組合,獲得一組反映事物本質(zhì)的少量的新的屬性的過(guò)程。()是指從屬性集合中選擇那些重要的、與分析任務(wù)相關(guān)的子集的過(guò)程。選項(xiàng):A、特征提取;特征選擇B、特征選擇;特征提取C、數(shù)據(jù)提??;數(shù)據(jù)選擇D、數(shù)據(jù)選擇;數(shù)據(jù)提取正確答案:【特征提取;特征選擇】17、問(wèn)題:下列不屬于數(shù)據(jù)預(yù)處理原因的是()。選項(xiàng):A、數(shù)據(jù)可能存在缺失、錯(cuò)誤、不一致等問(wèn)題B、數(shù)據(jù)有可能不能很好地反映潛在的模式C、有些數(shù)據(jù)屬性是無(wú)用的或者冗余的D、數(shù)據(jù)量過(guò)于龐大正確答案:【數(shù)據(jù)量過(guò)于龐大】18、問(wèn)題:下列關(guān)于數(shù)據(jù)規(guī)范化說(shuō)法錯(cuò)誤的是()。選項(xiàng):A、數(shù)據(jù)規(guī)范化又稱(chēng)為數(shù)據(jù)標(biāo)準(zhǔn)化B、數(shù)據(jù)規(guī)范化是將屬性的取值范圍統(tǒng)一C、數(shù)據(jù)規(guī)范化是為了給重要的屬性賦予更大的權(quán)重D、數(shù)據(jù)規(guī)范化是為了避免不同屬性的不平等地位正確答案:【數(shù)據(jù)規(guī)范化是為了給重要的屬性賦予更大的權(quán)重】19、問(wèn)題:缺失值處理方法中錯(cuò)誤的是()。選項(xiàng):A、對(duì)于分類(lèi)屬性,使用同類(lèi)對(duì)象屬性值的均值B、對(duì)于離散屬性或定性屬性,使用眾數(shù)C、對(duì)于所有屬性都可以使用均值D、轉(zhuǎn)換為分類(lèi)問(wèn)題或數(shù)值預(yù)測(cè)問(wèn)題正確答案:【對(duì)于所有屬性都可以使用均值】20、問(wèn)題:主成分分析的步驟是()。選項(xiàng):A、中心化數(shù)據(jù)集-計(jì)算主成分矩陣-計(jì)算協(xié)方差矩陣-計(jì)算特征根-得到降維后的數(shù)據(jù)集B、中心化數(shù)據(jù)集-計(jì)算協(xié)方差矩陣-計(jì)算特征根-計(jì)算主成分矩陣-得到降維后的數(shù)據(jù)集C、計(jì)算協(xié)方差矩陣-計(jì)算主成分矩陣-計(jì)算特征根-中心化數(shù)據(jù)集-得到降維后的數(shù)據(jù)集D、計(jì)算協(xié)方差矩陣-計(jì)算特征根-中心化數(shù)據(jù)集-計(jì)算主成分矩陣-得到降維后的數(shù)據(jù)集正確答案:【中心化數(shù)據(jù)集-計(jì)算協(xié)方差矩陣-計(jì)算特征根-計(jì)算主成分矩陣-得到降維后的數(shù)據(jù)集】21、問(wèn)題:下列關(guān)于等距離分箱的說(shuō)法中錯(cuò)誤的是()。選項(xiàng):A、又稱(chēng)為等寬度分箱B、若區(qū)間個(gè)數(shù)為k,每個(gè)區(qū)間的間距為I=(max-min)/kC、等距離分箱能使每個(gè)區(qū)間內(nèi)包含的取值個(gè)數(shù)大致相同D、等距離分箱可能導(dǎo)致屬于某些的取值非常多,而某些又非常少正確答案:【等距離分箱能使每個(gè)區(qū)間內(nèi)包含的取值個(gè)數(shù)大致相同】22、問(wèn)題:數(shù)據(jù)預(yù)處理的任務(wù)不包括()。選項(xiàng):A、數(shù)據(jù)分類(lèi)B、數(shù)據(jù)清洗C、數(shù)據(jù)規(guī)范化和離散化D、特征提取與特征選擇正確答案:【數(shù)據(jù)分類(lèi)】23、問(wèn)題:使用python處理缺失值的方法中敘述錯(cuò)誤的是()。選項(xiàng):A、isnull()判斷缺失值B、dropna()刪除缺失值C、fillna()填充缺失值D、interpolate()使用中位數(shù)填充缺失值正確答案:【interpolate()使用中位數(shù)填充缺失值】24、問(wèn)題:最小最大規(guī)范化方法MinMaxScaler屬于python中的哪個(gè)包()。選項(xiàng):A、sklearnB、pandasC、numpyD、scipy正確答案:【sklearn】25、問(wèn)題:主成分分析方法PCA屬于屬于python中的哪個(gè)包()。選項(xiàng):A、sklearnB、pandasC、numpyD、scipy正確答案:【sklearn】26、問(wèn)題:最小-最大法中,假設(shè)需要映射到目標(biāo)區(qū)間為[L,R],原來(lái)的取值范圍為[l,r]。一個(gè)值x映射到新區(qū)間后的值v的計(jì)算方法是()。選項(xiàng):A、B、C、D、正確答案:【】27、問(wèn)題:在利用中文文本繪制詞云時(shí),需要在anaoncda的基礎(chǔ)上安裝哪些工具包()。選項(xiàng):A、WordcloudB、Scikit-learnC、JiebaD、Matplotlib正確答案:【W(wǎng)ordcloud#Jieba】28、問(wèn)題:數(shù)據(jù)預(yù)處理的任務(wù)有哪些()。選項(xiàng):A、數(shù)據(jù)離散化B、數(shù)據(jù)規(guī)范化C、數(shù)據(jù)清洗D、特征提取與特征選擇正確答案:【數(shù)據(jù)離散化#數(shù)據(jù)規(guī)范化#數(shù)據(jù)清洗#特征提取與特征選擇】29、問(wèn)題:數(shù)據(jù)規(guī)范化方法有哪些()。選項(xiàng):A、最小-最大法B、z-scoreC、聚類(lèi)D、分類(lèi)正確答案:【最小-最大法#z-score】30、問(wèn)題:數(shù)據(jù)清洗的主要目的是將數(shù)據(jù)集中存在的()和()進(jìn)行處理,降低其對(duì)后續(xù)數(shù)據(jù)分析處理的影響。選項(xiàng):A、缺失B、噪聲C、最大值D、最小值正確答案:【缺失#噪聲】31、問(wèn)題:特征選擇過(guò)程是描述同一對(duì)象的多個(gè)屬性的取值范圍,統(tǒng)一到相同的范圍,避免某些屬性的作用大于其它屬性。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【錯(cuò)誤】32、問(wèn)題:通過(guò)數(shù)據(jù)離散化,可以實(shí)現(xiàn)縮減數(shù)據(jù)量的效果。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【正確】33、問(wèn)題:有監(jiān)督的離散化方法常用的有分箱法和ChiMerge方法。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【錯(cuò)誤】34、問(wèn)題:基于熵的方法可以被看做是自頂向下的分裂方法,ChiMerge則屬于自底向上的合并方法。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【正確】35、問(wèn)題:一種簡(jiǎn)單的填補(bǔ)缺失值的方法為,將屬于同一類(lèi)的對(duì)象的該屬性值的均值賦予此缺失值。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【正確】36、問(wèn)題:分箱離散化是一種有監(jiān)督離散化方法。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【錯(cuò)誤】37、問(wèn)題:基于熵的離散化方法是常用的有監(jiān)督的離散化方法。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【正確】38、問(wèn)題:選擇屬性子集的方法一般采用啟發(fā)式方法,只檢驗(yàn)部分可能性比較大的子集,這樣可以快速完成屬性的選擇。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【正確】39、問(wèn)題:主成分分析能夠達(dá)到去除冗余、降低噪音和降維的目的,但無(wú)法得到反映事物本質(zhì)的新變量。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【錯(cuò)誤】40、問(wèn)題:將數(shù)據(jù)分為n個(gè)等頻的箱中,可以?箱均值、箱中位數(shù)或箱邊界光滑數(shù)據(jù)。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【正確】41、問(wèn)題:在主成分分析中,每個(gè)主成分都是原始變量的線性組合,且各個(gè)主成分之間互不相關(guān)。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【正確】42、填空題:等距離分箱可能導(dǎo)致屬于某些區(qū)間的取值非常多,而某些區(qū)間的取值又非常少。則能夠解決此問(wèn)題。正確答案:【等頻】43、填空題:面對(duì)噪音,一類(lèi)是識(shí)別出噪音,將其去除;另一類(lèi)是可以使用方法,用于平滑噪音。正確答案:【分箱】44、填空題:使用主成分分析法進(jìn)行數(shù)據(jù)屬性特征提取中,每個(gè)新的特征是原有特征的。正確答案:【線性組合】45、填空題:一組數(shù)據(jù):20,40,50,58,65,80,80,82,86,90,96,105,120,200。采用等距分箱法分為4箱,其中82位于第____個(gè)箱。(填寫(xiě)阿拉伯?dāng)?shù)字)正確答案:【2】46、填空題:一組數(shù)據(jù):20,40,50,58,65,80,80,82,86,90,96,105,120,200。使用最大-最小法進(jìn)行數(shù)據(jù)規(guī)范化,目標(biāo)區(qū)間為[0,1],則80映射到新區(qū)間后的值為_(kāi)__。(四舍五入保留小數(shù)點(diǎn)后兩位)正確答案:【0.33】第四單元測(cè)驗(yàn)1、問(wèn)題:Python在調(diào)用efficient-apriori包中的apriori函數(shù)進(jìn)行挖掘關(guān)聯(lián)規(guī)則時(shí),第一個(gè)返回值是()。選項(xiàng):A、頻繁項(xiàng)集B、關(guān)聯(lián)規(guī)則C、最小支持度D、最小置信度正確答案:【頻繁項(xiàng)集】2、問(wèn)題:Python在調(diào)用efficient-apriori包中的apriori函數(shù)進(jìn)行挖掘關(guān)聯(lián)規(guī)則時(shí),第二個(gè)返回值是()。選項(xiàng):A、頻繁項(xiàng)集B、關(guān)聯(lián)規(guī)則C、最小支持度D、最小置信度正確答案:【關(guān)聯(lián)規(guī)則】3、問(wèn)題:如下表所示,X={butter,cheese},則支持度support(X)=()。交易號(hào)(TID)商品(Items)1beer,diaper,nuts2beer,biscuit,diaper3bread,butter,cheese4beer,cheese,diaper,nuts5beer,butter,cheese,nuts選項(xiàng):A、1/5B、2/5C、3/5D、4/5正確答案:【2/5】4、問(wèn)題:如下表所示,X={butter,cheese},Y={beer},則置信度confidence(X→Y)=()。交易號(hào)(TID)商品(Items)1beer,diaper,nuts2beer,biscuit,diaper3bread,butter,cheese4beer,cheese,diaper,nuts5beer,butter,cheese,nuts選項(xiàng):A、1/2B、1/3C、1/4D、2/5正確答案:【1/2】5、問(wèn)題:如下表所示,使用FP-Growth計(jì)算其頻繁集,給定最小支持度為40%,頻繁模式樹(shù)(FP樹(shù))有()個(gè)結(jié)點(diǎn)。(不包括根結(jié)點(diǎn))。交易號(hào)(TID)商品(Items)1beer,diaper,nuts2beer,biscuit,diaper3bread,butter,cheese4beer,cheese,diaper,nuts5beer,butter,cheese,nuts選項(xiàng):A、5B、8C、9D、10正確答案:【9】6、問(wèn)題:對(duì)于任一個(gè)頻繁項(xiàng)集X和它的一個(gè)非空真子集Y,S=X-Y,規(guī)則S→Y成立的條件是()。選項(xiàng):A、confidence(S→Y)minconfB、confidence(S→Y)≥minconfC、confidence(Y→S)minconfD、confidence(Y→S)≥minconf正確答案:【confidence(S→Y)≥minconf】7、問(wèn)題:在多層次關(guān)聯(lián)規(guī)則分析中,如果將商品進(jìn)行歸類(lèi),每一商品類(lèi)別的支持度會(huì)()其包含的每個(gè)商品的支持度,從而有利于發(fā)現(xiàn)一些有意義的頻繁模式或關(guān)聯(lián)規(guī)則。選項(xiàng):A、小于B、等于C、大于D、不確定正確答案:【大于】8、問(wèn)題:在FP-growth構(gòu)建頻繁模式樹(shù)中,每個(gè)()(除根結(jié)點(diǎn)外)代表一個(gè)單項(xiàng),樹(shù)中的每條()代表原數(shù)據(jù)中每一個(gè)條目的各個(gè)項(xiàng)。如果把條目?jī)?nèi)的項(xiàng)組合在一起看成一個(gè)字符串,則字符串前綴相同時(shí)共享相同的()。選項(xiàng):A、結(jié)點(diǎn);路徑;路徑B、結(jié)點(diǎn);路徑;結(jié)點(diǎn)C、路徑;路徑;結(jié)點(diǎn)D、路徑;路徑;路徑正確答案:【結(jié)點(diǎn);路徑;路徑】9、問(wèn)題:購(gòu)買(mǎi)了此商品后還會(huì)購(gòu)買(mǎi)的商品,它們的地位是平等的,其中涉及了時(shí)間和順序的概念,強(qiáng)調(diào)的是一個(gè)規(guī)則,也就是我們所說(shuō)的關(guān)聯(lián)規(guī)則。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【錯(cuò)誤】10、問(wèn)題:如果一個(gè)項(xiàng)集是不頻繁的,則其所有的超集都是不頻繁的。利用這一性質(zhì)可以簡(jiǎn)化Apriori算法中的計(jì)算過(guò)程。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【正確】11、問(wèn)題:逐層發(fā)現(xiàn)算法Apriori發(fā)現(xiàn)頻繁項(xiàng)集的過(guò)程是按照項(xiàng)集的長(zhǎng)度由大到小逐級(jí)進(jìn)行的。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【錯(cuò)誤】12、問(wèn)題:利用項(xiàng)的概念層次信息,不僅可以發(fā)現(xiàn)涉及那些出現(xiàn)頻率比較低的商品的頻繁模式和關(guān)聯(lián)規(guī)則,而且還可以發(fā)現(xiàn)概括性更強(qiáng)的規(guī)則。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【正確】13、問(wèn)題:在結(jié)構(gòu)化數(shù)據(jù)中進(jìn)行關(guān)聯(lián)分析發(fā)現(xiàn)其中的頻繁模式和關(guān)聯(lián)規(guī)則。對(duì)于取值連續(xù)的屬性,首先將其離散化,然后將每個(gè)取值區(qū)間作為一個(gè)值,繼而轉(zhuǎn)化為“屬性=值”的形式。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【正確】14、問(wèn)題:若Y和Z是X的兩個(gè)不同的k項(xiàng)子集,只有當(dāng)confidence(X-Y→Y)≥minconf和confidence(X-Z→Z)≥minconf都滿足時(shí),X-(Y∪Z)→(Y∪Z)一定成立。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【錯(cuò)誤】15、問(wèn)題:具體來(lái)講,若一個(gè)項(xiàng)集X的支持度大于用戶給定的一個(gè)最小支持度閾值,則X被稱(chēng)為頻繁項(xiàng)集(或頻繁模式)。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【正確】16、問(wèn)題:如果一個(gè)規(guī)則X→Y同時(shí)滿足support(X→Y)≥minsup和confidence(X→Y)≥minconf,則稱(chēng)該規(guī)則在數(shù)據(jù)庫(kù)D中成立,其中minsup和minconf分別是用戶給定的最小支持度和最小置信度的閾值。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【正確】17、問(wèn)題:給定最小支持度閾值minsup,一個(gè)頻繁項(xiàng)集的所有非空子集都是頻繁的。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【正確】18、問(wèn)題:FP-growth算法無(wú)須生成候選項(xiàng)集的方法,可以避免產(chǎn)生大量候選項(xiàng)集。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【正確】19、填空題:Python在調(diào)用efficient-apriori包中的apriori函數(shù)訓(xùn)練挖掘關(guān)聯(lián)規(guī)則時(shí),設(shè)定最小支持度的參數(shù)是______。正確答案:【min_support】20、填空題:Python在調(diào)用efficient-apriori包中的apriori函數(shù)訓(xùn)練挖掘關(guān)聯(lián)規(guī)則時(shí),設(shè)定最小置信度的參數(shù)是______。正確答案:【min_confidence】21、填空題:給定一個(gè)頻繁負(fù)項(xiàng)集X,我們可以從中發(fā)現(xiàn)隱含的負(fù)關(guān)聯(lián)規(guī)則。負(fù)項(xiàng)集和負(fù)關(guān)聯(lián)規(guī)則統(tǒng)稱(chēng)為_(kāi)____。正確答案:【負(fù)模式】22、填空題:如果一個(gè)規(guī)則和其祖先規(guī)則具有近似相同的置信度,則該規(guī)則稱(chēng)為_(kāi)____。為了減少發(fā)現(xiàn)的規(guī)則數(shù)目,可以將其從輸出的結(jié)果中刪除。正確答案:【冗余規(guī)則】第五單元測(cè)驗(yàn)1、問(wèn)題:通過(guò)代碼“fromsklearnimporttree”引入決策樹(shù)模塊,并通過(guò)代碼“clf=tree.DecisionTreeClassifier()”構(gòu)造分類(lèi)器對(duì)象后,訓(xùn)練時(shí)要調(diào)用的方法是()。選項(xiàng):A、clf.train()B、clf.fit()C、clf.learn()D、clf.predict()正確答案:【clf.fit()】2、問(wèn)題:通過(guò)代碼“fromsklearnimporttree”引入決策樹(shù)模塊,并通過(guò)代碼“clf=tree.DecisionTreeClassifier()”構(gòu)造分類(lèi)器對(duì)象,在訓(xùn)練后做預(yù)測(cè)時(shí)要調(diào)用的方法是()。選項(xiàng):A、clf.predict()B、clf.forecast()C、clf.guess()D、clf.outlook()正確答案:【clf.predict()】3、問(wèn)題:利用tree.DecisionTreeClassifier()訓(xùn)練模型時(shí)調(diào)用.fit()方法需要傳遞的第一個(gè)參數(shù)是()。選項(xiàng):A、樣本特征XB、樣本標(biāo)簽YC、判斷標(biāo)準(zhǔn)D、設(shè)置結(jié)點(diǎn)的最小樣本數(shù)量正確答案:【樣本特征X】4、問(wèn)題:利用tree.DecisionTreeClassifier()訓(xùn)練模型時(shí)調(diào)用.fit()方法需要傳遞的第二個(gè)參數(shù)是()。選項(xiàng):A、樣本特征XB、樣本標(biāo)簽YC、判斷標(biāo)準(zhǔn)D、設(shè)置結(jié)點(diǎn)的最小樣本數(shù)量正確答案:【樣本標(biāo)簽Y】5、問(wèn)題:通過(guò)代碼“fromsklearnimportmetrics”引入評(píng)價(jià)指標(biāo)模塊后,面對(duì)真實(shí)標(biāo)簽true_label和模型預(yù)測(cè)標(biāo)簽predicted_label,混淆矩陣可通過(guò)調(diào)用()代碼得到。選項(xiàng):A、confusion_matrix(true_labe,predicted_label)B、confusion_matrix(predicted_label,true_labe)C、metrics.confusion_matrix(true_labe,predicted_label)D、metrics.confusion_matrix(predicted_label,true_labe)正確答案:【metrics.confusion_matrix(true_labe,predicted_label)】6、問(wèn)題:在Scikit-learn模塊下,不同分類(lèi)模型在訓(xùn)練時(shí),調(diào)用的方法名稱(chēng)()。選項(xiàng):A、相同B、不同C、視情況而定D、不知道正確答案:【相同】7、問(wèn)題:在Scikit-learn模塊下,不同分類(lèi)模型在預(yù)測(cè)時(shí),調(diào)用的方法名稱(chēng)()。選項(xiàng):A、相同B、不同C、視情況而定D、不知道正確答案:【相同】8、問(wèn)題:用于分類(lèi)與回歸應(yīng)用的主要算法有()。選項(xiàng):A、Apriori算法、HotSpot算法B、RBF神經(jīng)網(wǎng)絡(luò)、K均值法、決策樹(shù)C、K均值法、SOM神經(jīng)網(wǎng)絡(luò)D、決策樹(shù)、BP神經(jīng)網(wǎng)絡(luò)、貝葉斯正確答案:【決策樹(shù)、BP神經(jīng)網(wǎng)絡(luò)、貝葉斯】9、問(wèn)題:決策樹(shù)中不包含一下哪種結(jié)點(diǎn)()。選項(xiàng):A、根結(jié)點(diǎn)(rootnode)B、內(nèi)部結(jié)點(diǎn)(internalnode)C、外部結(jié)點(diǎn)(externalnode)D、葉結(jié)點(diǎn)(leafnode)正確答案:【外部結(jié)點(diǎn)(externalnode)】10、問(wèn)題:以下哪種算法是分類(lèi)算法()。選項(xiàng):A、DBSCANB、C4.5C、K-MeanD、EM正確答案:【C4.5】11、問(wèn)題:下列屬于決策樹(shù)中應(yīng)該剪枝的情景是()。選項(xiàng):A、一個(gè)結(jié)點(diǎn)關(guān)聯(lián)的數(shù)據(jù)集的信息熵高于指定閾值B、一個(gè)結(jié)點(diǎn)關(guān)聯(lián)的數(shù)據(jù)集的信息熵低于指定閾值C、雙親結(jié)點(diǎn)的誤差比子女結(jié)點(diǎn)的加權(quán)誤差大D、雙親結(jié)點(diǎn)的誤差比子女結(jié)點(diǎn)的平均誤差大正確答案:【一個(gè)結(jié)點(diǎn)關(guān)聯(lián)的數(shù)據(jù)集的信息熵低于指定閾值】12、問(wèn)題:樸素貝葉斯分類(lèi)中得到條件概率的方法錯(cuò)誤的是()。選項(xiàng):A、對(duì)于定性屬性,計(jì)算某一類(lèi)別的樣本中某種屬性取該值的樣本所占比例來(lái)近似B、對(duì)于定性屬性,將轉(zhuǎn)化為定量屬性,再計(jì)算相應(yīng)的概率C、對(duì)于定量屬性,將取值離散化變?yōu)閰^(qū)間,再當(dāng)做定性屬性處理D、對(duì)于定量屬性,假設(shè)變量服從某種概率分布,通過(guò)訓(xùn)練數(shù)據(jù)集估計(jì)分布的參數(shù)正確答案:【對(duì)于定性屬性,將轉(zhuǎn)化為定量屬性,再計(jì)算相應(yīng)的概率】13、問(wèn)題:假設(shè)某分類(lèi)器在一個(gè)測(cè)試數(shù)據(jù)集上的分類(lèi)結(jié)果的混淆矩陣如下所示,該分類(lèi)器的準(zhǔn)確率accuracy為()。PredictedyesnoActualyes155no1020選項(xiàng):A、70%B、75%C、66.7%D、80%正確答案:【70%】14、問(wèn)題:假設(shè)某分類(lèi)器在一個(gè)測(cè)試數(shù)據(jù)集上的分類(lèi)結(jié)果的混淆矩陣如下所示,該分類(lèi)器的錯(cuò)誤率errorrate為()。PredictedyesnoActualyes155no1020選項(xiàng):A、30%B、25%C、33.3%D、20%正確答案:【30%】15、問(wèn)題:構(gòu)造訓(xùn)練數(shù)據(jù)集和測(cè)試數(shù)據(jù)集的常用方法有()。選項(xiàng):A、保持法(holdout)B、交叉驗(yàn)證法(crossvalidation)C、自助抽樣法(bootstrap)D、留一法(leaveoneout)正確答案:【保持法(holdout)#交叉驗(yàn)證法(crossvalidation)#自助抽樣法(bootstrap)#留一法(leaveoneout)】16、問(wèn)題:為了比較利用不同分類(lèi)算法構(gòu)建的分類(lèi)模型的性能,可以利用圖形進(jìn)行比較,常用的圖形包括()。選項(xiàng):A、增益圖B、ROC曲線C、直方圖D、條形圖正確答案:【增益圖#ROC曲線】17、問(wèn)題:分類(lèi)是總結(jié)已有類(lèi)別對(duì)象的特點(diǎn),并根據(jù)這些特點(diǎn),進(jìn)行未知類(lèi)別對(duì)象的類(lèi)別預(yù)測(cè)的過(guò)程。又可稱(chēng)為無(wú)監(jiān)督學(xué)習(xí)。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【錯(cuò)誤】18、問(wèn)題:Bayes法是一種在已知后驗(yàn)概率與類(lèi)條件概率的情況下的模式分類(lèi)方法,待分樣本的分類(lèi)結(jié)果取決于各類(lèi)域中樣本的全體。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【錯(cuò)誤】19、問(wèn)題:分類(lèi)模型的誤差大致分為兩種:訓(xùn)練誤差(trainingerror)和泛化誤差(generalizationerror)。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【正確】20、問(wèn)題:在決策樹(shù)中,隨著樹(shù)中結(jié)點(diǎn)數(shù)變得太大,即使模型的訓(xùn)練誤差還在繼續(xù)減低,但是檢驗(yàn)誤差開(kāi)始增大,這是出現(xiàn)了模型擬合不足的問(wèn)題。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【錯(cuò)誤】21、問(wèn)題:決策樹(shù)方法通常用于關(guān)聯(lián)規(guī)則挖掘。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【錯(cuò)誤】22、問(wèn)題:留一法是交叉驗(yàn)證法的特殊情況。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【正確】23、問(wèn)題:決策樹(shù)的思想是自頂向下遞歸的構(gòu)建過(guò)程,關(guān)鍵點(diǎn)是在于分裂屬性和分裂條件的選擇。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【正確】24、問(wèn)題:ID3的分裂屬性選擇條件是選擇信息增益最大的作為分裂屬性。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【正確】25、問(wèn)題:樸素貝葉斯分類(lèi)基于貝葉斯定理的一種分類(lèi)方法。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【正確】26、問(wèn)題:k近鄰方法不需要事先學(xué)習(xí)分類(lèi)模型,當(dāng)需要預(yù)測(cè)的時(shí)候,根據(jù)預(yù)測(cè)樣本的特性和已知訓(xùn)練數(shù)據(jù)集中的數(shù)據(jù)進(jìn)行類(lèi)別的判斷。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【正確】27、問(wèn)題:K近鄰方法的核心思想是對(duì)一個(gè)預(yù)測(cè)樣本A,從訓(xùn)練數(shù)據(jù)集中找到與其最相似的k個(gè)樣本,利用這個(gè)k個(gè)樣本的類(lèi)別來(lái)決策該樣本A的類(lèi)別。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【正確】28、填空題:為了評(píng)價(jià)一個(gè)分類(lèi)模型的性能,我們通常根據(jù)分類(lèi)模型判斷一組已知類(lèi)別的對(duì)象的類(lèi)別,這些已知類(lèi)別的對(duì)象構(gòu)成的數(shù)據(jù)集稱(chēng)為。正確答案:【測(cè)試數(shù)據(jù)集##%_YZPRLFH_%##測(cè)試集】29、填空題:決策樹(shù)中根結(jié)點(diǎn)的層次為?!菊?qǐng)?zhí)顚?xiě)阿拉伯?dāng)?shù)字】正確答案:【1】30、填空題:分類(lèi)算法針對(duì)某個(gè)測(cè)試數(shù)據(jù)集的有效性通常通過(guò)矩陣來(lái)反映。正確答案:【混淆】31、填空題:假設(shè)某分類(lèi)器在一個(gè)測(cè)試數(shù)據(jù)集上的分類(lèi)結(jié)果的混淆矩陣如下所示,請(qǐng)計(jì)算該分類(lèi)器的錯(cuò)誤率,以類(lèi)別yes為正例,計(jì)算分類(lèi)器的查準(zhǔn)率precision為%?!颈A舻秸麛?shù)位】PredictedyesnoActualyes155no1020正確答案:【60】32、填空題:假設(shè)某分類(lèi)器在一個(gè)測(cè)試數(shù)據(jù)集上的分類(lèi)結(jié)果的混淆矩陣如下所示,請(qǐng)計(jì)算該分類(lèi)器的錯(cuò)誤率,以類(lèi)別yes為正例,計(jì)算分類(lèi)器的查全率recall為%?!颈A舻秸麛?shù)位】PredictedyesnoActualyes155no1020正確答案:【75】第六單元測(cè)驗(yàn)1、問(wèn)題:通過(guò)代碼”fromsklearnimportlinear_model”引入線性模型模塊,并通過(guò)代碼“reg=linear_model.LinearRegression()”構(gòu)造回歸器對(duì)象后,在訓(xùn)練時(shí)要調(diào)用的方法是()。選項(xiàng):A、reg.train()B、reg.fit()C、reg.learn()D、reg.predict()正確答案:【reg.fit()】2、問(wèn)題:通過(guò)代碼”fromsklearnimportlinear_model”引入線性模型模塊,并通過(guò)代碼“reg=linear_model.LinearRegression()”構(gòu)造回歸器對(duì)象,在訓(xùn)練后做預(yù)測(cè)時(shí)要調(diào)用的方法是()。選項(xiàng):A、reg.guess()B、reg.forecast()C、reg.predict()D、reg.outlook()正確答案:【reg.predict()】3、問(wèn)題:利用“l(fā)inear_model.LinearRegression()”訓(xùn)練模型時(shí)調(diào)用.fit()方法需要傳遞的第一個(gè)參數(shù)是()。選項(xiàng):A、樣本特征XB、樣本標(biāo)簽YC、樣本權(quán)重D、是否考慮計(jì)算截距正確答案:【樣本特征X】4、問(wèn)題:利用linear_model.LinearRegression()訓(xùn)練模型時(shí)調(diào)用.fit()方法需要傳遞的第二個(gè)參數(shù)是()。選項(xiàng):A、樣本特征XB、樣本標(biāo)簽YC、樣本權(quán)重D、是否考慮計(jì)算截距正確答案:【樣本標(biāo)簽Y】5、問(wèn)題:在利用linear_model.LinearRegression()構(gòu)造的reg對(duì)象訓(xùn)練模型后,可以通過(guò)以下哪行代碼查看回歸模型系數(shù)()。選項(xiàng):A、reg.coefficient_B、reg._coefficientC、reg._coefD、reg.coef_正確答案:【reg.coef_】6、問(wèn)題:在以下四個(gè)散點(diǎn)圖中,其中適用于作線性回歸的散點(diǎn)圖為()。選項(xiàng):A、①②B、①③C、②③D、③④正確答案:【①③】7、問(wèn)題:已知對(duì)一組觀察值(xi,yi)作出散點(diǎn)圖后確定具有線性相關(guān)關(guān)系,若對(duì)于y=bx+a,求得b=0.51,x=61.75,y=38.14,則線性回歸方程為()。選項(xiàng):A、y=0.51x+6.65B、y=6.65x+0.51C、y=0.51x+42.30D、y=42.30x+0.51正確答案:【y=0.51x+6.65】8、問(wèn)題:對(duì)于指數(shù)曲線y=a*e^(bx),令u=lny,c=lna,經(jīng)過(guò)非線性化回歸分析之后,可以轉(zhuǎn)化成的形式為()。選項(xiàng):A、u=c+bxB、u=b+cxC、y=b+cxD、y=c+bx正確答案:【u=c+bx】9、問(wèn)題:下面關(guān)于構(gòu)建模型樹(shù)的說(shuō)法中,錯(cuò)誤的是()。選項(xiàng):A、創(chuàng)建一個(gè)結(jié)點(diǎn)t,與結(jié)點(diǎn)t關(guān)聯(lián)的數(shù)據(jù)集記為DtB、如果當(dāng)前結(jié)點(diǎn)t所關(guān)聯(lián)的數(shù)據(jù)集Dt中樣本個(gè)數(shù)小于給定閾值或者Dt中樣本的目標(biāo)屬性取值的標(biāo)準(zhǔn)差小于給定閾值,則將該結(jié)點(diǎn)標(biāo)記為葉子節(jié)點(diǎn)C、在選擇分類(lèi)屬性時(shí),應(yīng)選擇時(shí)SDR值最小的屬性D、SDR代表誤差的期望減少正確答案:【在選擇分類(lèi)屬性時(shí),應(yīng)選擇時(shí)SDR值最小的屬性】10、問(wèn)題:下列選項(xiàng)中錯(cuò)誤的是()。選項(xiàng):A、MST=SST/dfTB、MSE=SSE/dfEC、MSR=SSR/dfRD、SSR=SST+SSE正確答案:【SSR=SST+SSE】11、問(wèn)題:決策樹(shù)的葉子結(jié)點(diǎn)對(duì)應(yīng)()。選項(xiàng):A、某個(gè)類(lèi)別B、一個(gè)數(shù)值C、一個(gè)線性回歸方程D、以上都可以正確答案:【某個(gè)類(lèi)別】12、問(wèn)題:回歸樹(shù)的葉子結(jié)點(diǎn)對(duì)應(yīng)()。選項(xiàng):A、某個(gè)類(lèi)別B、一個(gè)數(shù)值C、一個(gè)線性回歸方程D、以上都可以正確答案:【一個(gè)數(shù)值】13、問(wèn)題:模型樹(shù)的葉子結(jié)點(diǎn)對(duì)應(yīng)()。選項(xiàng):A、某個(gè)類(lèi)別B、一個(gè)數(shù)值C、一個(gè)線性回歸方程D、以上都可以正確答案:【一個(gè)線性回歸方程】14、問(wèn)題:在比較模型的擬合效果時(shí),甲、乙、丙、丁四個(gè)模型的決定系數(shù)R^2的值分別約為0.96、0.85、0.80和0.7,則擬合效果好的模型是()。選項(xiàng):A、甲B、乙C、丙D、丁正確答案:【甲】15、問(wèn)題:多元回歸建模后的檢驗(yàn)包括()。選項(xiàng):A、擬合優(yōu)度檢驗(yàn)B、回歸關(guān)系的顯著性檢驗(yàn)C、回歸系數(shù)的顯著性檢驗(yàn)D、傾向值檢驗(yàn)正確答案:【擬合優(yōu)度檢驗(yàn)#回歸關(guān)系的顯著性檢驗(yàn)#回歸系數(shù)的顯著性檢驗(yàn)】16、問(wèn)題:常用的非線性函數(shù)除了多項(xiàng)式函數(shù)之外,還包括()。選項(xiàng):A、冪函數(shù)B、指數(shù)函數(shù)C、對(duì)數(shù)函數(shù)D、雙曲函數(shù)正確答案:【冪函數(shù)#指數(shù)函數(shù)#對(duì)數(shù)函數(shù)#雙曲函數(shù)】17、問(wèn)題:()采用自頂向下分而治之的思想,將訓(xùn)練集不斷分割成子數(shù)據(jù)集來(lái)不斷擴(kuò)展樹(shù)枝,當(dāng)滿足一定條件時(shí)停止樹(shù)的生長(zhǎng)。選項(xiàng):A、決策樹(shù)B、模型樹(shù)C、回歸樹(shù)D、多元回歸正確答案:【決策樹(shù)#模型樹(shù)#回歸樹(shù)】18、問(wèn)題:預(yù)測(cè)性能的優(yōu)劣需要一定的度量來(lái)衡量,常用的度量是()。選項(xiàng):A、MAE(平均絕對(duì)誤差)B、MSE(均方誤差)C、RSE(相對(duì)平方誤差)D、RAE(相對(duì)絕對(duì)誤差)正確答案:【MAE(平均絕對(duì)誤差)#MSE(均方誤差)#RSE(相對(duì)平方誤差)#RAE(相對(duì)絕對(duì)誤差)】19、問(wèn)題:數(shù)值預(yù)測(cè)與分類(lèi)都屬于有監(jiān)督學(xué)習(xí),解決問(wèn)題的過(guò)程相同,都是先通過(guò)訓(xùn)練數(shù)據(jù)集進(jìn)行學(xué)習(xí),以得到一個(gè)模型然后利用模型進(jìn)行預(yù)測(cè)。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【正確】20、問(wèn)題:的值越接近1,說(shuō)明回歸直線對(duì)觀測(cè)值的擬合程度越好。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【正確】21、問(wèn)題:為了檢驗(yàn)回歸系數(shù)的顯著性,可以使用F檢驗(yàn)。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【錯(cuò)誤】22、問(wèn)題:在模型樹(shù)的剪枝過(guò)程中,兩個(gè)葉子結(jié)點(diǎn)的期望誤差通過(guò)加權(quán)求和結(jié)合在一起作為子樹(shù)誤差。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【正確】23、問(wèn)題:回歸樹(shù)和模型樹(shù)都是通過(guò)自下而上、分而治之的思想,將訓(xùn)練集不斷分割成子數(shù)據(jù)集來(lái)不斷擴(kuò)展樹(shù)枝,當(dāng)滿足一定條件時(shí)停止樹(shù)的生長(zhǎng)。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【錯(cuò)誤】24、問(wèn)題:在模型樹(shù)的構(gòu)建過(guò)程中,應(yīng)選擇使SDR值最小的屬性。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【錯(cuò)誤】25、問(wèn)題:一元線性回歸的步驟:構(gòu)建包含因變量和自變量的訓(xùn)練集;通過(guò)散點(diǎn)圖確認(rèn)因變量和自變量之前的近似線性關(guān)系;計(jì)算系數(shù)和構(gòu)建模型;模型檢驗(yàn);利用模型進(jìn)行預(yù)測(cè)。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【正確】26、問(wèn)題:多元回歸是對(duì)一個(gè)自變量和多個(gè)因變量之間的回歸分析。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【錯(cuò)誤】27、問(wèn)題:回歸系數(shù)的檢驗(yàn)可以采用t檢驗(yàn)。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【正確】28、問(wèn)題:模型樹(shù)構(gòu)建之后,為了避免過(guò)度擬合,需要對(duì)模型樹(shù)進(jìn)行剪枝。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【正確】29、問(wèn)題:在模型樹(shù)的構(gòu)建過(guò)程中,分裂屬性的選擇以分裂后的各個(gè)子數(shù)據(jù)集中目標(biāo)屬性取值的標(biāo)準(zhǔn)差為依據(jù),將標(biāo)準(zhǔn)差作為一種誤差度量,將分裂前后標(biāo)準(zhǔn)差的減少量作為誤差的期望減少,稱(chēng)為SDR。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【正確】30、問(wèn)題:K近鄰數(shù)值預(yù)測(cè)是利用一個(gè)樣本的K個(gè)最相似的鄰居的目標(biāo)屬性的取值來(lái)進(jìn)行預(yù)測(cè)。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【正確】31、填空題:模型樹(shù)構(gòu)建之后,為了避免過(guò)度擬合,需要對(duì)模型樹(shù)進(jìn)行________。正確答案:【剪枝】32、填空題:在模型樹(shù)的構(gòu)建過(guò)程中,分裂屬性的選擇以分裂后的各個(gè)子數(shù)據(jù)集中目標(biāo)屬性取值的標(biāo)準(zhǔn)差為依據(jù),將標(biāo)準(zhǔn)差作為一種誤差度量,將分裂前后標(biāo)準(zhǔn)差的減少量作為誤差的期望減少,稱(chēng)為_(kāi)________(填寫(xiě)英文簡(jiǎn)稱(chēng))。正確答案:【SDR】第七單元測(cè)驗(yàn)1、問(wèn)題:通過(guò)代碼”fromsklearn.clusterimportKMeans”引入Kmenas模塊,生成模型對(duì)象“kmeans=KMeans(n_clusters=2)”后,對(duì)于數(shù)據(jù)X訓(xùn)練時(shí)要調(diào)用的方法是()。選項(xiàng):A、kmeans.train()B、kmeans.fit()C、kmaens.train()D、kmaens.fit()正確答案:【kmeans.fit()】2、問(wèn)題:通過(guò)代碼”fromsklearn.clusterimportKMeans”引入Kmenas模塊后,生成模型對(duì)象“kmeans=KMeans(n_clusters=3)”并完成對(duì)數(shù)據(jù)X完成聚類(lèi)后,以下哪個(gè)代碼可以查看每個(gè)樣本所屬簇的標(biāo)簽()。選項(xiàng):A、kmeans.labels_B、kmeans.y_C、kmeans.targets_D、kmeans.output_正確答案:【kmeans.labels_】3、問(wèn)題:以下哪種情況對(duì)Kmeans模型的影響較?。ǎ_x項(xiàng):A、給定錯(cuò)誤聚類(lèi)個(gè)數(shù)B、數(shù)據(jù)有各向異性分布C、不同簇的方差相差較大D、簇的大小分布不均衡正確答案:【簇的大小分布不均衡】4、問(wèn)題:在利用sklearn.cluster.AgglomerativeClustering進(jìn)行凝聚聚類(lèi)時(shí),使用的默認(rèn)距離度量是()。選項(xiàng):A、馬氏距離B、余弦距離C、曼哈頓距離D、歐氏距離正確答案:【歐氏距離】5、問(wèn)題:給定numpy.ndarray類(lèi)型的數(shù)X,在以下代碼中,eps參數(shù)的含義是()。fromsklearn.clusterimportDBSCANclustering=DBSCAN(eps=3,min_samples=2).fit(X)選項(xiàng):A、收斂條件閾值B、簇的個(gè)數(shù)C、鄰域半徑D、每個(gè)簇的最小樣本數(shù)正確答案:【鄰域半徑】6、問(wèn)題:根據(jù)聚類(lèi)形成的簇的特點(diǎn),如果有交集的簇之間必然存在包含關(guān)系,這種聚類(lèi)稱(chēng)為()。選項(xiàng):A、劃分型聚類(lèi)B、層次型聚類(lèi)C、重疊聚類(lèi)D、以上均不是正確答案:【層次型聚類(lèi)】7、問(wèn)題:余弦相似度適用于()情況。選項(xiàng):A、屬性類(lèi)型多B、屬性數(shù)量多C、有大量零值維度D、距離相近正確答案:【有大量零值維度】8、問(wèn)題:皮爾森相關(guān)系數(shù)取值為()時(shí)說(shuō)明兩個(gè)對(duì)象最不相似。選項(xiàng):A、0B、1C、0.05D、-1正確答案:【-1】9、問(wèn)題:k均值聚類(lèi)的目標(biāo)是()。選項(xiàng):A、最大化簇間距離B、最小化簇內(nèi)距離的平方和C、最大化質(zhì)心距離D、簇的大小基本一致正確答案:【最小化簇內(nèi)距離的平方和】10、問(wèn)題:給定密度闕值為3,對(duì)象o的ξ鄰域中有5個(gè)對(duì)象,那么o是()。選項(xiàng):A、核心點(diǎn)B、關(guān)鍵點(diǎn)C、集中點(diǎn)D、高密度點(diǎn)正確答案:【核心點(diǎn)】11、問(wèn)題:輪廓系數(shù)的取值范圍是()。選項(xiàng):A、[0,1]B、[-1,1]C、[-1,0]D、[0,∞)正確答案:【[-1,1]】12、問(wèn)題:P(22,1,42,10),Q(20,0,36,8)為兩個(gè)向量對(duì)象,這兩個(gè)對(duì)象的歐幾里得距離是()。選項(xiàng):A、B、11C、6D、正確答案:【】13、問(wèn)題:P(22,1,42,10),Q(20,0,36,8)為兩個(gè)向量對(duì)象,這兩個(gè)對(duì)象的曼哈頓距離是()。選項(xiàng):A、B、11C、6D、正確答案:【11】14、問(wèn)題:P(22,1,42,10),Q(20,0,36,8)為兩個(gè)向量對(duì)象,這兩個(gè)對(duì)象的切比雪夫距離是()。選項(xiàng):A、B、11C、6D、正確答案:【6】15、問(wèn)題:P(22,1,42,10),Q(20,0,36,8)為兩個(gè)向量對(duì)象,這兩個(gè)對(duì)象的閔可夫斯基距離(x=3)是()。選項(xiàng):A、B、11C、6D、正確答案:【】16、問(wèn)題:下面哪些聚類(lèi)方法易于發(fā)現(xiàn)具有球形形狀的簇,難以發(fā)現(xiàn)橢圓形或者凹形形狀的簇?選項(xiàng):A、k均值聚類(lèi)B、層次聚類(lèi)C、DBSCAND、基于密度的聚類(lèi)方法正確答案:【k均值聚類(lèi)#層次聚類(lèi)】17、問(wèn)題:下面哪些聚類(lèi)方法易于發(fā)現(xiàn)特殊形狀的簇?選項(xiàng):A、k均值聚類(lèi)B、層次聚類(lèi)C、DBSCAND、基于密度的聚類(lèi)方法正確答案:【DBSCAN#基于密度的聚類(lèi)方法】18、問(wèn)題:關(guān)于聚類(lèi)下列說(shuō)法正確的是()。選項(xiàng):A、聚類(lèi)有著廣泛的應(yīng)用。B、聚類(lèi)可以作為其他數(shù)據(jù)挖掘分析過(guò)程的一個(gè)基礎(chǔ)處理步驟。C、聚類(lèi)可以發(fā)現(xiàn)偏離多數(shù)數(shù)據(jù)對(duì)象的孤立點(diǎn)。D、聚類(lèi)和分類(lèi)沒(méi)有區(qū)別。正確答案:【聚類(lèi)有著廣泛的應(yīng)用。#聚類(lèi)可以作為其他數(shù)據(jù)挖掘分析過(guò)程的一個(gè)基礎(chǔ)處理步驟。#聚類(lèi)可以發(fā)現(xiàn)偏離多數(shù)數(shù)據(jù)對(duì)象的孤立點(diǎn)。】19、問(wèn)題:聚類(lèi)分析的過(guò)程中,聚類(lèi)效果較好時(shí)屬于同一個(gè)簇的對(duì)象相似度很高,而屬于不同簇的對(duì)象相似度很低。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【正確】20、問(wèn)題:攝氏溫度屬于比例屬性。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【錯(cuò)誤】21、問(wèn)題:多種屬性相似度的綜合度量,可以先對(duì)單個(gè)屬性進(jìn)行相似度度量,然后求所有屬性相似度的均值作為整個(gè)對(duì)象相似度。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【正確】22、問(wèn)題:凝聚層次聚類(lèi)法中每次簇的合并可以更改。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【錯(cuò)誤】23、問(wèn)題:凝聚度是用于衡量簇間相似程度的,凝聚度越大越好。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【正確】24、問(wèn)題:基于隨機(jī)游走理論的鏈接相似度衡量方法(稱(chēng)為SimRank)計(jì)算兩結(jié)點(diǎn)間的相似度,具有有界性、對(duì)稱(chēng)性、單調(diào)遞增性、三角不等式性質(zhì)。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【錯(cuò)誤】25、問(wèn)題:輪廓系數(shù)是將凝聚度和分離度相結(jié)合的一種度量,越大聚類(lèi)效果越好。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【正確】26、問(wèn)題:DBSCAN是一種基于密度的聚類(lèi)方法,容易發(fā)現(xiàn)特殊形狀的簇。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【正確】27、問(wèn)題:K均值聚類(lèi)需要提前設(shè)定K值,而凝聚層次法不需要預(yù)先設(shè)置參數(shù)。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【正確】28、填空題:____屬性分為對(duì)稱(chēng)屬性和非對(duì)稱(chēng)屬性。正確答案:【二值】29、填空題:Jaccard系數(shù)適用于衡量用________二值屬性描述的對(duì)象間的相似度。正確答案:【非對(duì)稱(chēng)】第八單元測(cè)驗(yàn)1、問(wèn)題:顧客購(gòu)物序列屬于哪種數(shù)據(jù)類(lèi)型()選項(xiàng):A、時(shí)間序列數(shù)據(jù)B、符號(hào)序列數(shù)據(jù)C、生物學(xué)序列D、空間數(shù)據(jù)正確答案:【符號(hào)序列數(shù)據(jù)】2、問(wèn)題:下列哪項(xiàng)不是時(shí)間序列的主要研究方法()選項(xiàng):A、相似性搜索B、回歸分析C、趨勢(shì)分析D、序列模式挖掘正確答案:【序列模式挖掘】3、問(wèn)題:下列屬于異質(zhì)網(wǎng)絡(luò)的是()選項(xiàng):A、朋友網(wǎng)絡(luò)B、合著者網(wǎng)絡(luò)C、在線醫(yī)療網(wǎng)絡(luò)D、網(wǎng)頁(yè)網(wǎng)絡(luò)正確答案:【在線醫(yī)療網(wǎng)絡(luò)】4、問(wèn)題:機(jī)動(dòng)車(chē)輛管理者把GPS安裝在汽車(chē)上,以便更好地監(jiān)管和引導(dǎo)車(chē)輛,所記錄的數(shù)據(jù)屬于()選項(xiàng):A、空間數(shù)據(jù)B、時(shí)空數(shù)據(jù)C、物聯(lián)網(wǎng)系統(tǒng)數(shù)據(jù)D、Web數(shù)據(jù)正確答案:【時(shí)空數(shù)據(jù)】5、問(wèn)題:典型的文本挖掘任務(wù)包括()選項(xiàng):A、文本分類(lèi)B、文本聚類(lèi)C、觀點(diǎn)分析D、以上都是正確答案:【以上都是】6、問(wèn)題:()是指大量流入系統(tǒng)、動(dòng)態(tài)變化的、可能無(wú)限的,并且包含多維特征的數(shù)據(jù)。選項(xiàng):A、流數(shù)據(jù)B、文本數(shù)據(jù)C、序列數(shù)據(jù)D、符號(hào)數(shù)據(jù)正確答案:【流數(shù)據(jù)】7、問(wèn)題:根據(jù)分析目標(biāo),Web挖掘可以劃分主要研究領(lǐng)域包括()。選項(xiàng):A、Web內(nèi)容挖掘B、Web結(jié)構(gòu)挖掘C、Web使用挖掘D、Web布局挖掘正確答案:【W(wǎng)eb內(nèi)容挖掘#Web結(jié)構(gòu)挖掘#Web使用挖掘】8、問(wèn)題:下面哪些是時(shí)空數(shù)據(jù)的應(yīng)用()。選項(xiàng):A、動(dòng)物學(xué)家把遙感設(shè)備安裝在野生動(dòng)物身上,以便分析生態(tài)行為B、機(jī)動(dòng)車(chē)輛管理者把GPS安裝在汽車(chē)上,以便更好地監(jiān)管和引導(dǎo)車(chē)輛C、氣象學(xué)家使用人造衛(wèi)星和雷達(dá)觀察颶風(fēng)D、從多媒體數(shù)據(jù)庫(kù)中發(fā)現(xiàn)有趣的模式正確答案:【動(dòng)物學(xué)家把遙感設(shè)備安裝在野生動(dòng)物身上,以便分析生態(tài)行為#機(jī)動(dòng)車(chē)輛管理者把GPS安裝在汽車(chē)上,以便更好地監(jiān)管和引導(dǎo)車(chē)輛#氣象學(xué)家使用人造衛(wèi)星和雷達(dá)觀察颶風(fēng)】9、問(wèn)題:生物學(xué)序列通常很長(zhǎng),攜帶重要的、復(fù)雜的、隱藏的語(yǔ)義。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【正確】10、問(wèn)題:符號(hào)序列數(shù)據(jù)由事件或標(biāo)稱(chēng)數(shù)據(jù)的長(zhǎng)序列組成,通常時(shí)間間隔相等。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【錯(cuò)誤】11、問(wèn)題:圖與網(wǎng)絡(luò)挖掘應(yīng)用范圍廣泛,涉及生物信息學(xué)、化學(xué)情報(bào)學(xué)、計(jì)算機(jī)視覺(jué)、多媒體和文本檢索。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【正確】12、問(wèn)題:多媒體數(shù)據(jù)挖掘是一個(gè)交叉學(xué)科領(lǐng)域,涉及圖像處理和理解、計(jì)算機(jī)視覺(jué)、數(shù)據(jù)挖掘和模式識(shí)別。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【正確】13、問(wèn)題:目前大部分系統(tǒng)能夠多次讀取流數(shù)據(jù)。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【錯(cuò)誤】14、問(wèn)題:網(wǎng)絡(luò)由一個(gè)節(jié)點(diǎn)集和一個(gè)連接這些節(jié)點(diǎn)的邊集組成。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【正確】15、問(wèn)題:物聯(lián)網(wǎng)系統(tǒng)由大量相互作用的物理和信息部件組成,其例子包括患者護(hù)理系統(tǒng),運(yùn)輸系統(tǒng)等。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【正確】16、問(wèn)題:“你和任何一個(gè)陌生人之間所間隔的人不會(huì)超過(guò)六個(gè)”稱(chēng)為小世界現(xiàn)象。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【正確】17、問(wèn)題:多媒體數(shù)據(jù)挖掘是一個(gè)交叉學(xué)科領(lǐng)域,涉及圖像處理和理解、計(jì)算機(jī)視覺(jué)、數(shù)據(jù)挖掘和模式識(shí)別。選項(xiàng):A、正確B、錯(cuò)誤正確答案:【正確】《數(shù)據(jù)挖掘與python實(shí)踐》期末試卷1、問(wèn)題:數(shù)據(jù)挖掘又稱(chēng)從數(shù)據(jù)中發(fā)現(xiàn)知識(shí),后者英文簡(jiǎn)稱(chēng)為()。選項(xiàng):A、KDDB、KPPC、KDPD、KPD正確答案:【KDD】2、問(wèn)題:數(shù)據(jù)挖掘又稱(chēng)從數(shù)據(jù)中發(fā)現(xiàn)知識(shí),前者英文簡(jiǎn)稱(chēng)為()。選項(xiàng):A、DMB、KPPC、KDDD、DD正確答案:【DM】3、問(wèn)題:一般數(shù)據(jù)挖掘的流程順序,下列正確的是()。①選擇數(shù)據(jù)挖掘的技術(shù)、功能和合適的算法②選擇數(shù)據(jù),數(shù)據(jù)清洗和預(yù)處理③了解應(yīng)用領(lǐng)域,了解相關(guān)的知識(shí)和應(yīng)用目標(biāo)④尋找感興趣的模式、模式評(píng)估、知識(shí)表示⑤創(chuàng)建目標(biāo)數(shù)據(jù)集選項(xiàng):A、③⑤②①④B、③④①⑤②C、⑤④②①③D、③②⑤①④正確答案:【③⑤②①④】4、問(wèn)題:結(jié)構(gòu)化的數(shù)據(jù)是指一些數(shù)據(jù)通過(guò)統(tǒng)一的()的形式存儲(chǔ)的,這類(lèi)數(shù)據(jù)我們稱(chēng)為結(jié)構(gòu)化的數(shù)據(jù)。選項(xiàng):A、二維表格B、文檔C、圖像D、聲音正確答案:【二維表格】5、問(wèn)題:數(shù)值預(yù)測(cè)用于連續(xù)變量的取值,常用的預(yù)測(cè)方法是()。選項(xiàng):A、回歸分析B、聚類(lèi)C、關(guān)聯(lián)D、分類(lèi)正確答案:【回歸分析】6、問(wèn)題:下列應(yīng)用場(chǎng)景不屬于分類(lèi)的是()。選項(xiàng):A、為了解用戶特點(diǎn),公司將客戶分群B、對(duì)信用卡申請(qǐng)者判斷其信譽(yù)高低C、醫(yī)生根據(jù)患者的癥狀判斷所患疾病類(lèi)型D、推廣新產(chǎn)品時(shí)預(yù)測(cè)已有客戶是否對(duì)新產(chǎn)品感興趣正確答案:【為了解用戶特點(diǎn),公司將客戶分群】7、問(wèn)題:Python語(yǔ)言的創(chuàng)始人是()。選項(xiàng):A、GuidovanRossumB、BillGatesC、SergeyBrinD、LarryPage正確答案:【GuidovanRossum】8、問(wèn)題:Python科學(xué)計(jì)算的基本包是()。選項(xiàng):A、numpyB、pandasC、scikit-learnD、matplotlib正確答案:【numpy】9、問(wèn)題:以下Python包中,繪圖功能最強(qiáng)大的是()。選項(xiàng):A、matplotlibB、pandasC、scikit-learnD、numpy正確答案:【matplotlib】10、問(wèn)題:以下Python包中,最適合用于機(jī)器學(xué)習(xí)的是()。選項(xiàng):A、scikit-learnB、pandasC、numpyD、matplotlib正確答案:【scikit-learn】11、問(wèn)題:以下Python包中,提供了DataFrame數(shù)據(jù)類(lèi)型的是()。選項(xiàng):A、pandasB、scikit-learnC、numpyD、matplotlib正確答案:【pandas】12、問(wèn)題:為了避免包的依賴關(guān)系和系統(tǒng)兼容性等方面出現(xiàn)問(wèn)題,本課程推薦的Python安裝方式為()。選項(xiàng):A、通過(guò)Anaconda安裝B、直接下載Python安裝C、通過(guò)瀏覽器查找處理過(guò)的Python安裝包D、直接安裝Pycharm正確答案:【通過(guò)Anaconda安裝】13、問(wèn)題:下列不屬于數(shù)據(jù)預(yù)處理原因的是()。選項(xiàng):A、數(shù)據(jù)量過(guò)于龐大B、數(shù)據(jù)可能存在缺失、錯(cuò)誤、不一致等問(wèn)題C、數(shù)據(jù)有可能不能很好地反映潛在的模式D、有些數(shù)據(jù)屬性是無(wú)用的或者冗余的正確答案:【數(shù)據(jù)量過(guò)于龐大】14、問(wèn)題:下列關(guān)于數(shù)據(jù)規(guī)范化說(shuō)法錯(cuò)誤的是()。選項(xiàng):A、數(shù)據(jù)規(guī)范化是為了給重要的屬性賦予更大的權(quán)重B、數(shù)據(jù)規(guī)范化又稱(chēng)為數(shù)據(jù)標(biāo)準(zhǔn)化C、數(shù)據(jù)規(guī)范化是將屬性的取值范圍統(tǒng)一D、數(shù)據(jù)規(guī)范化是為了避免不同屬性的不平等地位正確答案:【數(shù)據(jù)規(guī)范化是為了給重要的屬性賦予更大的權(quán)重】15、問(wèn)題:缺失值處理方法中錯(cuò)誤的是()。選項(xiàng):A、對(duì)于所有屬性都可以使用均值B、對(duì)于分類(lèi)屬性,使用同類(lèi)對(duì)象屬性值的均值C、對(duì)于離散屬性或定性屬性,使用眾數(shù)D、轉(zhuǎn)換為分類(lèi)問(wèn)題或數(shù)值預(yù)測(cè)問(wèn)題正確答案:【對(duì)于所有屬性都可以使用均值】16、問(wèn)題:主成分分析的步驟是()。選項(xiàng):A、中心化數(shù)據(jù)集-計(jì)算協(xié)方差矩陣-計(jì)算特征根-計(jì)算主成分矩陣-得到降維后的數(shù)據(jù)集B、中心化數(shù)據(jù)集-計(jì)算主成分矩陣-計(jì)算協(xié)方差矩陣-計(jì)算特征根-得到降維后的數(shù)據(jù)集C、計(jì)算協(xié)方差矩陣-計(jì)算主成分矩陣-計(jì)算特征根-中心化數(shù)據(jù)集-得到降維后的數(shù)據(jù)集D、計(jì)算協(xié)方差矩陣-計(jì)算特征根-中心化數(shù)據(jù)集-計(jì)算主成分矩陣-得到降維后的數(shù)據(jù)集正確答案:【中心化數(shù)據(jù)集-計(jì)算協(xié)方差矩陣-計(jì)算特征根-計(jì)算主成分矩陣-得到降維后的數(shù)據(jù)集】17、問(wèn)題:下列關(guān)于等距離分箱的說(shuō)法中錯(cuò)誤的是()。選項(xiàng):A、等距離分箱能使每個(gè)區(qū)間內(nèi)包含的取值個(gè)數(shù)大致相同B、又稱(chēng)為等寬度分箱C、若區(qū)間個(gè)數(shù)為k,每個(gè)區(qū)間的間距為I=(max-min)/kD、等距離分箱可能導(dǎo)致屬于某些的取值非常多,而某些又非常少正確答案:【等距離分箱能使每個(gè)區(qū)間內(nèi)包含的取值個(gè)數(shù)大致相同】18、問(wèn)題:數(shù)據(jù)預(yù)處理的任務(wù)不包括()。選項(xiàng):A、數(shù)據(jù)分類(lèi)B、數(shù)據(jù)清洗C、數(shù)據(jù)規(guī)范化和離散化D、特征提取與特征選擇正確答案:【數(shù)據(jù)分類(lèi)】19、問(wèn)題:使用python處理缺失值的方法中敘述錯(cuò)誤的是()。選項(xiàng):A、interpolate()使用中位數(shù)填充缺失值B、isnull()判斷缺失值C、dropna()刪除缺失值D、fillna()填充缺失值正確答案:【interpolate()使用中位數(shù)填充缺失值】20、問(wèn)題:最小最大規(guī)范化方法MinMaxScaler屬于python中的哪個(gè)包()。選項(xiàng):A、sklearnB、pandasC、numpyD、scipy正確答案:【sklearn】21、問(wèn)題:主成分分析方法PCA屬于屬于python中的哪個(gè)包()。選項(xiàng):A、sklearnB、pandasC、numpyD、scipy正確答案:【sklearn】22、問(wèn)題:運(yùn)行以下代碼fromsklearn.datasetsimportload_irisiris_data=load_iris()iris_data.data.shape輸出結(jié)果為(150,4)。則表示iris數(shù)據(jù)集包括樣本個(gè)數(shù)為()。選項(xiàng):A、150B、4C、600D、154正確答案:【150】23、問(wèn)題:運(yùn)行以下代碼fromsklearn.datasetsimportload_irisiris_data=load_iris()iris_data.data.shape輸出結(jié)果為(150,4)。則表示iris數(shù)據(jù)集包括樣本特征數(shù)為()。選項(xiàng):A、4B、150C、600D、154正確答案:【4】24、問(wèn)題:在numpy包中,計(jì)算中位數(shù)的函數(shù)為()。選項(xiàng):A、numpy.median()B、numpy.mean()C、numpy.std()D、numpy.var()正確答案:【numpy.median()】25、問(wèn)題:在numpy包中,計(jì)算標(biāo)準(zhǔn)差的函數(shù)為()。選項(xiàng):A、numpy.std()B、numpy.mean()C、numpy.median()D、numpy.var()正確答案:【numpy.std()】26、問(wèn)題:給定df是一個(gè)DataFrame對(duì)象,對(duì)df所有字段進(jìn)行描述性統(tǒng)計(jì),可以利用的方法為()。選項(xiàng):A、df.describe()B、df.summary()C、df.statistics()D、df.mean()正確答案:【df.describe()】27、問(wèn)題:運(yùn)行以下代碼“importmatplotlib.pyplotasplt”引入plt后,要繪制餅狀圖,需要利用的函數(shù)為()。選項(xiàng):A、plt.pie()B、plt.bar()C、plt.plot()D、plt.hist()正確答案:【plt.pie()】28、問(wèn)題:運(yùn)行以下代碼“importmatplotlib.pyplotasplt”引入plt后,要繪制折線圖,需要利用的函數(shù)為()。選項(xiàng):A、plt.plot()B、plt.bar()C、plt.pie()D、plt.hist()正確答案:【plt.plot()】29、問(wèn)題:運(yùn)行以下代碼“importmatplotlib.pyplotasplt”引入plt后,要繪制直方圖,需要利用的函數(shù)為()。選項(xiàng):A、plt.hist()B、plt.bar()C、plt.pie()D、plt.plot()正確答案:【plt.hist()】30、問(wèn)題:運(yùn)行以下代碼“importmatplotlib.pyplotasplt”引入plt后,要繪制散點(diǎn)圖,需要利用的函數(shù)為()。選項(xiàng):A、plt.scatter()B、plt.bar()C、plt.plot()D、plt.hist()正確答案:【plt.scatter()】31、問(wèn)題:使用最小-最大法進(jìn)行數(shù)據(jù)規(guī)范化,需要映射的目標(biāo)區(qū)間為[0,100],原來(lái)的取值范圍是[-10,10]。根據(jù)等比映射的原理,一個(gè)值8映射到新區(qū)間后的值是()。選項(xiàng):A、90B、80C、85D、95正確答案:【90】32、問(wèn)題:使用零均值規(guī)范化方法,年收入屬性的均值為65,標(biāo)準(zhǔn)差為12,則年收入59萬(wàn)元規(guī)范化后為()。選項(xiàng):A、-0.5B、-0.2C、0.3D、0.5正確答案:【-0.5】33、問(wèn)題:使用等距離分箱法進(jìn)行數(shù)據(jù)離散化,數(shù)據(jù)范圍為20,40,50,58,65,80,80,82,86,90,96,105,120,200,區(qū)間個(gè)數(shù)為4。下列屬于4個(gè)箱的區(qū)間是()。選項(xiàng):A、[110,155)B、[20,65]C、(65,110)D、(155,200]正確答案:【[110,155)】34、問(wèn)題:特征選擇方法中,一般的啟發(fā)式方法有()。選項(xiàng):A、以上都是B、逐步增加法C、逐步遞減法D、隨機(jī)選擇正確答案:【以上都是】35、問(wèn)題:在使用主成分分析法進(jìn)行數(shù)據(jù)屬性特征提取中,在對(duì)數(shù)據(jù)集進(jìn)行中心化處理后,為了去除冗余和降低噪音,應(yīng)將協(xié)方差矩陣非對(duì)角線上的元素化為()。選項(xiàng):A、0B、-1/2C、1/2D、不用處理正確答案:【0】36、問(wèn)題:通過(guò)代碼fromsklearnimporttree引入決策樹(shù)模塊,并通過(guò)代碼clf=tree.DecisionTreeClassifier()構(gòu)造分類(lèi)器對(duì)象后,訓(xùn)練時(shí)要調(diào)用的方法是()。選項(xiàng):A、clf.train()B、clf.fit()C、clf.learn()D、clf.predict()正確答案:【clf.fit()】37、問(wèn)題:通過(guò)代碼fromsklearnimporttree引入決策樹(shù)模塊,并通過(guò)代碼clf=tree.DecisionTreeClassifier()構(gòu)造分類(lèi)器對(duì)象,在訓(xùn)練后做預(yù)測(cè)時(shí)要調(diào)用的方法是()。選項(xiàng):A、clf.predict()B、clf.forecast()C、clf.guess()D、clf.outlook()正確答案:【clf.predict()】38、問(wèn)題:利用tree.DecisionTreeClassifier()訓(xùn)練模型時(shí)調(diào)用.fit()方法需要傳遞的第一個(gè)參數(shù)是()。選項(xiàng):A、樣本特征XB、樣本標(biāo)簽YC、判斷標(biāo)準(zhǔn)D、設(shè)置結(jié)點(diǎn)的最小樣本數(shù)量正確答案:【樣本特征X】39、問(wèn)題:利用tree.DecisionTreeClassifier()訓(xùn)練模型時(shí)調(diào)用.fit()方法需要傳遞的第二個(gè)參數(shù)是()。選項(xiàng):A、樣本特征XB、樣本標(biāo)簽YC、判斷標(biāo)準(zhǔn)D、設(shè)置結(jié)點(diǎn)的最小樣本正確答案:【樣本標(biāo)簽Y】40、問(wèn)題:通過(guò)代碼fromsklearnimportmetrics引入評(píng)價(jià)指標(biāo)模塊后,面對(duì)真實(shí)標(biāo)簽true_label和模型預(yù)測(cè)標(biāo)簽predicted_label,混淆矩陣可通過(guò)哪行代碼調(diào)用()選項(xiàng):A、confusion_matrix(true_label,predicted_label)B、confusion_matrix(predicted_label,true_label)C、metrics.confusion_matrix(true_label,predicted_label)D、metrics.confusion_matrix(predicted_label,true_label)正確答案:【metrics.confusion_matrix(true_label,predicted_label)】41、問(wèn)題:在Scikit-learn模塊下,不同分類(lèi)模型在訓(xùn)練時(shí),調(diào)用的方法名稱(chēng)是否相同()。選項(xiàng):A、相同B、不同C、視情況而定D、不知道正確答案:【相同】42、問(wèn)題:在Scikit-learn模塊下,不同分類(lèi)模型在預(yù)測(cè)時(shí),調(diào)用的方法名
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 電信行業(yè)財(cái)務(wù)分析與應(yīng)用試題考核試卷
- 纖維板生產(chǎn)中的熱壓工藝參數(shù)對(duì)性能影響研究考核試卷
- 油墨及類(lèi)似產(chǎn)品消費(fèi)趨勢(shì)分析考核試卷
- 食管癌護(hù)理查房 2
- 山東省2024屆高三數(shù)學(xué)下學(xué)期6月考前適應(yīng)性測(cè)試
- 福建省廈門(mén)市第一中學(xué)2024?2025學(xué)年高一下學(xué)期3月適應(yīng)性訓(xùn)練 數(shù)學(xué)試題(含解析)
- 綿陽(yáng)飛行職業(yè)學(xué)院《反應(yīng)工程概論》2023-2024學(xué)年第二學(xué)期期末試卷
- 山東濰坊高新技術(shù)產(chǎn)業(yè)開(kāi)發(fā)區(qū)實(shí)驗(yàn)學(xué)校2025屆五下數(shù)學(xué)期末學(xué)業(yè)質(zhì)量監(jiān)測(cè)模擬試題含答案
- 沈陽(yáng)城市學(xué)院《事故調(diào)查與模擬分析技術(shù)》2023-2024學(xué)年第二學(xué)期期末試卷
- 泉州信息工程學(xué)院《魏晉玄學(xué)》2023-2024學(xué)年第一學(xué)期期末試卷
- ISO-9001質(zhì)量管理體系介紹
- 圓鋼管受壓承載力計(jì)算
- 黑布林英語(yǔ)閱讀初一⑤《杰克的悠長(zhǎng)夏天》譯文-
- 勾股定理 楊靜
- 低壓配電柜GGD技術(shù)規(guī)范
- 某高速公路監(jiān)理管理及工程質(zhì)量監(jiān)理要點(diǎn)
- GB/T 9061-2006金屬切削機(jī)床通用技術(shù)條件
- GB/T 3682-2000熱塑性塑料熔體質(zhì)量流動(dòng)速率和熔體體積流動(dòng)速率的測(cè)定
- GB/T 1931-2009木材含水率測(cè)定方法
- 醫(yī)院患者壓力性損傷情況登記表
- GB 29206-2012食品安全國(guó)家標(biāo)準(zhǔn)食品添加劑硫酸銨
評(píng)論
0/150
提交評(píng)論