機器學(xué)習(xí)知到智慧樹章節(jié)測試課后答案2024年秋山東科技大學(xué)_第1頁
機器學(xué)習(xí)知到智慧樹章節(jié)測試課后答案2024年秋山東科技大學(xué)_第2頁
機器學(xué)習(xí)知到智慧樹章節(jié)測試課后答案2024年秋山東科技大學(xué)_第3頁
機器學(xué)習(xí)知到智慧樹章節(jié)測試課后答案2024年秋山東科技大學(xué)_第4頁
機器學(xué)習(xí)知到智慧樹章節(jié)測試課后答案2024年秋山東科技大學(xué)_第5頁
免費預(yù)覽已結(jié)束,剩余6頁可下載查看

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

機器學(xué)習(xí)知到智慧樹章節(jié)測試課后答案2024年秋山東科技大學(xué)第一章單元測試

機器學(xué)習(xí)最主要的兩種形式是監(jiān)督學(xué)習(xí)和無監(jiān)督學(xué)習(xí)。()

A:錯B:對

答案:對機器學(xué)習(xí)的核心是算法。()

A:對B:錯

答案:對過擬合只是監(jiān)督學(xué)習(xí)中的問題,對于無監(jiān)督學(xué)習(xí)影響不大。()

A:對B:錯

答案:錯下面哪句話是正確的?()

A:機器學(xué)習(xí)模型的精準度越高,則模型的性能越好B:其余說法都不對C:增加模型的復(fù)雜度,總能減小測試樣本誤差D:增加模型的復(fù)雜度,總能減小訓(xùn)練樣本誤差

答案:增加模型的復(fù)雜度,總能減小訓(xùn)練樣本誤差下列屬于無監(jiān)督學(xué)習(xí)的是()

A:K-MeansB:決策樹C:邏輯回歸D:SVM

答案:K-Means

第二章單元測試

在實際應(yīng)用中,選取損失函數(shù)的制約因素包括()。

A:是否有異常值B:求導(dǎo)的難易程度C:機器學(xué)習(xí)算法的選擇D:梯度下降的時間復(fù)雜度

答案:是否有異常值;求導(dǎo)的難易程度;機器學(xué)習(xí)算法的選擇;梯度下降的時間復(fù)雜度嶺回歸的目標函數(shù)是一個嚴格凸函數(shù),沒有唯一最優(yōu)解。()

A:對B:錯

答案:錯線性回歸算法、邏輯回歸算法和支持向量機等監(jiān)督式學(xué)習(xí)算法,都是經(jīng)驗損失最小化架構(gòu)在具體問題中的表現(xiàn)。()

A:錯B:對

答案:對以下關(guān)于無約束經(jīng)驗損失最小化算法的說法哪個是正確的?()

A:“無約束”的意思是模型的選擇不受任何約束,可以輸出模型空間中的任何模型B:可以精確地擬合訓(xùn)練數(shù)據(jù)C:為了降低過擬合,在實際應(yīng)用中大多會采用無約束經(jīng)驗損失最小化算法D:容易發(fā)生過渡擬合

答案:“無約束”的意思是模型的選擇不受任何約束,可以輸出模型空間中的任何模型;可以精確地擬合訓(xùn)練數(shù)據(jù);容易發(fā)生過渡擬合以下關(guān)于結(jié)構(gòu)損失最小化算法的說法哪個是錯誤的?()

A:任何經(jīng)驗損失最小化算法,都可以通過正則化方法轉(zhuǎn)化成結(jié)構(gòu)損失最小化算法B:體現(xiàn)了奧卡姆剃刀法則思想C:不會發(fā)生過渡擬合D:帶有正則化方法的經(jīng)驗損失最小化算法被稱為結(jié)構(gòu)損失最小化算法

答案:不會發(fā)生過渡擬合

第三章單元測試

以下是線性回歸應(yīng)用場景的是()

A:銀行個人信用評估B:房價預(yù)測C:醫(yī)生病理診斷D:垃圾郵件判斷

答案:房價預(yù)測下列屬于線性回歸的分類的有()

A:單變量線性關(guān)系B:多變量線性關(guān)系C:非線性關(guān)系D:ABC都是

答案:ABC都是以下關(guān)于隨機森林算法說法錯誤的是()

A:決策樹之間相關(guān)系數(shù)越低、每棵決策樹分類精度越高的隨機森林模型的分類效果越好。B:隨機森林算法對異常值和缺失值不敏感。C:隨機森林分類算法的輸出類別是由所有決策樹輸出類別的平均數(shù)來確定的。D:隨機森林算法的分類精度不會隨著決策樹數(shù)量的增加而提高。

答案:隨機森林分類算法的輸出類別是由所有決策樹輸出類別的平均數(shù)來確定的。K均值算法的關(guān)鍵是?()

A:計算每一個樣本和質(zhì)心之間相似度所用的距離算法B:所選取數(shù)據(jù)集的大小C:選取數(shù)據(jù)樣本的K個中心D:確定最終聚類類別數(shù)K

答案:選取數(shù)據(jù)樣本的K個中心合并聚類算法的時間復(fù)雜度為O(m2)。()

A:錯B:對

答案:錯

第四章單元測試

梯度下降算法的正確步驟是什么?

(a)計算預(yù)測值和真實值之間的誤差;(b)迭代更新,直到找到最佳權(quán)重;(c)把輸入傳入網(wǎng)絡(luò),得到輸出值;(d)初始化隨機權(quán)重和偏差;(e)對每一個產(chǎn)生誤差的神經(jīng)元,改變相應(yīng)的(權(quán)重)值以減少誤差。()

A:e,d,c,b,aB:c,b,a,e,dC:a,b,c,d,eD:d,c,a,e,b

答案:d,c,a,e,b隨機梯度下降法缺點在于每次更新可能并不會按照正確的方向進行,參數(shù)更新具有高方差,從而導(dǎo)致?lián)p失函數(shù)劇烈波動。()

A:錯B:對

答案:對牛頓法是梯度下降法的進一步發(fā)展,牛頓法不僅使用目標函數(shù)的一階偏導(dǎo)數(shù),還進一步利用了目標函數(shù)的二階偏導(dǎo)數(shù),這樣就考慮了梯度變化的趨勢,因而能更全面地確定合適的搜索方向加快收斂,它具二階收斂速度。()

A:對B:錯

答案:對坐標下降算法的優(yōu)點是容易計算,同時收斂很快;缺點是當loss比較復(fù)雜時,會很明顯的降低速度。()

A:對B:錯

答案:對通過梯度下降算法,計算方程取最小值(極小值)時候的最優(yōu)解x。求解過程主要通過迭代優(yōu)化方法完成迭代的方程為:

其中x為要求的解,為梯度(也就是導(dǎo)數(shù)或偏導(dǎo),我們在這里用最簡單的一元函數(shù)演示,所以直接寫成導(dǎo)數(shù)),a為學(xué)習(xí)率(或稱步長,是一個重要的參數(shù),a的選擇直接影響這著算法的效率)

答案:/zhs/onlineexam/ansewerImg/202210/8c1640e3e9a74f8b99972986850f0140.png

第五章單元測試

Logistic回歸算法是模型假設(shè)為Sigmoid函數(shù)的經(jīng)驗損失最小化算法。()

A:對B:錯

答案:對Logistic回歸屬于()

A:概率型線性回歸B:非概率性線性回歸C:概率型非線性回歸D:非概率型非線性回歸

答案:概率型非線性回歸Logistic回歸可用于()

A:影響因素分析B:校正混雜因素C:預(yù)測D:其余選項都是

答案:其余選項都是關(guān)于分類和回歸問題,下面說法正確的是?()

A:回歸和分類都是有監(jiān)督學(xué)習(xí)問題。B:回歸問題和分類問題都有可能發(fā)生過擬合。C:輸出變量為有限個離散變量的預(yù)測問題是回歸問題;輸出變量為連續(xù)變量的預(yù)測問題是分類問題。D:一般來說,回歸不用在分類問題上,但是也有特殊情況,比如Logistic回歸可以用來解決0/1分類問題。

答案:回歸和分類都是有監(jiān)督學(xué)習(xí)問題。;回歸問題和分類問題都有可能發(fā)生過擬合。;一般來說,回歸不用在分類問題上,但是也有特殊情況,比如Logistic回歸可以用來解決0/1分類問題。我們知道二元分類一般設(shè)定輸出概率大于或等于0.5,則預(yù)測為正類;若輸出概率小于0.5,則預(yù)測為負類。那么,如果將閾值0.5提高,例如0.6,大于或等于0.6的才預(yù)測為正類,則精確率(Precision)和召回率(Recall)會發(fā)生什么變化?()

A:召回率(Recall)增大。B:召回率(Recall)減小或者不變。C:精確率(Precision)減小。D:精確率(Precision)增大或者不變。

答案:召回率(Recall)減小或者不變。;精確率(Precision)增大或者不變。

第六章單元測試

SVM決策邊界只會被支持向量影響,跟其它樣本點無關(guān)。()

A:對B:錯

答案:對SVM使用高斯核函數(shù)之前通常會進行特征歸一化,經(jīng)過特征歸一化得到的新特征通常優(yōu)于舊特征。()

A:錯B:對

答案:對下面關(guān)于SVM原理的說法錯誤的是:()

A:分類超平面的法向量可用于計算樣本與分類超平面之間的最短距離。B:最大化間隔就是最大化,其中w是分類超平面的法向量C:在樣本線性不可分的情況下引入核函數(shù)是一個明智的選擇。D:SVM通過計算樣本到分類超平面的最大距離來確定最優(yōu)模型。

答案:最大化間隔就是最大化,其中w是分類超平面的法向量下列關(guān)于SVM的應(yīng)用場景說法正確的是(多選):()

A:SVM在二分類問題上表現(xiàn)突出。B:SVM思想能夠應(yīng)用于回歸問題。C:SVM能夠解決多分類問題。D:SVM能夠?qū)崿F(xiàn)異常值檢測。

答案:SVM在二分類問題上表現(xiàn)突出。;SVM思想能夠應(yīng)用于回歸問題。;SVM能夠解決多分類問題。;SVM能夠?qū)崿F(xiàn)異常值檢測。關(guān)于SVM核函數(shù),下列說法中錯誤的是:()

A:常見的核函數(shù)有線性核、高斯核、多項式核、Sigmoid核等。B:核函數(shù)把特征映射到的空間維度越高越好。C:核函數(shù)是一種將某一類輸入映射為某一類輸出的函數(shù)。D:核函數(shù)的引入極大地提升了SVM在線性不可分場景下的模型的穩(wěn)健性。

答案:核函數(shù)把特征映射到的空間維度越高越好。

第七章單元測試

以下哪項關(guān)于決策樹的說法是錯誤的()

A:子樹可能在決策樹中重復(fù)多次B:決策樹算法對于噪聲的干擾非常敏感C:冗余屬性不會對決策樹的準確率造成不利的影響D:尋找最佳決策樹是NP完全問題

答案:決策樹算法對于噪聲的干擾非常敏感以下關(guān)于決策樹原理介紹錯誤的有()。

A:決策樹算法本質(zhì)上是貪心算法B:決策樹生成過程中需要用到分割法C:決策樹算法屬于無監(jiān)督學(xué)習(xí)D:決策樹決策過程從根節(jié)點開始

答案:決策樹算法屬于無監(jiān)督學(xué)習(xí)我們想要在大數(shù)據(jù)集上訓(xùn)練決策樹模型,為了使用較少的時間,可以()。

A:增加樹的深度B:減少樹的數(shù)量C:減少樹的深度D:增大學(xué)習(xí)率

答案:減少樹的深度決策樹的說法正確的是()。

A:它易于理解、可解釋性強B:CART使用的是二叉樹C:其可作為分類算法,也可用于回歸模型D:不能處理連續(xù)型特征

答案:它易于理解、可解釋性強;CART使用的是二叉樹;其可作為分類算法,也可用于回歸模型決策樹的生成只考慮局部最優(yōu),相對地,決策樹的剪枝則考慮全部最優(yōu)。()

A:對B:錯

答案:對

第八章單元測試

有關(guān)循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)的理解,以下哪些說法是正確的?()

A:對于只有在最后一個時刻有輸出的RNN,可以擬合輸出的時序數(shù)據(jù)之間的關(guān)系對應(yīng)的類別,例如商超客戶的消費行為分析B:某個時刻t,隱層神經(jīng)元擬合了上一時刻輸入與輸出以及當前輸入與輸出的關(guān)系C:RNN不能處理數(shù)值型時序的數(shù)據(jù),例如由某行業(yè)幾個月的平均股票價格預(yù)測未來月份的平均股票價格D:某個時刻t輸入和輸出之間的關(guān)系可以通過隱層神經(jīng)元擬合

答案:對于只有在最后一個時刻有輸出的RNN,可以擬合輸出的時序數(shù)據(jù)之間的關(guān)系對應(yīng)的類別,例如商超客戶的消費行為分析;某個時刻t,隱層神經(jīng)元擬合了上一時刻輸入與輸出以及當前輸入與輸出的關(guān)系;某個時刻t輸入和輸出之間的關(guān)系可以通過隱層神經(jīng)元擬合長短期記憶網(wǎng)絡(luò)(LSTM)通過遺忘門減少一般循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)的短期記憶不足,但增加算法的計算復(fù)雜度。()

A:錯B:對

答案:對誤差的反向傳播,即從第一個隱藏層到輸出層,逐層向前修改神經(jīng)元的連接權(quán)值參數(shù),使得損失函數(shù)值最小。()

A:錯B:對

答案:對Sigmoid函數(shù)在變量取絕對值非常大的正值或負值時會出現(xiàn)飽和現(xiàn)象,意味著函數(shù)會變得很平,并且對輸入的微小改變會變得不敏感。在反向傳播時,當梯度接近于0,權(quán)重基本不會更新,很容易就會出現(xiàn)梯度消失的情況,從而無法完成深層網(wǎng)絡(luò)的訓(xùn)練。()

A:對B:錯

答案:對設(shè)輸入為,濾鏡(卷積核)為,在步幅為1且無填充等其他特殊處理的情況下,請計算卷積生成的鏡像V

答案:/zhs/onlineexam/ansewerImg/202210/052ff6ac98984a6a98e61c1323130b31.png

第九章單元測試

局部線性嵌入法的基本思想是保持樣本點之間距離經(jīng)降維后不改變。()

A:錯B:對

答案:錯下列關(guān)于自動編碼器說法錯誤的是()

A:自動編碼器是神經(jīng)網(wǎng)絡(luò)在降維問題中的應(yīng)用。B:自動編碼器是一種無監(jiān)督學(xué)習(xí),不需要損失函數(shù)。C:自動編碼器由編碼器和解碼器兩部分組成。D:自動編碼器算法的目標是:訓(xùn)練編碼器與解碼器,使得重構(gòu)誤差最小。

答案:自動編碼器是一種無監(jiān)督學(xué)習(xí),不需要損失函數(shù)。線性判別分析法的目標是()

A:類間區(qū)別盡可能小,類內(nèi)區(qū)別盡可能大。B:類間區(qū)別盡可能小,類內(nèi)區(qū)別盡可能小。C:類間區(qū)別盡可能大,類內(nèi)區(qū)別盡可能小。D:類間區(qū)別盡可能大,類內(nèi)區(qū)別盡可能大。

答案:類間區(qū)別盡可能大,類內(nèi)區(qū)別盡可能小。下列方法中,可以用于特征降維的方法包括()

A:最小二乘法LeastSquaresB:線性判別分析法LDAC:主成分分析法PCAD:自動編碼器AE

答案:線性判別分析法LDA;主成分分析法PCA;自動編碼器AE下列關(guān)于PCA說法正確的是()

A:在使用PCA之前,通常需要對數(shù)據(jù)進行標準化放縮。B:可以使用PCA在低維空間中可視化數(shù)據(jù)。C:優(yōu)先選擇具有最小方差的主成分。D:優(yōu)先選擇具有最大方差的主成分。

答案:在使用PCA之前,通常需要對數(shù)據(jù)進行標準化放縮。;可以使用PCA在低維空間中可視化數(shù)據(jù)。;優(yōu)先選擇具有最大方差的主成分。

第十章單元測試

下列哪些屬于聚類算法()

A:K-中心點B:KNNC:K-meansD:DBSCAN

答案:K-中心點;K-means;DBSCANK-means的主要缺點之一是其簡單地使用了平均值作為簇的中心。()

A:對B:錯

答案:對合并聚類算法是經(jīng)典的層級聚類算法,合并聚類算法不是貪心算法。()

A:對B:錯

答案:錯DBSCAN算法的優(yōu)點有?()。

A:不需要指定最小樣本量和半徑兩個參數(shù)B:可以處理噪聲點C:不需要劃分個數(shù)。跟K-means比起來,DBSCAN可以自動分出類別個數(shù)D:可以處理任意形狀的空間聚類問題

答案:可以處理噪聲點;不需要劃分個數(shù)。跟K-means比起來,DBSCAN可以自動分出類別個數(shù);可以處理任意形狀的

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論