版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)
文檔簡介
機器學(xué)習(xí)智慧樹知到課后章節(jié)答案2023年下山東科技大學(xué)山東科技大學(xué)
第一章測試
機器學(xué)習(xí)最主要的兩種形式是監(jiān)督學(xué)習(xí)和無監(jiān)督學(xué)習(xí)。()
A:對B:錯
答案:對
下面哪句話是正確的?()
A:增加模型的復(fù)雜度,總能減小訓(xùn)練樣本誤差B:ABC說法都不對C:機器學(xué)習(xí)模型的精準(zhǔn)度越高,則模型的性能越好D:增加模型的復(fù)雜度,總能減小測試樣本誤差
答案:增加模型的復(fù)雜度,總能減小訓(xùn)練樣本誤差
下列屬于無監(jiān)督學(xué)習(xí)的是()
A:邏輯回歸B:SVMC:決策樹D:K-Means
答案:K-Means
機器學(xué)習(xí)的核心是算法。()
A:對B:錯
答案:對
過擬合只是監(jiān)督學(xué)習(xí)中的問題,對于無監(jiān)督學(xué)習(xí)影響不大。()
A:對B:錯
答案:錯
機器學(xué)習(xí)最主要的兩種形式是監(jiān)督學(xué)習(xí)和無監(jiān)督學(xué)習(xí)。()
A:對B:錯
答案:對
下面哪句話是正確的?()
A:ABC說法都不對B:機器學(xué)習(xí)模型的精準(zhǔn)度越高,則模型的性能越好C:增加模型的復(fù)雜度,總能減小測試樣本誤差D:增加模型的復(fù)雜度,總能減小訓(xùn)練樣本誤差
答案:增加模型的復(fù)雜度,總能減小訓(xùn)練樣本誤差
下列屬于無監(jiān)督學(xué)習(xí)的是()
A:決策樹B:SVMC:邏輯回歸D:K-Means
答案:K-Means
機器學(xué)習(xí)的核心是算法。()
A:錯B:對
答案:對
過擬合只是監(jiān)督學(xué)習(xí)中的問題,對于無監(jiān)督學(xué)習(xí)影響不大。()
A:錯B:對
答案:錯
第二章測試
在實際應(yīng)用中,選取損失函數(shù)的制約因素包括()。
A:是否有異常值B:機器學(xué)習(xí)算法的選擇C:梯度下降的時間復(fù)雜度D:求導(dǎo)的難易程度
答案:是否有異常值;機器學(xué)習(xí)算法的選擇;梯度下降的時間復(fù)雜度;求導(dǎo)的難易程度
嶺回歸的目標(biāo)函數(shù)是一個嚴(yán)格凸函數(shù),沒有唯一最優(yōu)解。()
A:錯B:對
答案:錯
線性回歸算法、邏輯回歸算法和支持向量機等監(jiān)督式學(xué)習(xí)算法,都是經(jīng)驗損失最小化架構(gòu)在具體問題中的表現(xiàn)。()
A:對B:錯
答案:對
以下關(guān)于無約束經(jīng)驗損失最小化算法的說法哪個是正確的?()
A:“無約束”的意思是模型的選擇不受任何約束,可以輸出模型空間中的任何模型B:容易發(fā)生過渡擬合C:可以精確地擬合訓(xùn)練數(shù)據(jù)D:為了降低過擬合,在實際應(yīng)用中大多會采用無約束經(jīng)驗損失最小化算法
答案:“無約束”的意思是模型的選擇不受任何約束,可以輸出模型空間中的任何模型;容易發(fā)生過渡擬合;可以精確地擬合訓(xùn)練數(shù)據(jù)
以下關(guān)于結(jié)構(gòu)損失最小化算法的說法哪個是錯誤的?()
A:體現(xiàn)了奧卡姆剃刀法則思想B:帶有正則化方法的經(jīng)驗損失最小化算法被稱為結(jié)構(gòu)損失最小化算法C:任何經(jīng)驗損失最小化算法,都可以通過正則化方法轉(zhuǎn)化成結(jié)構(gòu)損失最小化算法D:不會發(fā)生過渡擬合
答案:不會發(fā)生過渡擬合
第三章測試
以下是線性回歸應(yīng)用場景的是()
A:垃圾郵件判斷B:醫(yī)生病理診斷C:房價預(yù)測D:銀行個人信用評估
答案:房價預(yù)測
下列屬于線性回歸的分類的有()
A:ABC都是B:非線性關(guān)系C:單變量線性關(guān)系D:多變量線性關(guān)系
答案:ABC都是
以下關(guān)于隨機森林算法說法錯誤的是()
A:隨機森林分類算法的輸出類別是由所有決策樹輸出類別的平均數(shù)來確定的。B:隨機森林算法的分類精度不會隨著決策樹數(shù)量的增加而提高。C:決策樹之間相關(guān)系數(shù)越低、每棵決策樹分類精度越高的隨機森林模型的分類效果越好。D:隨機森林算法對異常值和缺失值不敏感。
答案:隨機森林分類算法的輸出類別是由所有決策樹輸出類別的平均數(shù)來確定的。
K均值算法的關(guān)鍵是?()
A:所選取數(shù)據(jù)集的大小B:選取數(shù)據(jù)樣本的K個中心C:確定最終聚類類別數(shù)KD:計算每一個樣本和質(zhì)心之間相似度所用的距離算法
答案:選取數(shù)據(jù)樣本的K個中心
合并聚類算法的時間復(fù)雜度為O(m2)。()
A:錯B:對
答案:錯
第四章測試
梯度下降算法的正確步驟是什么?
(a)計算預(yù)測值和真實值之間的誤差;(b)迭代更新,直到找到最佳權(quán)重;(c)把輸入傳入網(wǎng)絡(luò),得到輸出值;(d)初始化隨機權(quán)重和偏差;(e)對每一個產(chǎn)生誤差的神經(jīng)元,改變相應(yīng)的(權(quán)重)值以減少誤差。()
A:c,b,a,e,dB:a,b,c,d,eC:e,d,c,b,aD:d,c,a,e,b
答案:d,c,a,e,b
隨機梯度下降法缺點在于每次更新可能并不會按照正確的方向進(jìn)行,參數(shù)更新具有高方差,從而導(dǎo)致?lián)p失函數(shù)劇烈波動。()
A:錯B:對
答案:對
牛頓法是梯度下降法的進(jìn)一步發(fā)展,牛頓法不僅使用目標(biāo)函數(shù)的一階偏導(dǎo)數(shù),還進(jìn)一步利用了目標(biāo)函數(shù)的二階偏導(dǎo)數(shù),這樣就考慮了梯度變化的趨勢,因而能更全面地確定合適的搜索方向加快收斂,它具二階收斂速度。()
A:對B:錯
答案:對
坐標(biāo)下降算法的優(yōu)點是容易計算,同時收斂很快;缺點是當(dāng)loss比較復(fù)雜時,會很明顯的降低速度。()
A:對B:錯
答案:對
第五章測試
關(guān)于分類和回歸問題,下面說法正確的是?()
A:輸出變量為有限個離散變量的預(yù)測問題是回歸問題;輸出變量為連續(xù)變量的預(yù)測問題是分類問題。B:回歸問題和分類問題都有可能發(fā)生過擬合。C:回歸和分類都是有監(jiān)督學(xué)習(xí)問題。D:一般來說,回歸不用在分類問題上,但是也有特殊情況,比如Logistic回歸可以用來解決0/1分類問題。
答案:回歸問題和分類問題都有可能發(fā)生過擬合。;回歸和分類都是有監(jiān)督學(xué)習(xí)問題。;一般來說,回歸不用在分類問題上,但是也有特殊情況,比如Logistic回歸可以用來解決0/1分類問題。
我們知道二元分類一般設(shè)定輸出概率大于或等于0.5,則預(yù)測為正類;若輸出概率小于0.5,則預(yù)測為負(fù)類。那么,如果將閾值0.5提高,例如0.6,大于或等于0.6的才預(yù)測為正類,則精確率(Precision)和召回率(Recall)會發(fā)生什么變化?()
A:精確率(Precision)減小。B:召回率(Recall)減小或者不變。C:召回率(Recall)增大。D:精確率(Precision)增大或者不變。
答案:召回率(Recall)減小或者不變。;精確率(Precision)增大或者不變。
Logistic回歸算法是模型假設(shè)為Sigmoid函數(shù)的經(jīng)驗損失最小化算法。()
A:對B:錯
答案:對
Logistic回歸屬于()
A:非概率性線性回歸B:概率型非線性回歸C:非概率型非線性回歸D:概率型線性回歸
答案:概率型非線性回歸
Logistic回歸可用于()
A:預(yù)測B:校正混雜因素C:影響因素分析D:ABC都是
答案:ABC都是
關(guān)于分類和回歸問題,下面說法正確的是?()
A:輸出變量為有限個離散變量的預(yù)測問題是回歸問題;輸出變量為連續(xù)變量的預(yù)測問題是分類問題。B:回歸問題和分類問題都有可能發(fā)生過擬合。C:一般來說,回歸不用在分類問題上,但是也有特殊情況,比如Logistic回歸可以用來解決0/1分類問題。D:回歸和分類都是有監(jiān)督學(xué)習(xí)問題。
答案:回歸問題和分類問題都有可能發(fā)生過擬合。;一般來說,回歸不用在分類問題上,但是也有特殊情況,比如Logistic回歸可以用來解決0/1分類問題。;回歸和分類都是有監(jiān)督學(xué)習(xí)問題。
我們知道二元分類一般設(shè)定輸出概率大于或等于0.5,則預(yù)測為正類;若輸出概率小于0.5,則預(yù)測為負(fù)類。那么,如果將閾值0.5提高,例如0.6,大于或等于0.6的才預(yù)測為正類,則精確率(Precision)和召回率(Recall)會發(fā)生什么變化?()
A:召回率(Recall)減小或者不變。B:精確率(Precision)減小。C:召回率(Recall)增大。D:精確率(Precision)增大或者不變。
答案:召回率(Recall)減小或者不變。;精確率(Precision)增大或者不變。
Logistic回歸算法是模型假設(shè)為Sigmoid函數(shù)的經(jīng)驗損失最小化算法。()
A:錯B:對
答案:對
Logistic回歸屬于()
A:非概率性線性回歸B:概率型非線性回歸C:概率型線性回歸D:非概率型非線性回歸
答案:概率型非線性回歸
Logistic回歸可用于()
A:校正混雜因素B:影響因素分析C:預(yù)測D:ABC都是
答案:ABC都是
第六章測試
下面關(guān)于SVM原理的說法錯誤的是:()
A:分類超平面的法向量可用于計算樣本與分類超平面之間的最短距離。B:最大化間隔就是最大化,其中w是分類超平面的法向量C:在樣本線性不可分的情況下引入核函數(shù)是一個明智的選擇。D:SVM通過計算樣本到分類超平面的最大距離來確定最優(yōu)模型。
答案:最大化間隔就是最大化,其中w是分類超平面的法向量
SVM決策邊界只會被支持向量影響,跟其它樣本點無關(guān)。()
A:錯B:對
答案:對
SVM使用高斯核函數(shù)之前通常會進(jìn)行特征歸一化,經(jīng)過特征歸一化得到的新特征通常優(yōu)于舊特征。()
A:錯B:對
答案:對
SVM使用高斯核函數(shù)之前通常會進(jìn)行特征歸一化,經(jīng)過特征歸一化得到的新特征通常優(yōu)于舊特征。()
A:錯B:對
答案:對
SVM決策邊界只會被支持向量影響,跟其它樣本點無關(guān)。()
A:對B:錯
答案:對
下列關(guān)于SVM的應(yīng)用場景說法正確的是(多選):()
A:SVM在二分類問題上表現(xiàn)突出。B:SVM能夠?qū)崿F(xiàn)異常值檢測。C:SVM思想能夠應(yīng)用于回歸問題。D:SVM能夠解決多分類問題。
答案:SVM在二分類問題上表現(xiàn)突出。;SVM能夠?qū)崿F(xiàn)異常值檢測。;SVM思想能夠應(yīng)用于回歸問題。;SVM能夠解決多分類問題。
關(guān)于SVM核函數(shù),下列說法中錯誤的是:()
A:常見的核函數(shù)有線性核、高斯核、多項式核、Sigmoid核等。B:核函數(shù)是一種將某一類輸入映射為某一類輸出的函數(shù)。C:核函數(shù)的引入極大地提升了SVM在線性不可分場景下的模型的穩(wěn)健性。D:核函數(shù)把特征映射到的空間維度越高越好。
答案:核函數(shù)把特征映射到的空間維度越高越好。
第七章測試
以下哪項關(guān)于決策樹的說法是錯誤的()
A:子樹可能在決策樹中重復(fù)多次B:尋找最佳決策樹是NP完全問題C:冗余屬性不會對決策樹的準(zhǔn)確率造成不利的影響D:決策樹算法對于噪聲的干擾非常敏感
答案:決策樹算法對于噪聲的干擾非常敏感
以下關(guān)于決策樹原理介紹錯誤的有()。
A:決策樹算法屬于無監(jiān)督學(xué)習(xí)B:決策樹算法本質(zhì)上是貪心算法C:決策樹生成過程中需要用到分割法D:決策樹決策過程從根節(jié)點開始
答案:決策樹算法屬于無監(jiān)督學(xué)習(xí)
我們想要在大數(shù)據(jù)集上訓(xùn)練決策樹模型,為了使用較少的時間,可以()。
A:增加樹的深度B:減少樹的數(shù)量C:增大學(xué)習(xí)率D:減少樹的深度
答案:減少樹的深度
決策樹的說法正確的是()。
A:它易于理解、可解釋性強B:CART使用的是二叉樹C:不能處理連續(xù)型特征D:其可作為分類算法,也可用于回歸模型
答案:它易于理解、可解釋性強;CART使用的是二叉樹;其可作為分類算法,也可用于回歸模型
決策樹的生成只考慮局部最優(yōu),相對地,決策樹的剪枝則考慮全部最優(yōu)。()
A:對B:錯
答案:對
第八章測試
有關(guān)循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)的理解,以下哪些說法是正確的?()
A:某個時刻t,隱層神經(jīng)元擬合了上一時刻輸入與輸出以及當(dāng)前輸入與輸出的關(guān)系B:某個時刻t輸入和輸出之間的關(guān)系可以通過隱層神經(jīng)元擬合C:RNN不能處理數(shù)值型時序的數(shù)據(jù),例如由某行業(yè)幾個月的平均股票價格預(yù)測未來月份的平均股票價格D:對于只有在最后一個時刻有輸出的RNN,可以擬合輸出的時序數(shù)據(jù)之間的關(guān)系對應(yīng)的類別,例如商超客戶的消費行為分析
答案:某個時刻t,隱層神經(jīng)元擬合了上一時刻輸入與輸出以及當(dāng)前輸入與輸出的關(guān)系;某個時刻t輸入和輸出之間的關(guān)系可以通過隱層神經(jīng)元擬合;對于只有在最后一個時刻有輸出的RNN,可以擬合輸出的時序數(shù)據(jù)之間的關(guān)系對應(yīng)的類別,例如商超客戶的消費行為分析
長短期記憶網(wǎng)絡(luò)(LSTM)通過遺忘門減少一般循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)的短期記憶不足,但增加算法的計算復(fù)雜度。()
A:對B:錯
答案:對
誤差的反向傳播,即從第一個隱藏層到輸出層,逐層向前修改神經(jīng)元的連接權(quán)值參數(shù),使得損失函數(shù)值最小。()
A:錯B:對
答案:對
Sigmoid函數(shù)在變量取絕對值非常大的正值或負(fù)值時會出現(xiàn)飽和現(xiàn)象,意味著函數(shù)會變得很平,并且對輸入的微小改變會變得不敏感。在反向傳播時,當(dāng)梯度接近于0,權(quán)重基本不會更新,很容易就會出現(xiàn)梯度消失的情況,從而無法完成深層網(wǎng)絡(luò)的訓(xùn)練。()
A:錯B:對
答案:對
第九章測試
下列關(guān)于自動編碼器說法錯誤的是()
A:自動編碼器是一種無監(jiān)督學(xué)習(xí),不需要損失函數(shù)。B:自動編碼器由編碼器和解碼器兩部分組成。C:自動編碼器是神經(jīng)網(wǎng)絡(luò)在降維問題中的應(yīng)用。D:自動編碼器算法的目標(biāo)是:訓(xùn)練編碼器與解碼器,使得重構(gòu)誤差最小。
答案:自動編碼器是一種無監(jiān)督學(xué)習(xí),不需要損失函數(shù)。
線性判別分析法的目標(biāo)是()
A:類間區(qū)別盡可能大,類內(nèi)區(qū)別盡可能小。B:類間區(qū)別盡可能小,類內(nèi)區(qū)別盡可能小。C:類間區(qū)別盡可能小,類內(nèi)區(qū)別盡可能大。D:類間區(qū)別盡可能大,類內(nèi)區(qū)別盡可能大。
答案:類間區(qū)別盡可能大,類內(nèi)區(qū)別盡可能小。
局部線性嵌入法的基本思想是保持樣本點之間距離經(jīng)降維后不改變。()
A:對B:錯
答案:錯
下列方法中,可以用于特征降維的方法包括()
A:線性判別分析法LDAB:最小二乘法LeastSquaresC:主成分分析法PCAD:自動編碼器AE
答案:線性判別分析法LDA;主成分分析法PCA;自動編碼器AE
下列關(guān)于PCA說法正確的是()
A:在使用PCA之前,通常需要對數(shù)據(jù)進(jìn)行標(biāo)準(zhǔn)化放縮。B:可以使用PCA在低維空間中可視化數(shù)據(jù)。C:優(yōu)先選擇具有最大方差的主成分。D:優(yōu)先選擇具有最小方差的主成分。
答案:在使用PCA之前,通常需要對數(shù)據(jù)進(jìn)行標(biāo)準(zhǔn)化放縮。;可以使用PCA在低維空間中可視化數(shù)據(jù)。;優(yōu)先選擇具有最大方差的主成分。
下列關(guān)于自動編碼器說法錯誤的是()
A:自動編碼器由編碼器和解碼器兩部分組成。B:自動編碼器算法的目標(biāo)是:訓(xùn)練編碼器與解碼器,使得重構(gòu)誤差最小。C:自動編碼器是神經(jīng)網(wǎng)絡(luò)在降維問題中的應(yīng)用。D:自動編碼器是一種無監(jiān)督學(xué)習(xí),不需要損失函數(shù)。
答案:自動編碼器是一種無監(jiān)督學(xué)習(xí),不需要損失函數(shù)。
線性判別分析法的目標(biāo)是()
A:類間區(qū)別盡可能大,類內(nèi)區(qū)別盡可能小。B:類間區(qū)別盡可能小,類內(nèi)區(qū)別盡可能大。C:類間區(qū)別盡可能大,類內(nèi)區(qū)別盡可能大。D:類間區(qū)別盡可能小,類內(nèi)區(qū)別盡可能小。
答案:類間區(qū)別盡可能大,類內(nèi)區(qū)別盡可能小。
局部線性嵌入法的基本思想是保持樣本點之間距離經(jīng)降維后不改變。()
A:錯B:對
答案:錯
下列方法中,可以用于特征降維的方法包括()
A:最小二乘法LeastSquaresB:線性判別分析法LDAC:主成分分析法PCAD:自動編碼器AE
答案:線性判別分析法LDA;主成
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 豌豆思維課程設(shè)計待遇
- 2025年度個人自建住房施工監(jiān)理服務(wù)合同樣本4篇
- 砌墻工程施工方案
- 樓房加固施工方案模板
- 食工原理課程設(shè)計果蔬汁
- 年度醫(yī)療健康大數(shù)據(jù)戰(zhàn)略市場規(guī)劃報告
- 年度化學(xué)材料:灌漿料產(chǎn)業(yè)分析報告
- 二零二五版智能門窗系統(tǒng)安裝與遠(yuǎn)程監(jiān)控服務(wù)合同4篇
- 影視劇制作方與臨時演員的2025年度聘用合同6篇
- 2025年豬圈配套設(shè)施安裝服務(wù)合同124篇
- 《劇本寫作要素》課件
- 部編版六年級下冊道德與法治全冊教案教學(xué)設(shè)計
- 【高空拋物侵權(quán)責(zé)任規(guī)定存在的問題及優(yōu)化建議7100字(論文)】
- 二年級數(shù)學(xué)上冊100道口算題大全 (每日一套共26套)
- 物流無人機垂直起降場選址與建設(shè)規(guī)范
- 肺炎臨床路徑
- 外科手術(shù)鋪巾順序
- 聚焦任務(wù)的學(xué)習(xí)設(shè)計作業(yè)改革新視角
- 移動商務(wù)內(nèi)容運營(吳洪貴)任務(wù)三 APP的品牌建立與價值提供
- 電子競技范文10篇
- 食堂服務(wù)質(zhì)量控制方案與保障措施
評論
0/150
提交評論