19計科機器學(xué)習(xí)學(xué)習(xí)通超星期末考試答案章節(jié)答案2024年_第1頁
19計科機器學(xué)習(xí)學(xué)習(xí)通超星期末考試答案章節(jié)答案2024年_第2頁
19計科機器學(xué)習(xí)學(xué)習(xí)通超星期末考試答案章節(jié)答案2024年_第3頁
免費預(yù)覽已結(jié)束,剩余3頁可下載查看

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

19計科機器學(xué)習(xí)學(xué)習(xí)通超星期末考試章節(jié)答案2024年下列哪些分析需要機器學(xué)習(xí)()。

答案:預(yù)測移動運營商用戶未來使用的網(wǎng)絡(luò)流量;尋找移動運營商用戶對某類套餐使用的潛在客戶下列哪些學(xué)習(xí)問題不屬于監(jiān)督學(xué)習(xí)?()

答案:降維;聚類從完成任務(wù)的角度來看,機器學(xué)習(xí)模型可以分為():

答案:聚類;分類;回歸關(guān)于機器學(xué)習(xí)模型中的數(shù)據(jù),以下說法正確的是()。

答案:數(shù)據(jù)的數(shù)量和質(zhì)量都很重要以下關(guān)于訓(xùn)練集、驗證集和測試集說法不正確的是()。選項:

答案:訓(xùn)練集是用來訓(xùn)練以及評估模型性能谷歌新聞每天收集非常多的新聞,并運用()方法再將這些新聞分組,組成若干類有關(guān)聯(lián)的新聞。于是,搜索時同一組新聞事件往往隸屬同一主題的,所以顯示到一起。

答案:聚類20世紀70年代開始,人工智能進入首次低谷期的原因不包括()

答案:攝像設(shè)備沒有出現(xiàn)有監(jiān)督的學(xué)習(xí)和無監(jiān)督的學(xué)習(xí)的根本區(qū)別在于()。

答案:學(xué)習(xí)樣本是否需要人工標記()可用于標記數(shù)據(jù)的機器學(xué)習(xí)算法。

答案:回歸算法回歸問題和分類問題的區(qū)別是什么()

答案:回歸問題輸出值是連續(xù)的,分類問題輸出值是離散的哪些機器學(xué)習(xí)模型經(jīng)過訓(xùn)練,能夠根據(jù)其行為獲得的獎勵和反饋做出一系列決策?()

答案:強化學(xué)習(xí)聚類的代表算法有()。

答案:K-means;DBSCAN關(guān)于層次聚類,正確的是()。

答案:因為每個樣本只屬于一個簇,所以層次聚類屬于硬聚類;層次聚類又有聚合聚類(自下而上)、分裂聚類(自上而下)兩種方法;聚合聚類是從下而上進行聚類;分裂聚類是從上而下進行聚類關(guān)于K均值和DBSCAN的比較,以下說法正確的是()。

答案:DBSCAN使用基于密度的概念;DBSCAN可以處理不同大小和不同形狀的簇。;K均值很難外理非球形的能和不同大小的簇關(guān)于DBSCAN算法,以下說法正確的是()。

答案:DBSCAN算法將點分成核心點邊界點和噪音點三類;DBSCAN算法是一種基于密度的聚類算法關(guān)于kmean算法的實現(xiàn)描述錯誤的是()

答案:可以輕松發(fā)現(xiàn)非凸形狀的簇在DBSCAN中,對數(shù)據(jù)點類型的劃分中不包括()。

答案:中心點下列關(guān)于聚類標準的說法正確的是()。

答案:簇內(nèi)距離盡量小、簇間聚類盡可能大K-Means算法中的初始中心點()。

答案:直接影響算法的收斂結(jié)果與K-Means相比,基于密度的DBSCAN的優(yōu)點不包括()。

答案:較低的計算復(fù)雜度影響KNN算法效果的主要因素包括()。

答案:K的值;距離度量方式;決策規(guī)則決策樹有哪些代表算法()。

答案:C4.5;CART;ID3下面哪一項不是Sigmoid的特點()

答案:當σ(z)小于0.5時,預(yù)測y=-1關(guān)于KNN算法的描述,不正確的是()。

答案:距離度量的方式通常用曼哈頓距離我們想要在大數(shù)據(jù)集上訓(xùn)練決策樹模型,為了使用較少的時間,可以:()。

答案:減少樹的深度以下哪些不是二分類問題()

答案:身高1.85m,體重100kg的男人穿什么尺碼的T恤?關(guān)于Bagging方法,以下說法錯誤的是()

答案:對各弱分類器的訓(xùn)練可以通過串行方式進行一監(jiān)獄人臉識別準入系統(tǒng)用來識別待進入人員的身份,此系統(tǒng)一共包括識別4種不同的人員:獄警,小偷,送餐員,其他。下面哪種學(xué)習(xí)方法最適合此種應(yīng)用需求:()

答案:多分類問題以下關(guān)于分類問題的說法錯誤的是()

答案:分類問題輸入屬性必須是離散的以下關(guān)于決策樹特點分析的說法錯誤的有()。

答案:算法考慮了數(shù)據(jù)屬性之間的相關(guān)性欠擬合的處理主要有哪些方式()

答案:減小正則化系數(shù);增加模型復(fù)雜度;添加新特征線性回歸中,我們可以使用最小二乘法來求解系數(shù),下列關(guān)于最小二乘法正確的是?()

答案:只適用于線性模型,不適合邏輯回歸模型等其他模型;不需要迭代訓(xùn)練;不需要選擇學(xué)習(xí)率;當特征數(shù)量很多的時候,運算速度會很慢可用來衡量向量相關(guān)性的指標有:()

答案:協(xié)方差;相關(guān)系數(shù);相關(guān)距離關(guān)于過擬合,下面哪個說法是正確的:()

答案:訓(xùn)練誤差較小,測試誤差較大分析營銷投入與銷售收入的關(guān)系可以使用下面哪種數(shù)據(jù)挖掘方法()。

答案:回歸分析以下說法錯誤的是?()

答案:損失函數(shù)越小,模型訓(xùn)練得一定越好電影投資金額和電影收入之間的關(guān)系可以用一個一元線性回歸方程來表示,下列說法正確的是()。

答案:投資越多收入越多回歸問題和分類問題的區(qū)別是?()

答案:回歸問題輸出值是連續(xù)的,分類問題輸出值是離散的關(guān)于過擬合的說法,正確的是()。

答案:可以通過正則化方法改善以下哪些方法不能用于處理欠擬合()

答案:增大正則化系數(shù)為了觀察測試點與X之間的線性關(guān)系,是連續(xù)變量,使用下列哪種圖形比

較適合()

答案:B.散點圖()是指機器學(xué)習(xí)算法對新樣本的適應(yīng)能力。

答案:泛化能力問題:降維的優(yōu)點有哪些()。選項:

答案:減小訓(xùn)練時間;方便實現(xiàn)數(shù)據(jù)可視化;方便消除冗余特征問題:以下關(guān)于交叉驗證說法正確的是()。

答案:交叉驗證可利用模型選擇避免過擬合的情況;交叉驗證可對模型性能合理評估;交叉驗證大大增加了計算量對于機器學(xué)習(xí)中的原始數(shù)據(jù),存在的問題可能有()。

答案:錯誤值;重復(fù);異常值;不完整假設(shè)樣本數(shù)大于維數(shù),利用PCA技術(shù),可以把N維數(shù)據(jù)降到()。

答案:1到N-1維問題:以下哪些是PCA算法的主要應(yīng)用()。

答案:數(shù)據(jù)壓縮以下關(guān)于降維的說法不正確的是()

答案:降維不會對數(shù)據(jù)產(chǎn)生損傷降維屬于哪種類型的學(xué)習(xí)問題()。

答案:無監(jiān)督學(xué)習(xí)對在線教學(xué)的學(xué)生數(shù)據(jù)做分析,下面那個選項不是可視化的作用()。

答案:可視化可以預(yù)測一個剛選課不久的學(xué)生完成一門課程所需要的時間以下有關(guān)可視化認識錯誤的是哪個()。

答案:可視化是簡單地把原始的數(shù)據(jù)用圖的形式展示出來的方法以下哪個步驟不是機器學(xué)習(xí)所需的預(yù)處理工作()。

答案:與用戶討論分析需求數(shù)據(jù)預(yù)處理對機器學(xué)習(xí)是很重要的,下面說法正確的是()。

答案:數(shù)據(jù)預(yù)處理的效果直接決定了機器學(xué)習(xí)的結(jié)果質(zhì)量下列哪種方法可以用來緩解過擬合的產(chǎn)生:()。

答案:正則化問題:關(guān)于數(shù)據(jù)規(guī)范化,下列說法中錯誤的是()。

答案:標準化在任何場景下受異常值的影響都很小問題:當數(shù)據(jù)分布不平衡時,我們可采取的措施不包括()。

答案:對數(shù)據(jù)分布較多的類別賦予更大的權(quán)重問題:以下關(guān)于訓(xùn)練集、驗證集和測試集說法不正確的是()。

答案:訓(xùn)練集是用來訓(xùn)練以及評估模型性能隱馬爾可夫模型是關(guān)于

的概率模型,它假定在有時間先后關(guān)系的隨機變量序列中,第

時刻的狀態(tài)與n時刻以前的狀態(tài)無關(guān),即未來發(fā)生的事,只與現(xiàn)在有關(guān),而與過去無關(guān)。

答案:時序;n+1EM(Expectation-Maximization)算法的基本思想是求____和____的逐步迭代,該算法可用來求解含有____的概率模型。

答案:期望;極大化;數(shù)據(jù)丟失關(guān)于樸素貝葉斯,下列說法錯誤的是:()

答案:樸素貝葉斯不需要使用聯(lián)合概率關(guān)于拉普拉斯平滑說法正確的是()

答案:避免了出現(xiàn)概率為0的情況下面有關(guān)樸素貝葉斯算法的認識錯誤的是()。

答案:樸素貝葉斯算法是一種使用概率理論的非監(jiān)督分類算法樸素貝葉斯分類器的樸素之處在于()。

答案:屬性之間的條件獨立性假設(shè)BP神經(jīng)網(wǎng)絡(luò)算法屬于(

)算法[監(jiān)督/無監(jiān)督],可分為(

)和(

)兩個學(xué)習(xí)過程。

答案:監(jiān)督;前向傳播預(yù)測;反向傳播學(xué)習(xí)SOM算法的訓(xùn)練過程是基于(

)的,主要體現(xiàn)在勝者如何調(diào)整自身和鄰近節(jié)點的(

)上。

答案:競爭學(xué)習(xí);權(quán)值采用Sigmod函數(shù)作為激勵函數(shù)的主要原因是()。

答案:有固定的輸出上下界;導(dǎo)數(shù)存在解析解;處處可導(dǎo)隱藏層中常用的激活函數(shù)有()。

答案:Sigmoid;Tanh;ReLU問題:關(guān)于BP算法優(yōu)點說法正確的是()。

答案:BP算法能夠自適應(yīng)學(xué)習(xí);BP算法有很強的非線性映射能力;BP算法反向傳播采用鏈式法則,推導(dǎo)過程嚴謹下列關(guān)于神經(jīng)元的陳述中,正確的是()

答案:上述都正確在一個神經(jīng)網(wǎng)絡(luò)里,確定每一個神經(jīng)元的權(quán)重和偏差是模型擬合訓(xùn)練樣本的目標,比較有效的辦法是什么()。

答案:賦予一個初始值,然后迭代更新權(quán)重,直至代價函數(shù)取得極小關(guān)于BP算法特點描述錯誤的是()。

答案:計算之前不需要對訓(xùn)練數(shù)據(jù)進行歸一化以下關(guān)于感知器說法錯誤的是:()。

答案:單層感知器可以用于處理非線性學(xué)習(xí)問題池化層一般跟在(

)之后,用于(

)和參數(shù)的數(shù)量。

答案:卷積層;壓縮數(shù)據(jù)循環(huán)神經(jīng)網(wǎng)絡(luò)是用于對(

)的非線性特征進行學(xué)習(xí)的深度學(xué)習(xí)網(wǎng)絡(luò),循環(huán)神經(jīng)網(wǎng)絡(luò)的輸入是有(

)關(guān)系的序列。

答案:序列;前后關(guān)聯(lián)下列哪些方法可以用來降低深度學(xué)習(xí)模型的過擬合問題()。

答案:增加更多的數(shù)據(jù);提前停止

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論