人工智能機器學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷5)_第1頁
人工智能機器學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷5)_第2頁
人工智能機器學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷5)_第3頁
人工智能機器學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷5)_第4頁
人工智能機器學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷5)_第5頁
已閱讀5頁,還剩19頁未讀 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

試卷科目:人工智能機器學(xué)習(xí)技術(shù)練習(xí)人工智能機器學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷5)PAGE"pagenumber"pagenumber/SECTIONPAGES"numberofpages"numberofpages人工智能機器學(xué)習(xí)技術(shù)練習(xí)第1部分:單項選擇題,共62題,每題只有一個正確答案,多選或少選均不得分。[單選題]1.基于劃分的聚類,說法正確的是()A)對分區(qū)個數(shù)敏感B)無法區(qū)分互斥的簇C)有利于尋找非球形簇答案:A解析:[單選題]2.邏輯回歸常用于解決()A)回歸問題B)分類問題C)優(yōu)化問題答案:B解析:[單選題]3.機器學(xué)習(xí)這個術(shù)語是由()定義的?A)ArthurSamuelB)GuidovanRossumC)JamesGoslingD)以上都不是答案:A解析:[單選題]4.spark是用以下哪種編程語言實現(xiàn)的A)cB)C++C)javaD)Scala答案:D解析:[單選題]5.在不考慮標記樣本時,支持向量機試圖找到()間隔劃分超平面A)最大B)最小C)最長D)最短答案:A解析:[單選題]6.下面哪句話是正確的?A)機器學(xué)習(xí)模型的精準度越高,則模型的性能越好B)增加模型的復(fù)雜度,總能減小測試樣本誤差C)增加模型的復(fù)雜度,總能減小訓(xùn)練樣本誤差D)以上說法都不對答案:C解析:本題考查的是機器學(xué)習(xí)模型的評判指標。機器學(xué)習(xí)模型的精準度(Precision)越高,模型性能不一定越好,還要看模型的召回率(Recall),特別是在正負樣本分布不均的情況下。一般使用F1score評判標準。增加模型復(fù)雜度,通??赡茉斐蛇^擬合。過擬合的表現(xiàn)是訓(xùn)練樣本誤差減小,而測試樣本誤差增大。[單選題]7.訓(xùn)練集、驗證集和測試集在使用過程中的順序是A)測試集、訓(xùn)練集、驗證集B)訓(xùn)練集、測試集、驗證集C)驗證集、訓(xùn)練集、測試集D)訓(xùn)練集、驗證集、測試集答案:B解析:[單選題]8.TF-IDF模型中IDF是指(__)。A)詞頻數(shù)B)逆文檔頻率C)詞頻率D)逆文檔頻數(shù)答案:B解析:[單選題]9.下面算法屬于局部處理的是()。A)灰度線性變換B)二值化C)傅里葉變換D)中值濾波答案:D解析:[單選題]10.關(guān)于Elman網(wǎng)絡(luò)描述錯誤的是A)作為遞歸神經(jīng)網(wǎng)絡(luò),允許出現(xiàn)環(huán)形結(jié)構(gòu);B)一些神經(jīng)元的輸出反饋回來會作為輸入信號;C)用于處理靜態(tài)模型,即無法處理與時間有關(guān)的動態(tài)變化;D)可利用BP算法來進行參數(shù)優(yōu)化;答案:C解析:[單選題]11.生成式方法是直接基于()的方法?A)生成式學(xué)習(xí)B)生成式場景C)生成式數(shù)據(jù)D)生成式模型答案:D解析:[單選題]12.下列兩個變量之間的關(guān)系中,那一個是線性關(guān)系A(chǔ))學(xué)生的性別與他(她)的數(shù)學(xué)成績B)人的工作環(huán)境與他的身體健康狀況C)兒子的身高與父親的身高D)正方形的邊長與周長答案:D解析:[單選題]13.若1.數(shù)據(jù)加工、2.數(shù)據(jù)化、3.數(shù)據(jù)整齊化、4.數(shù)據(jù)分析,則在數(shù)據(jù)科學(xué)的基本流程順序是(__)。A)1234B)2134C)2314D)3214答案:B解析:[單選題]14.如下邏輯回歸圖顯示了3種不同學(xué)習(xí)速率值的代價函數(shù)和迭代次數(shù)之間的關(guān)系(不同的顏色在不同的學(xué)習(xí)速率下顯示不同的曲線)。為了參考而保存圖表后,忘記其中不同學(xué)習(xí)速率的值。現(xiàn)在需要曲線的傾斜率值之間的關(guān)系。以下哪一個是正確的?注:1藍色的學(xué)習(xí)率是L12紅色的學(xué)習(xí)率是L23綠色學(xué)習(xí)率為lL3alt="">A)L1>L2>L3B)L1=L2=L3C)L1D)都不是答案:C解析:如果學(xué)習(xí)速率低下,代價函數(shù)將緩慢下降,學(xué)習(xí)速度過高,則其代價函數(shù)會迅速下降。[單選題]15.對于圖像識別問題(比如識別照片中的貓),()神經(jīng)網(wǎng)絡(luò)模型更適合解決這類問題。A)感知機B)循環(huán)神經(jīng)網(wǎng)絡(luò)C)卷積神經(jīng)網(wǎng)絡(luò)D)多層感知機答案:C解析:[單選題]16.在SVM中,margin的含義是()A)差額B)損失誤差C)幅度D)間隔答案:D解析:[單選題]17.關(guān)于logistic回歸和SVM不正確的是()A)Logistic回歸目標函數(shù)是最小化后驗概率B)Logistic回歸可以用于預(yù)測事件發(fā)生概率的大小C)SVM目標是結(jié)構(gòu)風(fēng)險最小化D)SVM可以有效避免模型過擬合答案:A解析:[單選題]18.()是指機器學(xué)習(xí)算法對新鮮樣本的適應(yīng)能力。A)模型測試B)泛化能力C)過擬合D)模型訓(xùn)練答案:B解析:[單選題]19.近似推斷不含有?A)采樣B)變分推斷C)確定性近似完成近似推斷D)分類答案:D解析:[單選題]20.9.關(guān)于K-均值算法,以下說法不正確的是A)K-均值算法是一種劃分方法。B)K-均值算法能發(fā)現(xiàn)任意形狀的簇。C)K-均值算法不一定收斂于全局最優(yōu)解。D)比起DBSCAN算法來,K更好答案:B解析:[單選題]21.在標準化公式z=中,使用e的目的是()A)為了加速收斂B)如果μC)使結(jié)果更準確D)防止分母為零答案:D解析:[單選題]22.下面說法正確的是?A)梯度下降有時會陷于局部極小值,但EM算法不會。B)SVM對噪聲魯棒。C)當訓(xùn)練數(shù)據(jù)較多時更容易發(fā)生過擬合。D)給定n個數(shù)據(jù)點,如果其中一半用于訓(xùn)練,另一半用于測試,則訓(xùn)練誤差和測試誤差之間的差別會隨著n的增加而減小。答案:D解析:[單選題]23.關(guān)于Hadoop技術(shù)描述錯誤的是?()A)HDFS是一個分布式文件系統(tǒng)B)聯(lián)盟鏈C)HDFS適合存儲大量的小文件D)HDFS存儲空間由數(shù)據(jù)節(jié)點數(shù)決定答案:C解析:[單選題]24.S市A,B共有兩個區(qū),人口比例為3:5,據(jù)歷史統(tǒng)計A的犯罪率為0.01%,B區(qū)為0.015%,現(xiàn)有一起新案件發(fā)生在S市,那么案件發(fā)生在A區(qū)的可能性有多大?()A)37.5%B)32.5%C)28.6%D)26.1%答案:C解析:[單選題]25.二值圖象中分支點的連接數(shù)為:A)0B)1C)2D)3答案:D解析:[單選題]26.變量消去的缺點有A)會造成冗余計算B)純半監(jiān)督學(xué)習(xí)C)主動學(xué)習(xí)D)圖半監(jiān)督學(xué)習(xí)答案:C解析:[單選題]27.在print函數(shù)的輸出字符串中可以將()作為參數(shù),代表后面指定要輸出的字符串。A)%dB)%cC)%sD)%t答案:C解析:[單選題]28.點擊率問題是這樣一個預(yù)測問題,99%的人是不會點擊的,而1%的人是會點擊進去的,所以這是一個非常不平衡的數(shù)據(jù)集。假設(shè),現(xiàn)在我們已經(jīng)建了一個模型來分類,而且有了99%的預(yù)測準確率,我們可以下的結(jié)論是()。A)模型預(yù)測準確率已經(jīng)很高了,我們不需要做什么了B)模型預(yù)測準確率不高,我們需要做點什么改進模型C)無法下結(jié)論D)以上答案都不正確答案:C解析:類別不均衡的情況下,不能用準確率做分類評估指標,因為全判斷為不會點,準確率也是99%,此時分類器一點用都沒有。[單選題]29.在線性模型y=w1x1+w2x2+…+wnxn中,[w1,w2,…,wn]值代表()A)預(yù)測值B)特征值C)輸入值D)模型參數(shù)答案:D解析:[單選題]30.LSTM與RNN相比可以解決()。A)梯度消失B)訓(xùn)練結(jié)果發(fā)散C)需要激活函數(shù)D)無法處理長距離的依賴的問題答案:D解析:[單選題]31.K-搖臂賭博機屬于(__)算法。A)機器學(xué)習(xí)B)深度學(xué)習(xí)C)強化學(xué)習(xí)D)有監(jiān)督學(xué)習(xí)答案:C解析:[單選題]32.下列選項中,()是基于Web的交互式計算環(huán)境,可以編輯易于人們閱讀的文檔,用于展示數(shù)據(jù)分析的過程。A)JupyterNotebookB)AncondaNavigatorC)AncondaPromptD)Spyder答案:A解析:[單選題]33.以下哪個不是Python關(guān)鍵字()。A)fromB)assertC)notD)final答案:D解析:[單選題]34.關(guān)于Pandas中數(shù)據(jù)排序,下列說法正確的是()。A)即可以按照行索引排序,也可以按照列索引排序B)sort_index()方法表示按照值進行排序C)sort_values()方法表示按照索引進行排序D)默認情況下,sort_index()方法按照降序排列答案:A解析:[單選題]35.在支持向量機中,(__)允許支持向量機在一些樣本上出錯。A)硬間隔B)軟間隔C)核函數(shù)D)拉格朗日乘子法答案:B解析:[單選題]36.LSTM中門的輸出是()之間的實數(shù)向量。A)0到1B)1到-1C)0到-1D)1到2答案:A解析:[單選題]37.以下關(guān)于決策樹的說法錯誤的是()。A)冗余屬性不會對決策樹的精確率造成不利的影響B(tài))子樹可能在決策樹中重復(fù)多次C)決策樹對于噪聲的干擾非常敏感D)尋找最佳決策樹是NP完全問題答案:C解析:[單選題]38.半監(jiān)督學(xué)習(xí)包括__。A)純半監(jiān)督學(xué)習(xí)B)主動學(xué)習(xí)C)回歸學(xué)習(xí)D)分類學(xué)習(xí)、答案:A解析:[單選題]39.所有預(yù)測模型在廣義上都可稱為一個或一組(__)。A)公式B)邏輯C)命題D)規(guī)則答案:D解析:[單選題]40.以下對Volume相關(guān)描述不正確的是()。A)Volume是指數(shù)據(jù)量大B)就目前而言,當數(shù)據(jù)量達到拍字節(jié)以上時,一般稱為大數(shù)據(jù)C)大數(shù)據(jù)時間分布是均勻的D)數(shù)據(jù)量大是相對計算與存儲能力而定的答案:C解析:[單選題]41.計算機初始狀態(tài)能識別(__)上的基本信息。A)像素點B)每個物體C)背景D)前景答案:A解析:[單選題]42.下面對范數(shù)規(guī)則化描述錯誤的是(__)。A)L0是指向量中0的元素的個數(shù)B)L1范數(shù)是指向量中各個元素絕對值之和C)L2范數(shù)向量元素絕對值的平方和再開平方D)L0是指向量中非0的元素的個數(shù)答案:A解析:[單選題]43.在OpenCV中加載特征數(shù)據(jù)集的函數(shù)是()。A)read_csv()B)input()C)CascadeClassifier()D)imshow()答案:C解析:[單選題]44.下列函數(shù)中,用于計算整數(shù)的絕對值的是()。A)square()B)sqrt()C)abs()D)floor()答案:C解析:[單選題]45.以下場景中,屬于機器學(xué)習(xí)的是?A)讓機器檢測地震活動B)電腦運行仿生程序C)電腦作為計算器使用D)通過對不同階段的西瓜照片進行識別,讓機器能辨別熟西瓜答案:D解析:[單選題]46.以下對信息描述不正確的是()。A)信息與能源、材料屬于同一層次的概念B)信息是客觀的存在C)信息是人類社會賴以生存和發(fā)展的三大資源之一D)信息是對數(shù)據(jù)進行計量形成的記錄答案:D解析:[單選題]47.關(guān)于啞變量的說法中,下列選項描述錯誤的是()。A)啞變量是人為虛設(shè)的變量B)啞變量在轉(zhuǎn)換成指標矩陣后,其值通常為0或1C)Pnadas中g(shù)et_dummies()函數(shù)可以對類別進行啞變量處理D)啞變量的使用沒有實際意義答案:D解析:[單選題]48.令N為數(shù)據(jù)集的大小[注:設(shè)訓(xùn)練樣本(xi,yi),N即訓(xùn)練樣本個數(shù)],d是輸入空間的維數(shù)(注:d即向量xi的維數(shù))。硬間隔SVM問題的原始形式[即在不等式約束(yi(wTxi+b)≥1)下最小化(1/2)wTw]在沒有轉(zhuǎn)化為拉格朗日對偶問題之前,是()。A)一個含N個變量的二次規(guī)劃問題B)一個含N+1個變量的二次規(guī)劃問題C)一個含d個變量的二次規(guī)劃問題D)一個含d+1個變量的二次規(guī)劃問題答案:D解析:欲找到具有最大間隔的劃分超平面,也就是要找到能滿足題中不等式約束的參數(shù)w和b,是一個含d+1個變量的二次規(guī)劃問題。[單選題]49.強化學(xué)習(xí)()。A)也稱為有教師學(xué)習(xí)B)需要經(jīng)驗數(shù)據(jù)C)數(shù)據(jù)要是成對的D)不需要預(yù)備知識答案:D解析:[單選題]50.假如使用一個較復(fù)雜的回歸模型來擬合樣本數(shù)據(jù),使用Ridge回歸,調(diào)試正則化參數(shù)λ,來降低模型復(fù)雜度。若λ較小時,關(guān)于偏差(bias)和方差(variance),下列說法正確的是?A)若λ較小時,偏差減小,方差減小B)若λ較小時,偏差減小,方差增大C)若λ較小時,偏差增大,方差減小D)若λ較小時,偏差增大,方差增大答案:B解析:[單選題]51.支持向量機的優(yōu)化問題是最小化的平方,這實現(xiàn)了(__)。A)幾何間隔為1/的最大間隔超平面B)幾何間隔為的最大間隔超平面C)幾何間隔為1/的最小間隔超平面D)幾何間隔為的最小間隔超平面答案:A解析:[單選題]52.將閔可夫斯基距離和(__)結(jié)合即可處理混合屬性。A)ValueDifferenceMectricB)k-meansC)k近鄰D)SVM答案:A解析:[單選題]53.盲目搜索策略不包括下列那個()A)廣度優(yōu)先搜索B)深度優(yōu)先搜索C)有界深度優(yōu)先搜索D)全局擇優(yōu)搜索答案:D解析:[單選題]54.決策樹中,同一路徑上的所有屬性之間是()關(guān)系。A)因果B)相關(guān)C)邏輯或D)邏輯與答案:D解析:[單選題]55.當(__)過高,會出現(xiàn)欠擬合現(xiàn)象A)偏差B)方差C)噪聲D)泛化誤差答案:A解析:[單選題]56.給定的數(shù)據(jù)集包括?胡佛塔?和其他一些塔的圖像?,F(xiàn)在要使用PCA(特征臉)和最近鄰方法來構(gòu)建一個分類器,可以預(yù)測新圖像是否顯示?胡佛塔?。該圖給出了輸入的訓(xùn)練圖像樣本alt="">為了從?特征臉?算法獲得合理的性能,這些圖像將需要什么預(yù)處理步驟?A)1B)2C)1和2D)都不是答案:C解析:[單選題]57.假設(shè)我們有一個使用ReLU激活函數(shù)(ReLUactivationfunction)的神經(jīng)網(wǎng)絡(luò),假如我們把ReLU激活替換為線性激活,那么這個神經(jīng)網(wǎng)絡(luò)能夠模擬出同或函數(shù)(XNORfunction)嗎?A)可以B)不好說C)不一定D)不能答案:D解析:[單選題]58.對OpenCV中的rectangle()說法正確的是()。A)可以用來繪制三角形B)可以用來繪制圓形C)可以用來繪制多邊形D)可以用來繪制矩形答案:D解析:第2部分:多項選擇題,共17題,每題至少兩個正確答案,多選或少選均不得分。[多選題]59.下列屬于實現(xiàn)樸素貝葉斯使用方式的為A)若對預(yù)測速度要求較高,可采用樸素貝葉斯估計所有涉及Giallo;B)若任務(wù)數(shù)據(jù)更替頻繁,結(jié)合懶惰學(xué)習(xí)采用;C)若數(shù)據(jù)不斷增加,則可在估計值基礎(chǔ)上,對新增樣本的屬性所涉及概率估計;D)屬性相關(guān)事件上采用;答案:ABC解析:[多選題]60.集成學(xué)習(xí)中多樣性的增強有哪些___A)數(shù)據(jù)樣本擾動B)輸入屬性擾動C)輸出表示擾動D)算法參數(shù)擾動答案:ABCD解析:[多選題]61.數(shù)據(jù)科學(xué)的(__)往往來自于統(tǒng)計學(xué)。A)理論B)方法C)技術(shù)D)工具答案:ABCD解析:[多選題]62.影響基本K-均值算法的主要因素有()A)樣本輸入順序B)模式相似性測度C)聚類準則D)初始類中心的選取答案:ABD解析:關(guān)于A,具體推導(dǎo)詳見《模式識別》的動態(tài)聚類算法,書中提到,這是一個局部搜索算法,不能保證得到全局最優(yōu)解,算法結(jié)果受初始值和樣本調(diào)整順序的影響。也就是說如果在迭代的過程中,數(shù)據(jù)集不夠隨機,很容易陷入局部最優(yōu)。[多選題]63.在當下比較流行的分布式數(shù)據(jù)處理平臺Spark中,有一些常用的高階算子,比如說flatMap,filter,groupByKey等等;它們中的某些算子會觸發(fā)shuffle操作,所謂shuffle,粗略的可以理解為要處理的數(shù)據(jù)集的內(nèi)部分區(qū)需要進行重排,而不是原地計算。下面哪個算子會引起shuffle?()A)mapB)countC)sortByKeyD)join答案:CD解析:[多選題]64.深度學(xué)習(xí)方法不適用于的場景有()。A)數(shù)據(jù)樣本充足B)數(shù)據(jù)樣本不足C)數(shù)據(jù)集具有局部相關(guān)特性D)數(shù)據(jù)集沒有局部相關(guān)特性答案:BD解析:以下數(shù)據(jù)集不適合用深度學(xué)習(xí):①數(shù)據(jù)集太小,數(shù)據(jù)樣本不足時,深度學(xué)習(xí)相對其他機器學(xué)習(xí)算法沒有明顯優(yōu)勢。②數(shù)據(jù)集沒有局部相關(guān)特性,目前深度學(xué)習(xí)表現(xiàn)比較好的領(lǐng)域主要是圖像/語音/自然語言處理等領(lǐng)域,這些領(lǐng)域的一個共性是局部相關(guān)性。圖像中像素組成物體,語音信號中音位組合成單詞,文本數(shù)據(jù)中單詞組合成句子,這些特征元素的組合一旦被打亂,表示的含義同時也被改變。對于沒有這樣的局部相關(guān)性的數(shù)據(jù)集,不適于使用深度學(xué)習(xí)算法進行處理。[多選題]65.以下屬于聚類算法的是:A)K均值B)DBSCANC)AprioriD)樸素貝葉斯答案:AB解析:[多選題]66.從形式語言表達能力而言,規(guī)則可分為兩類:(__)和(__)。A)命題規(guī)則B)一階規(guī)則C)原子命題D)邏輯連接詞答案:AB解析:[多選題]67.集成學(xué)習(xí)學(xué)習(xí)中多樣性的度量(用于度量集成中個體分類器的多樣性)有哪些___A)不合度量B)相關(guān)系數(shù)C)Q-統(tǒng)計量D)к-統(tǒng)計量答案:ABCD解析:[多選題]68.聚類旨在發(fā)現(xiàn)有用的對象簇,在現(xiàn)實中我們用到很多的簇的類型,使用不同的簇類型劃分數(shù)據(jù)的結(jié)果是不同的,常見的簇類型有()A)明顯分離的簇B)基于中心的簇C)基于鄰近的簇D)基于密度的簇答案:ABCD解析:[多選題]69.糾錯輸出碼編碼越長__。A)糾錯能力越強B)分類器越多C)計算開銷增大D)存儲開銷增大答案:ABCD解析:[多選題]70.下列屬于樸素貝葉斯分類器的特點的是(__)。A)算法邏輯簡單,易于實現(xiàn)B)算法邏輯復(fù)雜,不易于實現(xiàn)C)分類過程中時空開銷小D)分類過程中時空開銷大答案:AC解析:[多選題]71.下列關(guān)于ROC曲線描述正確的是(__)。A)ROC曲線又叫等感受曲線B)ROC曲線離純機遇線越遠,表明被試的辨別力越強C)辨別力不同的被試的ROC曲線也不同。D)辨別力不同的被試的ROC曲線相同。答案:ABC解析:[多選題]72.以下關(guān)于正則化的描述正確的是()A)正則化可以防止過擬合B)L1正則化能得到稀疏解C)L2正則化約束了解空間D)Dropout也是一種正則化方法答案:ABCD解析:[多選題]73.有兩種策略常用來緩解BP網(wǎng)絡(luò)的過擬合,分別是(__)和(__)。A)晚停B)早停C)正則化D)加入損失函數(shù)答案:BC解析:[多選題]74.數(shù)據(jù)集成可以分為(__)。A)內(nèi)容集成B)結(jié)構(gòu)集成C)模式集成D)概念集成答案:AB解析:[多選題]75.下列關(guān)于Boosting算法說法正確的是(__)。A)Boosting算法要求基學(xué)習(xí)器能對特定的數(shù)據(jù)分布進行學(xué)習(xí)B)Boosting對無法接受帶權(quán)樣本的基學(xué)習(xí)算法,可通過重采樣法進行處理C)Boosting算法在訓(xùn)練的每一輪都要檢查當前生成的基學(xué)習(xí)器是否滿足基本條件D)一旦當前生成的基學(xué)習(xí)器不滿足條件,則當前基學(xué)習(xí)器被拋棄,且學(xué)習(xí)過程停止答案:ABCD解析:第3部分:判斷題,共12題,請判斷題目是否正確。[判斷題]76.DataFrame的結(jié)構(gòu)是由索引和數(shù)據(jù)組成的。A)正確B)錯誤答案:對解析:[判斷題]77.Logistic回歸和Softmax回歸都只能處理二元分類問題A)正確B)錯誤答案:錯解析:[判斷題]78.K近鄰學(xué)習(xí)沒有顯式的訓(xùn)練過程,屬于?懶惰學(xué)習(xí)?。此類學(xué)習(xí)技術(shù)在訓(xùn)練階段僅僅是把樣本保存起來,訓(xùn)練時間開銷為零,待收到測試樣本后再進行處理A)正確B)錯誤答案:對解析:[判斷題]79.神經(jīng)網(wǎng)絡(luò)算法不能用于數(shù)據(jù)降維A)正確B)錯誤答案:錯解析:[判斷題]80.監(jiān)督學(xué)習(xí)的數(shù)據(jù)必須要帶標簽等人為標注信息A)正確B)錯誤答案:對解析:[判斷題]81.在訓(xùn)練完SVM之后,我們可以只保留支持向量,而舍去所有非支持向量。仍然不會影響模型分類能力。這句話是否正確?A)正確B)錯誤答案:對解析:本題考查的是對支持向量機SVM的概念理解。[判斷題]82.梯度下降算法中,學(xué)習(xí)率小會影響損失函數(shù)收斂于最小值的速度A)正確B)錯誤答案:對解析:[判斷題]83.ID3依據(jù)信息增益比做特征選擇,而C4.5依據(jù)基尼指數(shù)做特征選擇A)正確B)錯誤答案:錯解析:[判斷題]84.嶺回歸是對線性回歸的優(yōu)化,在線性回歸的基礎(chǔ)上,對損失函數(shù)增加了一個L2正則項,目的是降低方差,提高模型泛化能力。A)正確B)錯誤答案:對解析:[判斷題]85.深度學(xué)習(xí)通過深度神經(jīng)網(wǎng)的多層處理,將初始的?低層?特征表示轉(zhuǎn)化為?高層?特征表示,用?簡單模型?即可完成復(fù)雜的分類等學(xué)習(xí)任務(wù)A)正確B)錯誤答案:對解析:[判斷題]86.根據(jù)類別未知(沒有被標記)的訓(xùn)練樣本解決模式識別中的各種問題,稱之為監(jiān)督學(xué)習(xí)A)正確B)錯誤答案:錯解析:[判斷題]87.監(jiān)督學(xué)習(xí)是從標記的訓(xùn)練數(shù)據(jù)來推斷一個功能的機器學(xué)習(xí)任務(wù)A)正確B)錯誤答案:對解析:第4部分:問答題,共9題,請在空白處填寫正確答案。[問答題]88.反映事件或?qū)ο笤谀撤矫娴谋憩F(xiàn)或性質(zhì)的事項,例如?色澤?等,稱為?屬性?(attribute)或?特征?(feature),屬性上的取值,例如?青綠??烏黑?,稱為()。答案:屬性值解析:[問答題]89.三種常用的替代損失函數(shù)包括hinge損失,損失,損失答案:指數(shù)解析:[問答題]90.神經(jīng)網(wǎng)絡(luò)模型按照網(wǎng)絡(luò)的結(jié)構(gòu)可分為前饋型和()。答

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論