人工智能機(jī)器學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷15)_第1頁
人工智能機(jī)器學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷15)_第2頁
人工智能機(jī)器學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷15)_第3頁
人工智能機(jī)器學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷15)_第4頁
人工智能機(jī)器學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷15)_第5頁
已閱讀5頁,還剩21頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡介

試卷科目:人工智能機(jī)器學(xué)習(xí)技術(shù)練習(xí)人工智能機(jī)器學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷15)PAGE"pagenumber"pagenumber/SECTIONPAGES"numberofpages"numberofpages人工智能機(jī)器學(xué)習(xí)技術(shù)練習(xí)第1部分:單項(xiàng)選擇題,共58題,每題只有一個(gè)正確答案,多選或少選均不得分。[單選題]1.基于二次準(zhǔn)則函數(shù)的H-K算法較之于感知器算法的優(yōu)點(diǎn)是()?A)計(jì)算量小B)可以判別問題是否線性可分C)其解完全適用于非線性可分的情況[單選題]2.關(guān)于梯度提升樹,說法正確的是()A)梯度提升樹中樣本的權(quán)重是不等的B)梯度提升樹只需構(gòu)建一棵樹C)梯度提升樹回歸可以跨越訓(xùn)練集中l(wèi)abel的值范圍[單選題]3.關(guān)于BP算法反向傳播的說法正確的是()。A)BP算法反向傳播進(jìn)行更新時(shí)一般用到微積分的鏈?zhǔn)絺鞑シ▌tB)BP算法更新量與步長關(guān)系不大C)BP算法反向傳播的預(yù)測(cè)誤差值一般由真實(shí)標(biāo)簽值和預(yù)測(cè)標(biāo)簽值的差計(jì)算得來D)BP算法反向傳播的目的是只對(duì)權(quán)值進(jìn)行更新[單選題]4.卷積神經(jīng)網(wǎng)絡(luò)中說的梯度下降,是指()的梯度。A)參數(shù)本身B)激活函數(shù)C)損失函數(shù)D)圖像大小[單選題]5.下面選項(xiàng)中t不是s的子序列的是A)s=<{2,4},{3,5,6},{8}>t=<{2},{3,6},{8}>B)s=<{2,4},{3,5,6},{8}>t=<{2},{8}>C)s=<{1,2},{3,4}>t=<{1},{2}>D)s=<{2,4},{2,4}>t=<{2},{4}>[單選題]6.假設(shè)我們使用kNN訓(xùn)練模型,其中訓(xùn)練數(shù)據(jù)具有較少的觀測(cè)數(shù)據(jù)(下圖是兩個(gè)屬性x、y和兩個(gè)標(biāo)記為?+?和?o?的訓(xùn)練數(shù)據(jù))?,F(xiàn)在令k=1,則圖中的Leave-One-Out交叉驗(yàn)證錯(cuò)誤率是多少?A)0%B)20%C)50%D)100%[單選題]7.DataFrame1和RDDR最大的區(qū)別()A)科學(xué)統(tǒng)計(jì)支持B)多了多schemaC)存儲(chǔ)方式不一樣D)外部數(shù)據(jù)源支持[單選題]8.考察一個(gè)由三個(gè)卷積層組成的CNN:kernel=3×3,stride=2,padding=SAME。最低層輸出100個(gè)特征映射(featuremap),中間層200個(gè)特征映射,最高層400個(gè)特征映射。輸入是200×300的RGB圖片,總參數(shù)的數(shù)量是多少?()A)903400B)2800C)180200D)720400[單選題]9.以下對(duì)字典的說法錯(cuò)誤的是()。A)字典可以為空B)字典的鍵不能相同C)字典的鍵不可變D)字典的鍵的值不可變[單選題]10.()的基本想法是適當(dāng)考慮一部分屬性間的相互依賴信息,從而既不需要進(jìn)行完全聯(lián)合概率計(jì)算,又不至于徹底忽略了比較強(qiáng)的屬性依賴關(guān)系。A)貝葉斯判定準(zhǔn)則B)貝葉斯決策論C)樸素貝葉斯分類器D)半樸素貝葉斯分類器[單選題]11.()是預(yù)測(cè)一個(gè)數(shù)量(連續(xù)型),屬于監(jiān)督學(xué)習(xí)A)分類B)回歸C)聚類D)強(qiáng)化學(xué)習(xí)[單選題]12.以下哪種方法不屬于特征選擇的標(biāo)準(zhǔn)方法:A)嵌入B)過濾C)包裝D)抽樣[單選題]13.類域界面方程法中,不能求線性不可分情況下分類問題近似或精確解的方法是?A)偽逆法B)感知器算法C)基于二次準(zhǔn)則的H-K算法D)勢(shì)函數(shù)法[單選題]14.下列哪種算法可以用神經(jīng)網(wǎng)絡(luò)構(gòu)建?1K-NN最近鄰算法;2線性回歸;3邏輯回歸。A)1and2B)2and3C)1,2and3D)Noneoftheabove[單選題]15.抖動(dòng)技術(shù)可以?A)改善圖像的空間分辨率;B)改善圖像的幅度分辨率;C)利用半輸出技術(shù)實(shí)現(xiàn);D)消除虛假輪廓現(xiàn)象;[單選題]16.在下面給出的三個(gè)殘差圖中,下面哪一個(gè)代表了與其他模型相比更差的模型?注意:1/所有的殘差都已經(jīng)標(biāo)準(zhǔn)化2/圖中橫坐標(biāo)是預(yù)測(cè)值,縱坐標(biāo)是殘差A(yù))1B)2C)3D)無法比較[單選題]17.以下哪項(xiàng)是非線性降維方法A)PCA(主成分分析)B)LDA(線性判別)C)ICA(獨(dú)立成分分析)D)KPCA(核化線性降維)[單選題]18.()算法的訓(xùn)練數(shù)據(jù)集既有特征,又有標(biāo)簽A)有監(jiān)督學(xué)習(xí)B)半監(jiān)督學(xué)習(xí)C)無監(jiān)督學(xué)習(xí)D)強(qiáng)化學(xué)習(xí)[單選題]19.zookeeper的作用不包括()。A)分布式配置同步B)加強(qiáng)集群穩(wěn)定性C)對(duì)Task執(zhí)行進(jìn)行調(diào)度D)加強(qiáng)集群持續(xù)性[單選題]20.數(shù)據(jù)科學(xué)是一門以實(shí)現(xiàn)?從數(shù)據(jù)到信息??從數(shù)據(jù)到知識(shí)??從數(shù)據(jù)到智慧?的轉(zhuǎn)化為主要研究目的,以?數(shù)據(jù)驅(qū)動(dòng)??數(shù)據(jù)業(yè)務(wù)化??數(shù)據(jù)洞見??數(shù)據(jù)產(chǎn)品研發(fā)?為主要研究任務(wù)的()。A)新興科學(xué)B)交叉性學(xué)科C)獨(dú)立學(xué)科D)一整套知識(shí)體系[單選題]21.卷積神經(jīng)網(wǎng)絡(luò)中的dropout模塊的作用是()。A)防止結(jié)果發(fā)散B)防止梯度消失C)防止報(bào)錯(cuò)D)防止過擬合[單選題]22.Zookeeper-Stat結(jié)構(gòu)體中numChildren是()A)znode數(shù)據(jù)變化號(hào)B)znode訪問控制列表的變化號(hào)C)znode子節(jié)點(diǎn)數(shù)量D)znode的數(shù)據(jù)長度[單選題]23.()是指過濾器在圖像上滑動(dòng)的距離。A)卷積核大小B)卷積步長C)過濾器大小D)圖像大小[單選題]24.符號(hào)集a、b、c、d,它們相互獨(dú)立,相應(yīng)概率為1/2、1/4、1/8、1/16,其中包含信息量最小的符號(hào)是()A)aB)bC)cD)d[單選題]25.做卷積運(yùn)算的缺點(diǎn)是,卷積圖像的大小會(huì)不斷縮小,另外圖像的左上角的元素只被一個(gè)輸出所使用,所以在圖像邊緣的像素在輸出中采用較少,也就意味著你丟掉了很多圖像邊緣的信息。為了解決這個(gè)問題,在卷積過程中引入了()。A)poolingB)paddingC)convolutionD)FC[單選題]26.下面關(guān)于回歸過程的說法,錯(cuò)誤的是A)收集數(shù)據(jù):采用任意方法收集數(shù)據(jù)B)分析數(shù)據(jù):繪出數(shù)據(jù)的可視化二維圖將有助于對(duì)數(shù)據(jù)做出理解和分析,在采用縮減法求得新回歸系數(shù)之后,可以將新擬合線繪在圖上作為對(duì)比C)訓(xùn)練算法:找到回歸系數(shù)D)用算法:使用回歸,可以在給定輸入的時(shí)候預(yù)測(cè)出一個(gè)數(shù)值,這是對(duì)分類方法的提升,因?yàn)檫@樣只可以預(yù)測(cè)連續(xù)型數(shù)據(jù)[單選題]27.半監(jiān)督學(xué)習(xí)不包括A)直推學(xué)習(xí)B)純半監(jiān)督學(xué)習(xí)C)主動(dòng)學(xué)習(xí)D)圖半監(jiān)督學(xué)習(xí)[單選題]28.在選擇神經(jīng)網(wǎng)絡(luò)的深度時(shí),下面哪些參數(shù)需要考慮?1神經(jīng)網(wǎng)絡(luò)的類型(如MLP,CNN);2輸入數(shù)據(jù);3計(jì)算能力(硬件和軟件能力決定);4學(xué)習(xí)速率;5映射的輸出函數(shù).A)1,2,4,5B)2,3,4,5C)都需要考慮D)1,3,4,5[單選題]29.知識(shí)圖譜是由()演化而來。[]*A)符號(hào)主義B)認(rèn)知主義C)聯(lián)結(jié)主義D)行為主義[單選題]30.機(jī)器學(xué)習(xí)從不同的角度,有不同的分類方式,以下哪項(xiàng)不屬于按系統(tǒng)學(xué)習(xí)能力分類的類別______。A)監(jiān)督學(xué)習(xí)B)無監(jiān)督學(xué)習(xí)C)弱監(jiān)督學(xué)習(xí)D)函數(shù)學(xué)習(xí)[單選題]31.下面對(duì)線性模型中偏置值b的說法正確的是(__)。A)無任何意義B)決定超平面的位置C)決定的超平面的方向D)是樣本點(diǎn)到超平面上的映射[單選題]32.以下幾種模型方法屬于判別式模型的有1)混合高斯模型2)條件隨機(jī)場(chǎng)模型3)區(qū)分度訓(xùn)練4)隱馬爾科夫模型A)1,4B)3,4C)2,3D)1,2[單選題]33.()試圖學(xué)得一個(gè)屬性的線性組合來進(jìn)行預(yù)測(cè)的函數(shù)。A)決策樹B)貝葉斯分類器C)神經(jīng)網(wǎng)絡(luò)D)線性模型[單選題]34.進(jìn)行主成分分析的前提條件是各變量間()。A)高度相關(guān)B)低度相關(guān)C)相互獨(dú)立D)完全相關(guān)[單選題]35.下列關(guān)于數(shù)據(jù)標(biāo)準(zhǔn)化的說法中,不正確的是()A)Z-Score標(biāo)準(zhǔn)化適用于特征最大值和最小值未知,數(shù)據(jù)較分散的情況B)聚類算法要求數(shù)據(jù)集無量綱化C)Logistic標(biāo)準(zhǔn)化函數(shù)σ(x)滿足σ(0)=1D)Min-Max標(biāo)準(zhǔn)化易受離群值影響[單選題]36.以下不屬于影響聚類算法結(jié)果的主要因素有()A)已知類別的樣本質(zhì)量B)分類準(zhǔn)則C)特征選取D)模式相似性測(cè)度[單選題]37.F1參數(shù)的大小反映了模型的(__)。A)準(zhǔn)確度B)誤差C)穩(wěn)定性D)偏差[單選題]38.10.基于層次的聚類算法包括()。A)合并的層次聚類B)基于密度的聚類算法C)基于劃分的算法D)基于網(wǎng)絡(luò)的聚類算法[單選題]39.當(dāng)不知道數(shù)據(jù)所帶標(biāo)簽時(shí),可以使用()促使帶同類標(biāo)簽的數(shù)據(jù)與帶其他標(biāo)簽的數(shù)據(jù)相分離。A)分類B)聚類C)關(guān)聯(lián)分析D)隱馬爾可夫鏈[單選題]40.zookeeper節(jié)點(diǎn)的特性()A)可以存儲(chǔ)數(shù)據(jù)B)不可以存儲(chǔ)數(shù)據(jù)C)可以計(jì)算數(shù)據(jù)D)可以協(xié)調(diào)數(shù)據(jù)[單選題]41.為了解決如何模擬人類的感性思維,例如視覺理解、直覺思維、悟性等,研究者找到一個(gè)重要的信息處理的機(jī)制是()A)專家系統(tǒng)B)人工神經(jīng)網(wǎng)絡(luò)C)模式識(shí)別D)智能代理[單選題]42.()的主要目的是提升數(shù)據(jù)質(zhì)量,將數(shù)據(jù)形態(tài)更加符合某一算法需求,進(jìn)而提升數(shù)據(jù)計(jì)算的效果和降低其復(fù)雜度。A)數(shù)據(jù)加工B)數(shù)據(jù)分析C)數(shù)據(jù)挖掘D)數(shù)據(jù)處理[單選題]43.()選擇成為支持向量機(jī)的最大變數(shù)。A)核函數(shù)B)樣本空間C)模型D)算法[單選題]44.做一個(gè)二分類預(yù)測(cè)問題,先設(shè)定閾值為0.5,概率大于等于0.5的樣本歸入正例類(即1),小于0.5的樣本歸入反例類(即0)。然后,用閾值n(n>0.5)重新劃分樣本到正例類和反例類,下面哪一種說法正確是()1.增加閾值不會(huì)提高召回率2..增加閾值會(huì)提高召回率3..增加閾值不會(huì)降低查準(zhǔn)率4.增加閾值會(huì)降低查準(zhǔn)率A)1B)2C)1、3D)2、4[單選題]45.選擇哪一個(gè)解作為輸出,將由學(xué)習(xí)算法的歸納偏好決定,常見的做法是引人()。A)線性回歸B)線性判別分析C)正則化項(xiàng)D)偏置項(xiàng)[單選題]46.一階規(guī)則的基本成分是A)原子命題B)謂詞C)量詞D)原子公式[單選題]47.馬爾可夫隨機(jī)場(chǎng)是典型的馬爾可夫網(wǎng),這是一種著名的(__)模型。A)無向圖B)有向圖C)樹形圖D)環(huán)形圖[單選題]48.可用作數(shù)據(jù)挖掘分析中的關(guān)聯(lián)規(guī)則算法有()。A)機(jī)器學(xué)習(xí)、對(duì)數(shù)回歸、關(guān)聯(lián)模式B)K均值法、SOM機(jī)器學(xué)習(xí)C)Apriori算法、FP-Tree算法D)RBF機(jī)器學(xué)習(xí)、K均值法、機(jī)器學(xué)習(xí)[單選題]49.一般來說,下列哪種方法常用來預(yù)測(cè)連續(xù)獨(dú)立變量?A)線性回歸B)邏輯回顧C(jī))線性回歸和邏輯回歸都行D)以上說法都不對(duì)[單選題]50.以下對(duì)大數(shù)據(jù)?涌現(xiàn)?描述不正確的是()。A)安全涌現(xiàn)是大數(shù)據(jù)涌現(xiàn)現(xiàn)象B)小數(shù)據(jù)可能沒價(jià)值,但是小數(shù)據(jù)組成的大數(shù)據(jù)卻很有價(jià)值,這叫做價(jià)值涌現(xiàn)C)小數(shù)據(jù)可能質(zhì)量沒問題,但是大數(shù)據(jù)質(zhì)量會(huì)出現(xiàn)問題這叫質(zhì)量涌現(xiàn)D)小數(shù)據(jù)可能不涉及隱私,但是大數(shù)據(jù)可能嚴(yán)重威脅個(gè)人隱私,這叫隱私涌現(xiàn)[單選題]51.讓學(xué)習(xí)器不依賴外界交互、自動(dòng)地利用未標(biāo)記樣本來提升學(xué)習(xí)性能,就是()?A)監(jiān)督學(xué)習(xí)B)倍監(jiān)督學(xué)習(xí)C)半監(jiān)督學(xué)習(xí)D)無監(jiān)督學(xué)習(xí)[單選題]52.貝葉斯網(wǎng)借助(__)來刻畫屬性之間的依賴關(guān)系。A)有向圖B)無環(huán)圖C)有向無環(huán)圖D)歐拉圖[單選題]53.()是一種處理時(shí)序數(shù)據(jù)的神經(jīng)網(wǎng)絡(luò),常用于語音識(shí)別,機(jī)器翻譯等領(lǐng)域。[]*A)前饋神經(jīng)網(wǎng)絡(luò)B)卷積神經(jīng)網(wǎng)絡(luò)C)循環(huán)神經(jīng)網(wǎng)絡(luò)D)對(duì)抗神經(jīng)網(wǎng)絡(luò)[單選題]54.電影投資金額和電影收入之間的關(guān)系可以用一個(gè)一元線性回歸方程來表示,下列說法正確的是()。A)投資越多收入越少B)投資越少收入越多C)投資越多收入越多D)投資和收入的關(guān)系不確定[單選題]55.Softmax算法中溫度趨近于0時(shí)Softmax將趨于A)僅探索B)僅利用C)全探索D)全利用[單選題]56.數(shù)據(jù)治理任務(wù)通常有三個(gè)部分不包含(__)。A)主動(dòng)定義或序化規(guī)則B)接觸數(shù)據(jù)的業(yè)務(wù)流程C)為數(shù)據(jù)利益相關(guān)者提供持續(xù)D)跨界的保護(hù)、服務(wù)和應(yīng)對(duì)并解決因不遵守規(guī)則而產(chǎn)生的問題[單選題]57.(__)不是常用的噪聲處理方法。A)聚類B)回歸C)分類D)分箱[單選題]58.考慮如下數(shù)據(jù)集,其中CustomerID(顧客id),TransactionID(事務(wù)id),ItemsBought(購買項(xiàng))。如果將每個(gè)事務(wù)id看成一個(gè)購物籃,計(jì)算項(xiàng)集{e},{b,d},{b,D,e}的支持度:A)s({e})=0.8s({b,d})=0.2s({b,D,e})=0.2B)s({e})=0.7s({b,d})=0.3s({b,D,e})=0.3C)s({e})=0.6s({b,d})=0.4s({b,D,e})=0.3D)s({e})=0.8s({b,d})=0.1s({b,D,e})=0.1第2部分:多項(xiàng)選擇題,共21題,每題至少兩個(gè)正確答案,多選或少選均不得分。[多選題]59.支持向量機(jī)是一類模型的統(tǒng)稱,通常包括A)線性支持向量機(jī)B)線性非可分向量機(jī)C)線性可分支持向量機(jī)D)非線性支持向量機(jī)[多選題]60.以下能力中,數(shù)據(jù)工程師需要具備的能力或素質(zhì)是()。A)數(shù)據(jù)洞見B)數(shù)據(jù)的ETL操作C)數(shù)據(jù)的備份與恢復(fù)D)主數(shù)據(jù)管理及數(shù)據(jù)集成[多選題]61.關(guān)于K均值和DBSCAN的比較,以下說法正確的是()A)K均值使用簇的基于原型的概念,而DBSCAN使用基于密度的概念B)K均值很難處理非球形的簇和不同大小的簇,DBSCAN可以處理不同大小和不同形狀的簇。C)K均值可以發(fā)現(xiàn)不是明顯分離的簇,即便簇有重疊也可以發(fā)現(xiàn),但是DBSCAN會(huì)合并有重疊的簇D)K均值丟棄被它識(shí)別為噪聲的對(duì)象,而DBSCAN一般聚類所有對(duì)象[多選題]62.從復(fù)雜度和價(jià)值高低兩個(gè)維度,可以將數(shù)據(jù)分析分為(__)。A)描述性分析B)診斷性分析C)預(yù)測(cè)性分析D)規(guī)范性分析[多選題]63.常用于K近鄰算法中的距離度量方法有()A)歐式距離B)曼哈頓距離C)閔可夫斯基距離D)海明距離[多選題]64.以下哪些濾波器能在卷積窗口的邊界上使卷積掩膜中心像素和它的4-鄰接點(diǎn)的系數(shù)降至0附近。A)同態(tài)濾波B)高斯濾波C)巴特沃斯濾波D)中值濾波[多選題]65.下列屬于無監(jiān)督學(xué)習(xí)的有()A)聚類B)分類C)回歸D)降維[多選題]66.關(guān)于貝葉斯網(wǎng)的結(jié)構(gòu)描述正確的為A)有效表達(dá)了屬性件的條件獨(dú)立性;B)給定了父結(jié)點(diǎn)集;C)同父,順序和V型結(jié)構(gòu)為主要涉及的技術(shù);D)所有屬性之間相互獨(dú)立;[多選題]67.下面屬于線性分類方法的是()A)Logistic回歸B)決策樹C)最近鄰D)Fisher鑒別[多選題]68.下列關(guān)于支持向量的說法錯(cuò)誤的是(__)。A)支持向量回歸機(jī)的支持向量落在它規(guī)定的間隔帶之內(nèi)B)支持向量回歸機(jī)的支持向量落在它規(guī)定的間隔帶之外C)支持向量回歸機(jī)的支持向量只占訓(xùn)練集的一部分D)訓(xùn)練集中的全部樣本都是支持向量[多選題]69.以下對(duì)數(shù)據(jù)描述正確的是()。A)數(shù)據(jù)是現(xiàn)實(shí)世界的記錄B)數(shù)據(jù)是人類社會(huì)賴以生存的和發(fā)展的三大資源之一C)數(shù)據(jù)分為顯性數(shù)據(jù)和隱性數(shù)據(jù)D)數(shù)據(jù)是對(duì)信息進(jìn)行計(jì)量和記錄而產(chǎn)生的記錄[多選題]70.隨機(jī)森林相比決策樹的優(yōu)點(diǎn)有()A)對(duì)離群點(diǎn)更加魯棒B)準(zhǔn)確率更高C)泛化誤差收斂D)大型數(shù)據(jù)集上更加有效[多選題]71.如將A、B、C三個(gè)分類器的PR曲線畫在一個(gè)圖中,其中A、B的PR曲線可以完全包含住C的PR曲線,A與B的PR曲線有交點(diǎn),A、B、C的平衡點(diǎn)分別為0.79、0.66、0.58,以下說法中正確的是()。A)學(xué)習(xí)器A的性能優(yōu)于學(xué)習(xí)器CB)學(xué)習(xí)器A的性能優(yōu)于學(xué)習(xí)器BC)學(xué)習(xí)器B的性能優(yōu)于學(xué)習(xí)器CD)學(xué)習(xí)器C的性能優(yōu)于學(xué)習(xí)器B[多選題]72.下列方法中,解決欠擬合的方法有哪些()A)正則化方法B)集成學(xué)習(xí)方法C)添加新特征D)減少正則化系數(shù)[多選題]73.數(shù)據(jù)科學(xué)的基本流程包含(__)。A)數(shù)據(jù)可視化B)數(shù)據(jù)加工C)數(shù)據(jù)化D)數(shù)據(jù)洞見[多選題]74.關(guān)于回歸算法,下列說法正確的是()A)線性回歸可以讓預(yù)測(cè)值跨越訓(xùn)練集中l(wèi)abel的范圍B)KNN回歸可以讓預(yù)測(cè)值跨越訓(xùn)練集中l(wèi)abel的范圍C)KNN在預(yù)測(cè)異常樣本時(shí)是有效的。D)線性回歸使用梯度下降法來進(jìn)行學(xué)習(xí)。[多選題]75.數(shù)據(jù)戰(zhàn)略等于(__)之?和?。A)數(shù)據(jù)管理目標(biāo)B)行動(dòng)方案C)目標(biāo)管理D)動(dòng)態(tài)機(jī)制第3部分:判斷題,共12題,請(qǐng)判斷題目是否正確。[判斷題]76.在解決函數(shù)優(yōu)化問題時(shí),基因遺傳算法的全局性不好,容易陷入局部最優(yōu)值A(chǔ))正確B)錯(cuò)誤[判斷題]77.?獨(dú)依賴估計(jì)?是半樸素貝葉斯分類器最常用的一種策略A)正確B)錯(cuò)誤[判斷題]78.貝葉斯分類器在推斷階段使用訓(xùn)練數(shù)據(jù)學(xué)習(xí)后驗(yàn)概率A)正確B)錯(cuò)誤[判斷題]79.基于VC維和Rademacher復(fù)雜度推導(dǎo)泛化誤差界,所得到的結(jié)果均與具體學(xué)習(xí)算法無關(guān),對(duì)所有學(xué)習(xí)算法都適用A)正確B)錯(cuò)誤[判斷題]80.邏輯回歸是通過回歸的思想來解決分類問題的算法A)正確B)錯(cuò)誤[判斷題]81.基于Rademacher復(fù)雜度的泛化誤差界是是分布無關(guān)、數(shù)據(jù)獨(dú)立的A)正確B)錯(cuò)誤[判斷題]82.Pandas中利用merge函數(shù)合并數(shù)據(jù)表時(shí)默認(rèn)的是內(nèi)連接方式。A)正確B)錯(cuò)誤[判斷題]83.誤差逆?zhèn)鞑ニ惴?BP)僅可用于多層前饋神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)算法A)正確B)錯(cuò)誤[判斷題]84.機(jī)器學(xué)習(xí)的目標(biāo)是使計(jì)算機(jī)能模擬人的學(xué)習(xí)行為,自動(dòng)地通過學(xué)習(xí)來獲取知識(shí)和技能,不斷改善性能,實(shí)現(xiàn)自我完善A)正確B)錯(cuò)誤[判斷題]85.信息增益即數(shù)據(jù)集的熵與在特征條件下的條件熵之差。信息增益越大,說明條件克服的不確定性越大,具有更強(qiáng)的分類能力A)正確B)錯(cuò)誤[判斷題]86.同一個(gè)列表中的元素的數(shù)據(jù)類型可以各不相同。A)正確B)錯(cuò)誤[判斷題]87.FOIL不支持函數(shù)和邏輯表達(dá)式嵌套A)正確B)錯(cuò)誤第4部分:問答題,共9題,請(qǐng)?jiān)诳瞻滋幪顚懻_答案。[問答題]88.在現(xiàn)實(shí)生活中樸素貝葉斯分類器有多種使用方式,若任務(wù)數(shù)據(jù)更替頻繁,則可以采用()方式,先不進(jìn)行任何訓(xùn)練,待收到預(yù)測(cè)請(qǐng)求后再根據(jù)當(dāng)前數(shù)據(jù)進(jìn)行概率估值[問答題]89.可看作學(xué)習(xí)算法在給定數(shù)據(jù)和參數(shù)空間上的實(shí)例化[問答題]90.隨機(jī)森林的基本思想包括()()[問答題]91.C4.5算法,在決策樹生成過程中,以______為特征選擇的準(zhǔn)則。[問答題]92.是否可以對(duì)三分問題應(yīng)用邏輯回歸算法?A)是B)否[問答題]93.剪枝處理分為_____和______,前者使得決策樹的很多分支都沒有展開,降低過擬合的風(fēng)險(xiǎn),但也容易帶來欠擬合的風(fēng)險(xiǎn),后者使得決策樹完全展開,泛化性能往往優(yōu)于前者,但訓(xùn)練和測(cè)試時(shí)間長。[問答題]94.在學(xué)習(xí)任務(wù)的真實(shí)邊界比較復(fù)雜時(shí),用決策樹解決會(huì)相當(dāng)復(fù)雜,此時(shí)采用__________,可以實(shí)現(xiàn)斜劃分甚至更復(fù)雜的劃分形式。[問答題]95.LineaRegression類中的調(diào)用方法為fit(x,y,sample_weight=None),傳入的參數(shù)x、y和sample_weight分別是(),()和()類型。[問答題]96.聚類結(jié)果()高且()低。[多選題]97.機(jī)器學(xué)習(xí)包含下列哪幾種訓(xùn)練學(xué)習(xí)方法?A)監(jiān)督學(xué)習(xí)B)混合學(xué)習(xí)C)半監(jiān)督學(xué)習(xí)D)無監(jiān)督學(xué)習(xí)[多選題]98.以下可以有效解決過擬合的方法是:()A)增加樣本數(shù)量B)增加特征數(shù)量C)訓(xùn)練更多的迭代次數(shù)D)采用正則化方法[多選題]99.下列關(guān)于支持向量機(jī)的說法正確的是(__)。A)支持向量機(jī)的學(xué)習(xí)策略是間隔最大化B)支持向量機(jī)的基本模型是特征空間上間隔最大的線性分類器C)支持向量機(jī)只能對(duì)線性可分的樣本進(jìn)行分類D)傳統(tǒng)支持向量機(jī)只能求解二分類問題[多選題]100.規(guī)整數(shù)據(jù)(TidyData)應(yīng)滿足的基本原則有()。A)每個(gè)實(shí)體占且僅占一個(gè)關(guān)系(表)。B)每個(gè)觀察占且僅占一行。C)每個(gè)變量占且僅占一列。D)每一類觀察單元構(gòu)成一個(gè)關(guān)系(表)。1.答案:B解析:2.答案:A解析:3.答案:A解析:4.答案:C解析:5.答案:C解析:6.答案:D解析:本題考查的是kNN算法和Leave-One-Out交叉驗(yàn)證。KNN算法是標(biāo)記類算法,取當(dāng)前實(shí)例最近鄰的k個(gè)樣本,k個(gè)樣本中所屬的最多類別即判定為該實(shí)例的類別。本題中k=1,則只需要看最近鄰的那一個(gè)樣本屬于?+?還是?o?即可。Leave-One-Out交叉驗(yàn)證是一種用來訓(xùn)練和測(cè)試分類器的方法,假定數(shù)據(jù)集有N個(gè)樣本,將這個(gè)樣本分為兩份,第一份N-1個(gè)樣本用來訓(xùn)練分類器,另一份1個(gè)樣本用來測(cè)試,如此迭代N次,所有的樣本里所有對(duì)象都經(jīng)歷了測(cè)試和訓(xùn)練。分別對(duì)這10個(gè)點(diǎn)進(jìn)行觀察可以發(fā)現(xiàn),每個(gè)實(shí)例點(diǎn)最近鄰的都不是當(dāng)前實(shí)例所屬的類別,因此每次驗(yàn)證都是錯(cuò)誤的。整體的錯(cuò)誤率即為100%。7.答案:B解析:8.答案:A解析:9.答案:D解析:10.答案:D解析:11.答案:B解析:12.答案:D解析:13.答案:B解析:14.答案:B解析:1.KNN是關(guān)于距離的學(xué)習(xí)算法,沒有任何參數(shù),所以無法用神經(jīng)網(wǎng)絡(luò)構(gòu)建。2.神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)最小二乘法。3.邏輯回歸相當(dāng)于一層的神經(jīng)網(wǎng)絡(luò)。15.答案:D解析:16.答案:C解析:17.答案:D解析:18.答案:A解析:19.答案:C解析:20.答案:C解析:21.答案:D解析:22.答案:C解析:23.答案:B解析:24.答案:A解析:25.答案:B解析:26.答案:D解析:27.答案:C解析:28.答案:C解析:29.答案:A解析:30.答案:D解析:31.答案:B解析:32.答案:C解析:33.答案:D解析:34.答案:B解析:35.答案:C解析:36.答案:A解析:37.答案:C解析:38.

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論