大數(shù)據(jù)與人工智能智慧樹知到期末考試答案章節(jié)答案2024年哈爾濱商業(yè)大學(xué)_第1頁
大數(shù)據(jù)與人工智能智慧樹知到期末考試答案章節(jié)答案2024年哈爾濱商業(yè)大學(xué)_第2頁
大數(shù)據(jù)與人工智能智慧樹知到期末考試答案章節(jié)答案2024年哈爾濱商業(yè)大學(xué)_第3頁
大數(shù)據(jù)與人工智能智慧樹知到期末考試答案章節(jié)答案2024年哈爾濱商業(yè)大學(xué)_第4頁
大數(shù)據(jù)與人工智能智慧樹知到期末考試答案章節(jié)答案2024年哈爾濱商業(yè)大學(xué)_第5頁
已閱讀5頁,還剩9頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡介

大數(shù)據(jù)與人工智能智慧樹知到期末考試答案+章節(jié)答案2024年哈爾濱商業(yè)大學(xué)如果某一變量的無效值和缺失值很多,而且該變量對于所研究的問題不是特別重要,則可以考慮將該變量刪除。

答案:對現(xiàn)代的人工智能已經(jīng)具備了像國際象棋大師們洞察棋局的能力。

答案:錯池化層的一個主要作用是緩解卷積層對位置的過度敏感性。

答案:對特征空間上的間隔最大的線性分類器只有一個。

答案:對在AlhpaGo中,落子決策網(wǎng)絡(luò)通過每個落子后可能的結(jié)局預(yù)測下一步應(yīng)該落在哪個位置勝率更大。

答案:對多元回歸分析預(yù)測法,是指通過對兩個或兩個以上的自變量與一個因變量的相關(guān)分析,建立預(yù)測模型進(jìn)行預(yù)測的方法。

答案:對Stacking通??紤]的是異質(zhì)弱學(xué)習(xí)器(不同的學(xué)習(xí)算法被組合在一起),而bagging和boosting主要考慮的是同質(zhì)弱學(xué)習(xí)器。

答案:對Apriori算法具有這樣一條性質(zhì):任一頻繁項(xiàng)集的所有非空子集也必須是頻繁的。

答案:對符號計(jì)算是一種智能化的計(jì)算,處理的是符號。

答案:對所有的程序都需要深度學(xué)習(xí)技術(shù)。

答案:錯遺傳算法中個體就是模擬生物個體而對問題中的對象(一般就是問題的解)的一種稱呼,一個個體也就是搜索空間中的一個點(diǎn)。

答案:對池化層的輸出通道數(shù)跟輸入通道數(shù)相同。

答案:對人工智能的目標(biāo)是希望計(jì)算機(jī)擁有像人一樣的智力能力,可以替代人類實(shí)現(xiàn)識別、認(rèn)知、分類和決策等多種功能。

答案:對HDFS是一個并行處理大數(shù)據(jù)集的編程模型。

答案:錯機(jī)器學(xué)習(xí)模型建立過程其實(shí)是一個參數(shù)學(xué)習(xí)與調(diào)優(yōu)的過程。

答案:對人臉識別可以應(yīng)用在安防領(lǐng)域。

答案:對基于層次的聚類算法包括()。

答案:合并的層次聚類;分裂的層次聚類MapReduce分布式并行編程使程序員只關(guān)注()的實(shí)現(xiàn)。

答案:Map函數(shù);Reduce函數(shù)Apriori算法采用()方式來找出所有的頻繁項(xiàng)集。

答案:連接步;剪枝步對數(shù)據(jù)對象之間的相似性進(jìn)行衡量,基本分為()。

答案:相似系數(shù);距離一元線性回歸的顯著性檢驗(yàn)包括()。

答案:線性關(guān)系的檢驗(yàn);回歸系數(shù)的檢驗(yàn)特征選擇的方法包括()。

答案:Embedded方法;Wrapper方法;Filter方法K-Means算法的計(jì)算步驟包括()。

答案:把每個點(diǎn)劃分進(jìn)相應(yīng)的類;聚類完成;重新計(jì)算質(zhì)心;取得k個初始質(zhì)心;迭代計(jì)算質(zhì)心對于企業(yè)存儲設(shè)備而言,根據(jù)存儲實(shí)現(xiàn)方式,可將數(shù)據(jù)存儲劃分為()。

答案:存儲區(qū)域網(wǎng)絡(luò);網(wǎng)絡(luò)附加存儲;直接附加存儲無參的特征值歸約包括()。

答案:選樣;聚類;直方圖參入mapreduce作業(yè)執(zhí)行涉及的獨(dú)立實(shí)體b包括()。

答案:client;JobTracker;TaskTracker;Hdfs將數(shù)據(jù)轉(zhuǎn)換或統(tǒng)一呈適合于挖掘的形式,涉及的內(nèi)容包括()。

答案:光滑;數(shù)據(jù)泛化;屬性構(gòu)造;聚集;規(guī)范化將目標(biāo)函數(shù)轉(zhuǎn)換成適應(yīng)度函數(shù)一般應(yīng)遵循的原則包括()。

答案:優(yōu)化過程中目標(biāo)函數(shù)的變化方向應(yīng)與群體進(jìn)化過程中適應(yīng)度函數(shù)變化方向一致;適應(yīng)度必須非負(fù)代替無效值和缺失值的最簡單方法包括()。

答案:方差值;樣本均值;中位數(shù)常用的分類算法包括()。

答案:神經(jīng)網(wǎng)絡(luò);基于規(guī)則的分類算法;樸素貝葉斯分類法;支持向量機(jī);決策樹分類法遺傳算法中首要解決的問題()。

答案:參數(shù)編碼()是一種采用局部最優(yōu)策略的決策樹構(gòu)建算法,它同時也是許多決策樹算法的基礎(chǔ)。

答案:Hunt算法()特點(diǎn)是數(shù)據(jù)占據(jù)存儲空間大,在網(wǎng)絡(luò)的傳輸中占據(jù)大量帶寬資源。

答案:視頻數(shù)據(jù)LDA是一種()的降維技術(shù),也就是說它的數(shù)據(jù)集的每個樣本是有類別輸出的。

答案:監(jiān)督學(xué)習(xí)Combiner和Reducer類都指向繼承于Reducer的內(nèi)部類()。

答案:Reduce()通??紤]的是異質(zhì)弱學(xué)習(xí)器,并行地學(xué)習(xí)它們,并通過訓(xùn)練一個元模型將它們組合起來,根據(jù)不同弱模型的預(yù)測結(jié)果輸出一個最終的預(yù)測結(jié)果。

答案:stacking網(wǎng)絡(luò)附加存儲的英文縮寫是(

)。

答案:NAS決策樹學(xué)習(xí)的關(guān)鍵一步是()。

答案:選擇最優(yōu)劃分屬性VGG構(gòu)建深度模型是通過重復(fù)使用()。

答案:VGG塊C4.5決策樹學(xué)習(xí)算法以()為準(zhǔn)則劃分屬性。

答案:增益率()相當(dāng)于高維空間中向量所表示的點(diǎn)與點(diǎn)之間的距離。

答案:歐式距離早期的數(shù)據(jù)在企業(yè)數(shù)據(jù)的語境里,主要是()。

答案:文本人工智能最基本的研究內(nèi)容()。

答案:搜索與求解()采用自頂向下的方法,從一個包含全部數(shù)據(jù)點(diǎn)的聚類開始,將根結(jié)點(diǎn)分裂成一些子聚類,每個子聚類再遞歸向下分裂,知道出現(xiàn)只有一個數(shù)據(jù)點(diǎn)的單結(jié)點(diǎn)聚類出現(xiàn)(每個聚類只含有一個數(shù)據(jù)點(diǎn))為止。

答案:分裂的層次聚類在實(shí)例中用于訓(xùn)練svm模型的函數(shù)是()。

答案:fit()利用自然語言處理人工智能方法可實(shí)現(xiàn)電子病歷非結(jié)構(gòu)化智能信息提取。

答案:對醫(yī)療人工智能快速發(fā)展的要素包括()。

答案:算法革新;算力不斷升級;醫(yī)療大數(shù)據(jù)醫(yī)療大數(shù)據(jù)的獨(dú)有特性包括()。

答案:不完整性;多態(tài)性;隱私性;冗余性;時序性醫(yī)院綜合信息應(yīng)用平臺可實(shí)現(xiàn)()。

答案:業(yè)務(wù)應(yīng)用;系統(tǒng)集成;數(shù)據(jù)整合基于醫(yī)院大數(shù)據(jù)中心,可實(shí)現(xiàn)數(shù)據(jù)共享和挖掘應(yīng)用。

答案:對對于商品數(shù)量多、出貨頻率快的物流中心,()就意味著工作效率和效益。

答案:儲位優(yōu)化前置倉的市場定位,是()之間的市場空白。

答案:大型超市與便利店智慧物流是以互聯(lián)網(wǎng)+為核心,以物聯(lián)網(wǎng)、大數(shù)據(jù)、()及“三網(wǎng)融合”等為技術(shù)支撐的。

答案:云計(jì)算前置倉優(yōu)點(diǎn)包括()。

答案:成本低;速度快;及時性前置倉缺點(diǎn)包括()。

答案:品類運(yùn)營差異,價(jià)格差異;訂單的不確定性D.W檢驗(yàn)就是誤差序列的自相關(guān)檢驗(yàn)。

答案:對皮爾森相關(guān)系數(shù)是一種最簡單的,能幫助理解特征和響應(yīng)變量之間關(guān)系的方法,該方法衡量的是變量之間的非線性相關(guān)性。

答案:錯集成性特性是數(shù)據(jù)倉庫和操作型數(shù)據(jù)庫的根本區(qū)別。

答案:錯聚類是發(fā)現(xiàn)數(shù)據(jù)集中數(shù)據(jù)之間的相關(guān)關(guān)系,對數(shù)據(jù)進(jìn)行分組,組內(nèi)的相似性越小,組間的差別越大,則聚類的效果越差。

答案:錯特征選擇是選取已有屬性的子集來進(jìn)行建模的一種方式。

答案:對多元分類希望預(yù)測的目標(biāo)有多個選項(xiàng),好像在做選擇題。

答案:對集成性是指數(shù)據(jù)倉庫會將不同來源數(shù)據(jù)庫中的數(shù)據(jù)匯總到一起。

答案:對回歸分析希望預(yù)測的目標(biāo)是連續(xù)的值,好像在做計(jì)算題。

答案:對填充可以增加輸出的高和寬,常用來使輸出與輸入具有相同的高和寬。

答案:對旨在組合弱學(xué)習(xí)器的元算法包括()。

答案:stacking;bagging;boostingAlphaGo主要分為兩大部分,分別是()。

答案:落子決策網(wǎng)絡(luò);價(jià)值評估網(wǎng)絡(luò)常用的數(shù)據(jù)采集方法包括()。

答案:DPI采集方式;網(wǎng)絡(luò)采集數(shù)據(jù)方法;數(shù)據(jù)庫采集;特定的系統(tǒng)接口采集;系統(tǒng)日志采集方法最初提出的AS版本包括()。

答案:Ant-quantity;Ant-cycle;Ant-density遺傳算法中常見的交叉操作主要有以下幾種()。

答案:均勻交叉;兩點(diǎn)交叉;算術(shù)交叉;單點(diǎn)交叉數(shù)據(jù)規(guī)約包括()。

答案:樣本歸約;特征歸約;特征值歸約特征選擇的目的(

)。

答案:增強(qiáng)對特征和特征值之間的理解;降低學(xué)習(xí)任務(wù)的難度,提升模型的效率;減少特征數(shù)量、降維;使模型泛華能力更強(qiáng),減少過擬合相似系數(shù)度量包含()。

答案:杰卡德相似系數(shù);皮爾遜系數(shù);余弦相似度遺傳算法有以下優(yōu)點(diǎn)()。

答案:不需要輔助信息。;內(nèi)在啟發(fā)式隨機(jī)搜索特性。;遺傳算法在搜索過程中不容易陷入局部最優(yōu);對可行解表示的廣泛性。;群體搜索特性。()是一種消極學(xué)習(xí)方法,它不需要建立模型,然而測試樣例的開銷很大,因?yàn)樾枰饌€計(jì)算測試樣例和訓(xùn)練樣例之間的相似度。

答案:最近鄰分類器()思想是通過將這些弱學(xué)習(xí)器的偏置和/或方差結(jié)合起來,從而創(chuàng)建一個強(qiáng)學(xué)習(xí)器,從而獲得更好的性能。

答案:集成方法()方法的思想是對每一維特征“打分”,即給每一維的特征賦予權(quán)重,這樣的權(quán)重就代表著該特征的重要性,然后依據(jù)權(quán)重排序。

答案:Filter方法音頻數(shù)據(jù)比較具有代表性的是()格式的數(shù)據(jù)

答案:MP3()是一種數(shù)據(jù)分析形式,它提取刻畫重要數(shù)據(jù)類的模型。

答案:分類()是指在決策樹生成過程中,對每個結(jié)點(diǎn)在劃分前進(jìn)行估計(jì),若當(dāng)前結(jié)點(diǎn)的劃分不能帶來決策樹泛化性能的提升,則停止劃分并將當(dāng)前結(jié)點(diǎn)標(biāo)記為葉結(jié)點(diǎn)。

答案:預(yù)剪枝蟻群算法是隨機(jī)搜索算法。

答案:對Computer=>antivirus_software,

其中

support=2%,confidence=60%,表示的意思是所有的商品交易中有2%的顧客買了電腦,并且購買電腦的顧客中有60%也購買了殺毒軟件。

答案:錯蟻群算法執(zhí)行過程中,核心操作步驟是更新信息素。

答案:對數(shù)據(jù)可視化是指把數(shù)據(jù)通過直觀的可視化的方式展示給用戶。

答案:對二元分類屬于有監(jiān)督學(xué)習(xí)。

答案:對遺傳算法中種群就是模擬生物種群而由若干個體組成的群體,它一般是整個搜索空間的一個很小的子集。

答案:對感知與交流是指計(jì)算機(jī)對外部信息的直接感知和人機(jī)之間、智能體之間的直接信息交流。

答案:對深度學(xué)習(xí)無法自動將簡單特征組合成復(fù)雜特征。

答案:錯PCA原理中,找出第一個主成分的方向,也就是數(shù)據(jù)方差最大的方向。

答案:對填充是在輸入四個角的位置填充元素255。

答案:錯機(jī)器翻譯無法表達(dá)出人類獨(dú)有的感情。

答案:對兩個等長的字符串s1和s2之間的漢明距離定義為將其中一個變?yōu)榱硪粋€所需要做的最小替換次數(shù)。

答案:對數(shù)據(jù)工程是指面向不同計(jì)算平臺和應(yīng)用環(huán)境,使用信息系統(tǒng)設(shè)計(jì)開發(fā)和評價(jià)的工程化技術(shù)和方法。

答案:對基尼系數(shù)越小,則數(shù)據(jù)集D的純度越高。

答案:對皮爾森相關(guān)系數(shù)方法衡量的是變量之間的線性相關(guān)性。

答案:對由于Apriori算法使用逐層搜索技術(shù),給定候選k項(xiàng)集后,只需檢查它們的(k-1)個子集是否頻繁。

答案:對機(jī)器翻譯是利用計(jì)算機(jī)把一種自然語言轉(zhuǎn)變成另一種自然語言的過程,用以完成這一過程的軟件系統(tǒng)叫做機(jī)器翻譯系統(tǒng)。

答案:對線性判別式分析也叫做Fisher線性判別。

答案:對一個像素由紅綠藍(lán)三個值構(gòu)成。

答案:對最大池化取池化窗口中輸入元素的最大值作為輸出。

答案:對數(shù)據(jù)可視化技術(shù)基本概念包括()。

答案:數(shù)據(jù)開發(fā);數(shù)據(jù)可視化;數(shù)據(jù)空間;數(shù)據(jù)分析數(shù)據(jù)平滑技術(shù)包括()。

答案:回歸;分箱;聚類下列選項(xiàng)屬于語音識別的主要應(yīng)用的是()。

答案:電話外呼;電話客服;電腦系統(tǒng)聲控;語音書寫;醫(yī)療領(lǐng)域聽寫深度學(xué)習(xí)在自然語言處理應(yīng)用的應(yīng)用有()。

答案:詞性標(biāo)注;廣告推薦;機(jī)器翻譯;情感分析Hadoop的運(yùn)行模式包括()。

答案:偽分布模式;全分布模式;單機(jī)模式人工智能的研究領(lǐng)域包括()。

答案:自然語言處理;機(jī)器人;專家系統(tǒng);圖像識別理解大數(shù)據(jù)的層面包括()。

答案:理論;技術(shù);實(shí)踐分類規(guī)則的質(zhì)量可以用()來度量。

答案:覆蓋率;準(zhǔn)確率屬于模擬人腦的機(jī)器學(xué)習(xí)的方法是()。

答案:連接學(xué)習(xí);符號學(xué)習(xí)人臉識別的應(yīng)用領(lǐng)域可以是()。

答案:娛樂;安防;風(fēng)控;金融支付生成對抗網(wǎng)絡(luò)的應(yīng)用領(lǐng)域有()。

答案:語音和語言的合成;文本生成;視頻預(yù)測;視頻換臉Hadoop生態(tài)圈的組件包括(

)。

答案:數(shù)據(jù)分析工具;數(shù)據(jù)集成;數(shù)據(jù)存儲;數(shù)據(jù)處理機(jī)器學(xué)習(xí)模型在部署前需要經(jīng)過兩個部分的工作()。

答案:模型評估;模型訓(xùn)練遺傳算法中常見的變異操作主要有以下幾種()。

答案:基本位變異;高斯變異;二元變異;均勻變異數(shù)據(jù)降維主要目的包括()。

答案:從數(shù)據(jù)中提取特征以便進(jìn)行分類;壓縮數(shù)據(jù)以減少存儲量;將數(shù)據(jù)投影到低為可視空間,以便于看清數(shù)據(jù)的分布;去除噪聲影響特征分類包括()。

答案:無關(guān)特征;冗余特征;相關(guān)特征有監(jiān)督學(xué)習(xí)的分類()。

答案:回歸分析;二元分類;多元分類處理缺失值的方法包括()。

答案:估算;成對刪除;整例刪除;變量刪除機(jī)器學(xué)習(xí)中常見的算法()。

答案:神經(jīng)網(wǎng)絡(luò)算法;決策樹算法;支持向量機(jī)算法;蟻群算法特征歸約的步驟包括()。

答案:搜索過程;評估過程;分類過程一元線性回歸平方和占總平方和的比例稱為()。

答案:判定系數(shù)()是決策樹學(xué)習(xí)算法中對付“過擬合”的主要手段。

答案:剪枝人工智能的英文縮寫是()。

答案:AI借助某種存儲工具或媒介對采集到的數(shù)據(jù)進(jìn)行持久化的保存是指()。

答案:數(shù)據(jù)存儲大部分自然科學(xué)的本質(zhì)()。

答案:數(shù)據(jù)分析蟻群算法的英文縮寫是()。

答案:ACO在降維技術(shù)方面,PCA的中文含義是()。

答案:主成分分析在實(shí)例中可用于讀入數(shù)據(jù)文件的函數(shù)是()。

答案:loadtext()()是一種構(gòu)建分類模型的非參數(shù)方法。換句話說,它不要求任何先驗(yàn)假設(shè),不假定類和其他的屬性服從一定的概率分布。

答案:決策樹分類法定義支持商業(yè)流程所需要的數(shù)據(jù)要求的過程()。

答案:數(shù)據(jù)建模()是HDFS中的工作節(jié)點(diǎn),它負(fù)責(zé)存儲數(shù)據(jù)塊。

答案:數(shù)據(jù)節(jié)點(diǎn)()是認(rèn)知的必經(jīng)途徑,也是被廣泛認(rèn)同和傳播的基線。

答案:理論大數(shù)據(jù)的英文縮寫是()。

答案:BD()方法的思想是在模型既定的情況下學(xué)習(xí)出對提高模型準(zhǔn)確性最好的特征。也就是在確定模型的過程中,挑選出那些對模型的訓(xùn)練有重要意義的特征。

答案:Embedded方法在一元線性回歸中y的取值的波動稱為()。

答案:變差()提供了一種用圖形模型來捕獲特定領(lǐng)域的先驗(yàn)知識的方法。

答案:樸素貝葉斯分類法在大數(shù)據(jù)組成中,數(shù)據(jù)的主要部分是()。

答案:非結(jié)構(gòu)化數(shù)據(jù)ID3決策樹學(xué)習(xí)算法以()為準(zhǔn)則來選擇劃分屬性。

答案:信息增益分布式人工智能系統(tǒng)一般由多個()組成。

答案:智能體()是將數(shù)據(jù)集中劃分成“類內(nèi)的點(diǎn)都足夠近,類間的點(diǎn)都足夠遠(yuǎn)”的效果。

答案:基于劃分的算法Mapreduce的運(yùn)行機(jī)制,按照時間順序包括()。

答案:map階段;shuffle階段;輸入分片;reduce階段;combiner階段Hadoop是一個由()開發(fā)的大數(shù)據(jù)分布式系統(tǒng)基礎(chǔ)架構(gòu)。

答案:Apache基金會()是在服務(wù)器集群上搭建Hadoop,更接近真實(shí)的生產(chǎn)環(huán)境。

答案:全分布模式Hadoop是一個數(shù)據(jù)管理系統(tǒng),作為數(shù)據(jù)分析的核心,匯集了結(jié)構(gòu)化和非結(jié)構(gòu)化的數(shù)據(jù)。

答案:對名字節(jié)點(diǎn)保存源信息的種類有()。

答案:每個文件塊的名及文件由哪些塊組成;文件目錄的所有者及其權(quán)限;文件名目錄名及它們之間的層級關(guān)系通常一個HDFS集群中包含()。

答案:一個名稱節(jié)點(diǎn);第二名字節(jié)點(diǎn);數(shù)據(jù)節(jié)點(diǎn)()角色就是定期的合并元數(shù)據(jù)信息文件和元數(shù)據(jù)操作日志。

答案:第2名字節(jié)點(diǎn)使用MapReduce框架時,我們僅僅只是填寫map和reduce部分的代碼,其他的都交給mapreduce框架來處理。

答案:對使用MapReduce之前不一定要初始化Configuration。

答案:錯()是在單機(jī)上,模擬一個分布式的環(huán)境,具備Hadoop的所有功能。

答案:偽分布模式深度學(xué)習(xí)無法應(yīng)用在漁業(yè)養(yǎng)殖領(lǐng)域。

答案:錯深度學(xué)習(xí)在CV領(lǐng)域的應(yīng)用包括檢測和分割。

答案:對感知機(jī)不能解決異或問題。

答案:對感受野是特征圖上的一個點(diǎn)對應(yīng)的輸入圖上的區(qū)域。

答案:對VGG提出可以通過重復(fù)使用簡單的基礎(chǔ)模塊來構(gòu)建深度模型的思路。

答案:對機(jī)器翻譯不會取代人工翻譯。

答案:對LSTM模型不能應(yīng)用于自然語言處理。

答案:錯機(jī)器學(xué)習(xí)是深度學(xué)習(xí)的一個分支。

答案:錯卷積神經(jīng)網(wǎng)絡(luò)相鄰兩層之間只有部分節(jié)點(diǎn)相連。

答案:對100層以上的網(wǎng)絡(luò)才叫深度網(wǎng)絡(luò)。

答案:錯()方法的思想將子集的選擇看作是一個搜索尋優(yōu)問題,生成不同的組合,對組合進(jìn)行評價(jià),再與其他的組合進(jìn)行比較。

答案:Wrapper方法關(guān)聯(lián)規(guī)則A->B的支持度support=P(AB),指的是(

)。

答案:事件A和事件B同時發(fā)生的概率。置信度confidence=P(B|A)=P(AB)/P(A),指的是(

)。

答案:發(fā)生事件A的基礎(chǔ)上發(fā)生事件B的概率。關(guān)聯(lián)規(guī)則是形如X→Y的蘊(yùn)涵式,表示通過X可以推導(dǎo)“得到”Y。

答案:對在降維技術(shù)方面,LDA的中文含義是(

)。

答案:線性判別方法K-Means算法中選擇較大的K值可以降低數(shù)據(jù)的誤差,并不會增加過擬合的風(fēng)險(xiǎn)。

答案:錯LDA降維和PCA降維的不同之處包括(

)。

答案:LDA選擇分類性能最好的投影方向,而PCA選擇樣本點(diǎn)投影具有最大方差的方向;LDA除了可以用于降維,還可以用于分類;LDA是有監(jiān)督的降維方法,而PCA是無監(jiān)督的降維方法;LDA降維最多降到k-1維,而PCA沒有這個限制()常考慮的是同質(zhì)弱學(xué)習(xí)器,相互獨(dú)立地并行學(xué)習(xí)這些弱學(xué)習(xí)器,并按照某種確定性的平均過程將它們組合起來。

答案:bagging關(guān)聯(lián)規(guī)則的執(zhí)行過程包括(

)。

答案:由頻繁項(xiàng)集產(chǎn)生強(qiáng)規(guī)則;找出所有的頻繁項(xiàng)集()采用自底向上的聚類方法,從最底層開始,每一次通過合并最相似的聚類來形成上一層次中的聚類,當(dāng)全部數(shù)據(jù)點(diǎn)都合并到一個聚類時或者達(dá)到某個終止條件時結(jié)束,是大部分層次聚類采用的方法。

答案:合并的層次聚類遺傳算法在整個進(jìn)化過程中的遺傳操作不是隨機(jī)的。

答案:錯學(xué)習(xí)與發(fā)現(xiàn)是指機(jī)器的知識學(xué)習(xí)和規(guī)律發(fā)現(xiàn)。

答案:對遺傳算法中最常用的一種編碼方法()。

答案:二進(jìn)制遺傳算法采用概率化的尋優(yōu)方法,能自動獲取和指導(dǎo)優(yōu)化的搜索空間,自適應(yīng)地調(diào)整搜索方向,不需要確定的規(guī)則。

答案:對遺傳算法的局限性()。

答案:遺傳算法容易出現(xiàn)過早收斂。;遺傳算法通常的效率比其他傳統(tǒng)的優(yōu)化方法低。;單一的遺傳算法編碼不能全面地將優(yōu)化問題的約束表示出來。;遺傳算法對算法的精度、可信度、計(jì)算復(fù)雜性等方面,還沒有有效的定量分析方法。;編碼不規(guī)范及編碼存在表示的不準(zhǔn)確性。蟻群算法最早解決的問題是()。

答案:旅行商問題遺傳算法中選擇操作通過適應(yīng)度選擇優(yōu)質(zhì)個體而拋棄劣質(zhì)個體,體現(xiàn)了“適者生

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論