人工智能核心算法模擬題(附參考答案)_第1頁(yè)
人工智能核心算法模擬題(附參考答案)_第2頁(yè)
人工智能核心算法模擬題(附參考答案)_第3頁(yè)
人工智能核心算法模擬題(附參考答案)_第4頁(yè)
人工智能核心算法模擬題(附參考答案)_第5頁(yè)
已閱讀5頁(yè),還剩16頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

人工智能核心算法模擬題(附參考答案)一、單選題(共43題,每題1分,共43分)1.下列哪項(xiàng)不屬于聚類算法()A、K-meansB、BIRCHC、SVMD、DBSCAN正確答案:C答案解析:SVM是支持向量機(jī),屬于分類算法,不屬于聚類算法。K-means是經(jīng)典的聚類算法,通過(guò)將數(shù)據(jù)劃分為K個(gè)簇來(lái)進(jìn)行聚類。BIRCH是一種層次聚類算法,它通過(guò)構(gòu)建一棵聚類特征樹(shù)來(lái)快速有效地進(jìn)行聚類。DBSCAN是基于密度的空間聚類算法,能夠發(fā)現(xiàn)任意形狀的簇。2.用Tensorflow處理圖像識(shí)別任務(wù)時(shí),若輸入數(shù)據(jù)的形狀為[64,224,224,3],下面說(shuō)法正確的是A、每一張圖片都是二值圖片B、每一張圖片都是三通道圖片C、模型一次處理224張圖片(batchsize為224)D、以上選項(xiàng)均不正確正確答案:B答案解析:輸入數(shù)據(jù)形狀為[64,224,224,3],其中64表示batchsize,即一次處理的圖片數(shù)量;224×224表示圖片的尺寸;3表示通道數(shù),說(shuō)明每一張圖片都是三通道圖片。A選項(xiàng)二值圖片通道數(shù)通常為1;C選項(xiàng)batchsize為64不是224。所以正確答案是B。3.xgboost在代價(jià)函數(shù)里加入了(),用于控制模型的復(fù)雜度A、正則項(xiàng)B、非線性C、激活函數(shù)D、特征變換正確答案:A答案解析:XGBoost在代價(jià)函數(shù)里加入了正則項(xiàng),用于控制模型的復(fù)雜度。正則項(xiàng)可以防止模型過(guò)擬合,通過(guò)對(duì)模型參數(shù)進(jìn)行約束,使得模型在擬合數(shù)據(jù)的同時(shí)不會(huì)過(guò)于復(fù)雜,從而提高模型的泛化能力。4.比較成熟的分類預(yù)測(cè)模型算法包括Logistic回歸模型、廣義線性模型、()、神經(jīng)網(wǎng)絡(luò)A、決策樹(shù)B、arima模型C、holt-winter模型D、k-means模型正確答案:A答案解析:Logistic回歸模型、廣義線性模型、決策樹(shù)、神經(jīng)網(wǎng)絡(luò)都是比較成熟的分類預(yù)測(cè)模型算法。arima模型主要用于時(shí)間序列預(yù)測(cè);holt-winter模型是時(shí)間序列預(yù)測(cè)方法中的一種;k-means模型是聚類分析算法,不是分類預(yù)測(cè)模型。5.協(xié)同過(guò)濾和基于內(nèi)容的模型是兩種流行的推薦引擎,在建立這樣的算法中NLP扮演什么角色?A、從文本中提取特征B、測(cè)量特征相似度C、為學(xué)習(xí)模型的向量空間編程特征D、以上都是正確答案:D答案解析:在基于內(nèi)容的推薦算法中,NLP首先要從文本中提取特征,比如對(duì)于物品描述文本提取關(guān)鍵詞、主題等特征,這對(duì)應(yīng)選項(xiàng)A;接著要測(cè)量不同物品特征之間的相似度,以此來(lái)判斷物品之間的相似程度,這對(duì)應(yīng)選項(xiàng)B;還要為學(xué)習(xí)模型的向量空間編程特征,將提取的特征轉(zhuǎn)換到合適的向量空間以便模型處理,這對(duì)應(yīng)選項(xiàng)C。所以NLP在基于內(nèi)容的推薦算法中扮演著從文本中提取特征、測(cè)量特征相似度、為學(xué)習(xí)模型的向量空間編程特征等多方面的角色,答案選D。6.循環(huán)神經(jīng)網(wǎng)絡(luò)(recurrentneuralnetwork,RNN),是一種用于處理具有類似()的數(shù)據(jù)的神經(jīng)網(wǎng)絡(luò)。A、數(shù)組結(jié)構(gòu)B、序列結(jié)構(gòu)C、表格結(jié)構(gòu)D、網(wǎng)格結(jié)構(gòu)正確答案:B答案解析:循環(huán)神經(jīng)網(wǎng)絡(luò)主要用于處理具有序列結(jié)構(gòu)的數(shù)據(jù),它能夠處理序列中的每個(gè)元素,并根據(jù)之前的元素信息來(lái)預(yù)測(cè)當(dāng)前元素,適合處理如文本、語(yǔ)音等具有序列特征的數(shù)據(jù)。7.下列哪個(gè)選項(xiàng)中的模型屬于集成學(xué)習(xí)()A、C4.5B、kNN分類C、AdaboostD、k-means正確答案:C答案解析:集成學(xué)習(xí)是將多個(gè)弱學(xué)習(xí)器組合成一個(gè)強(qiáng)學(xué)習(xí)器的方法。Adaboost是一種典型的集成學(xué)習(xí)算法,它通過(guò)迭代訓(xùn)練多個(gè)基分類器,并根據(jù)前一輪分類器的錯(cuò)誤率調(diào)整樣本權(quán)重,最終將這些分類器線性組合起來(lái)得到一個(gè)強(qiáng)分類器。而C4.5是決策樹(shù)算法,kNN分類是基于最近鄰的分類算法,k-means是聚類算法,它們都不屬于集成學(xué)習(xí)。8.在一個(gè)神經(jīng)網(wǎng)絡(luò)中,知道每一個(gè)神經(jīng)元的權(quán)重和偏差是最重要的一步。如果知道了神經(jīng)元準(zhǔn)確的權(quán)重和偏差,便可以近似任何函數(shù),但怎么獲知每個(gè)神經(jīng)的權(quán)重和偏移呢?A、搜索每個(gè)可能的權(quán)重和偏差組合,直到得到最佳值B、賦予一個(gè)初始值,然后檢查跟最佳值的差值,不斷迭代調(diào)整權(quán)重C、隨機(jī)賦值,聽(tīng)天由命D、以上都不正確的正確答案:B答案解析:在神經(jīng)網(wǎng)絡(luò)中,通常是賦予一個(gè)初始值,然后通過(guò)反向傳播算法檢查跟最佳值(根據(jù)損失函數(shù)確定)的差值,不斷迭代調(diào)整權(quán)重來(lái)獲知每個(gè)神經(jīng)元準(zhǔn)確的權(quán)重和偏差。選項(xiàng)A搜索每個(gè)可能的權(quán)重和偏差組合計(jì)算量極大幾乎不可行;選項(xiàng)C隨機(jī)賦值沒(méi)有目標(biāo)和方向,無(wú)法得到準(zhǔn)確的權(quán)重和偏差。所以答案是B。9.深度學(xué)習(xí)可以用在下列哪些NLP任務(wù)中?A、情感分析B、問(wèn)答系統(tǒng)C、機(jī)器翻譯D、所有選項(xiàng)正確答案:D答案解析:深度學(xué)習(xí)在自然語(yǔ)言處理(NLP)領(lǐng)域有廣泛應(yīng)用,情感分析旨在判斷文本所表達(dá)的情感傾向,深度學(xué)習(xí)模型可通過(guò)對(duì)大量文本數(shù)據(jù)的學(xué)習(xí)來(lái)準(zhǔn)確識(shí)別情感;問(wèn)答系統(tǒng)需要理解問(wèn)題并給出準(zhǔn)確回答,深度學(xué)習(xí)能助力模型學(xué)習(xí)語(yǔ)言模式和語(yǔ)義理解以實(shí)現(xiàn)此功能;機(jī)器翻譯則是將一種語(yǔ)言翻譯成另一種語(yǔ)言,深度學(xué)習(xí)強(qiáng)大的語(yǔ)言建模和模式識(shí)別能力可有效提升翻譯質(zhì)量。所以深度學(xué)習(xí)可以用于所有這些NLP任務(wù)中。10.長(zhǎng)短期記憶LSTM的核心貢獻(xiàn)是引入了()的巧妙構(gòu)思,該構(gòu)思中的權(quán)重視上下文而定,而不是固定的。A、自增加B、自循環(huán)C、自遞歸D、自減少正確答案:B答案解析:長(zhǎng)短期記憶LSTM的核心貢獻(xiàn)是引入了自循環(huán)的巧妙構(gòu)思,該構(gòu)思中的權(quán)重視上下文而定,而不是固定的。自循環(huán)使得LSTM能夠更好地處理序列中的長(zhǎng)期依賴關(guān)系,通過(guò)控制信息的流動(dòng)和記憶,提高了對(duì)復(fù)雜時(shí)間序列數(shù)據(jù)的建模能力。11.()采用多種樂(lè)器的音頻數(shù)據(jù),可融合多種國(guó)家、樂(lè)曲風(fēng)格和樂(lè)器音色的特征,創(chuàng)作音樂(lè)作品。A、XLNetB、GoogleNetC、MuseNetD、AlexNet正確答案:C答案解析:MuseNet是OpenAI研發(fā)的一種基于Transformer架構(gòu)的模型,它可以采用多種樂(lè)器的音頻數(shù)據(jù),融合多種國(guó)家、樂(lè)曲風(fēng)格和樂(lè)器音色的特征來(lái)創(chuàng)作音樂(lè)作品。而XLNet、GoogleNet、AlexNet主要用于自然語(yǔ)言處理、圖像識(shí)別等領(lǐng)域,并非專門(mén)用于音樂(lè)創(chuàng)作。12.代碼arr1=np.array([[1,2,3],[4,5,6]]);print((arr1**2)[1,1])的輸出是()?A、5B、25C、6D、26正確答案:B答案解析:首先,計(jì)算arr1**2,得到[[1,4,9],[16,25,36]]。然后,訪問(wèn)[1,1]位置的元素,即25。所以輸出結(jié)果25大于25是錯(cuò)誤的,大于25的選項(xiàng)為正確答案。13.在CNN中,梯度下降法的作用是()。A、線性變換B、非線性變換C、求函數(shù)最小值D、加速訓(xùn)練正確答案:C答案解析:梯度下降法是一種優(yōu)化算法,其主要作用是通過(guò)迭代更新模型的參數(shù),使得損失函數(shù)的值不斷減小,最終找到損失函數(shù)的最小值,從而確定最優(yōu)的模型參數(shù)。線性變換和非線性變換一般不是梯度下降法的直接作用;加速訓(xùn)練通常是一些優(yōu)化策略或技術(shù)如隨機(jī)梯度下降等帶來(lái)的效果,而不是梯度下降法本身的直接作用。14.在神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)中,每個(gè)神經(jīng)元會(huì)完成若干功能,下面哪個(gè)功能不是神經(jīng)元所能夠完成的功能A、對(duì)加權(quán)累加信息進(jìn)行非線性變化(通過(guò)激活函數(shù))B、向前序相鄰神經(jīng)元反饋加權(quán)累加信息C、將加權(quán)累加信息向后續(xù)相鄰神經(jīng)元傳遞D、對(duì)前序相鄰神經(jīng)元所傳遞信息進(jìn)行加權(quán)累加正確答案:B答案解析:神經(jīng)元主要是接收前序相鄰神經(jīng)元傳遞的信息,進(jìn)行加權(quán)累加、非線性變化后傳遞給后續(xù)相鄰神經(jīng)元,一般不會(huì)向前序相鄰神經(jīng)元反饋加權(quán)累加信息。15.以下機(jī)器學(xué)習(xí)中,在數(shù)據(jù)預(yù)處理時(shí),不需要考慮歸一化處理的是:()A、logistic回歸B、SVMC、樹(shù)形模型D、神經(jīng)網(wǎng)絡(luò)正確答案:C答案解析:樹(shù)形模型在數(shù)據(jù)預(yù)處理時(shí)通常不需要考慮歸一化處理。因?yàn)闃?shù)形模型(如決策樹(shù)、隨機(jī)森林等)對(duì)數(shù)據(jù)的尺度不敏感,其分裂節(jié)點(diǎn)的依據(jù)是特征的信息增益或其他基于數(shù)據(jù)分布的統(tǒng)計(jì)量,數(shù)據(jù)的尺度不會(huì)影響模型的決策規(guī)則和性能。而logistic回歸、SVM、神經(jīng)網(wǎng)絡(luò)等模型通常需要進(jìn)行歸一化處理,以提高模型的訓(xùn)練效率和收斂速度,防止梯度消失或爆炸等問(wèn)題。16.二分搜索算法是利用()實(shí)現(xiàn)的算法。A、回溯法B、動(dòng)態(tài)規(guī)劃法C、貪心法D、分治策略正確答案:D答案解析:二分搜索算法是將一個(gè)有序數(shù)組分成兩部分,通過(guò)比較目標(biāo)值與中間元素的大小,不斷縮小搜索范圍,最終找到目標(biāo)值或確定目標(biāo)值不存在。這是典型的分治策略的應(yīng)用,將一個(gè)大問(wèn)題分解成若干個(gè)小問(wèn)題來(lái)解決。動(dòng)態(tài)規(guī)劃法通常用于解決最優(yōu)子結(jié)構(gòu)問(wèn)題;貪心法是在每一步選擇中都采取當(dāng)前狀態(tài)下的最優(yōu)策略;回溯法是一種通過(guò)嘗試所有可能的解來(lái)找到問(wèn)題解決方案的算法,均不符合二分搜索算法的特點(diǎn)。17.下列哪個(gè)函數(shù)不可以做激活函數(shù)?A、y=tanh(x)B、y=sin(x)C、y=max(x,0)D、y=2x正確答案:D答案解析:函數(shù)\(y=2x\)不滿足激活函數(shù)的性質(zhì)。激活函數(shù)需要是非線性函數(shù),以便增加神經(jīng)網(wǎng)絡(luò)的模型復(fù)雜度和表達(dá)能力。而\(y=2x\)是線性函數(shù),它不能引入非線性變化,所以不能作為激活函數(shù)。選項(xiàng)[A]中的\(tanh(x)\)是雙曲正切函數(shù),是常用的激活函數(shù)之一;選項(xiàng)[B]中的\(sin(x)\)也是非線性函數(shù);選項(xiàng)[C]中的\(max(x,0)\)即ReLU函數(shù),是很流行的激活函數(shù)。18.基于統(tǒng)計(jì)的異常點(diǎn)檢測(cè)算法不包括A、簡(jiǎn)單統(tǒng)計(jì)分析B、基于正態(tài)分布的異常點(diǎn)檢測(cè)算法C、3δ原則D、基于距離的異常點(diǎn)檢測(cè)算法正確答案:B19.使用似然函數(shù)的目的是什么()A、求解目標(biāo)函數(shù)B、得到最優(yōu)數(shù)據(jù)樣本C、找到最合適數(shù)據(jù)的參數(shù)D、改變目標(biāo)函數(shù)分布正確答案:C答案解析:似然函數(shù)的目的是找到最合適數(shù)據(jù)的參數(shù)。似然函數(shù)衡量的是在給定參數(shù)值下,觀測(cè)到當(dāng)前數(shù)據(jù)樣本的可能性大小。通過(guò)調(diào)整參數(shù),使得似然函數(shù)的值最大,從而找到最能解釋觀測(cè)數(shù)據(jù)的參數(shù)值。它不是直接求解目標(biāo)函數(shù)(A選項(xiàng)錯(cuò)誤),也不是為了得到最優(yōu)數(shù)據(jù)樣本(B選項(xiàng)錯(cuò)誤),更不是改變目標(biāo)函數(shù)分布(D選項(xiàng)錯(cuò)誤)。20.下列哪一個(gè)不是無(wú)約束算法。A、梯度下降法B、擬牛頓法C、啟發(fā)式優(yōu)化方法D、EM算法正確答案:D答案解析:EM算法主要用于含有隱變量的概率模型參數(shù)估計(jì)等,不是無(wú)約束優(yōu)化算法,它有其特定的應(yīng)用場(chǎng)景和迭代過(guò)程。而梯度下降法、擬牛頓法是常見(jiàn)的無(wú)約束優(yōu)化算法,通過(guò)不斷迭代尋找函數(shù)最小值。啟發(fā)式優(yōu)化方法也是用于求解優(yōu)化問(wèn)題的一類方法,很多時(shí)候用于無(wú)約束優(yōu)化場(chǎng)景。21.對(duì)不具備泛化能力的規(guī)則轉(zhuǎn)變?yōu)楦话愕囊?guī)則的最基礎(chǔ)的技術(shù)為(___)A、最小一般特化B、最小一般泛化C、最大一般特化D、最大一般泛化正確答案:B22.下列哪種機(jī)器學(xué)習(xí)算法不需要?dú)w一化處理?()A、DecisionTreeB.SVMB、KmeansC、LogisticRegression正確答案:A答案解析:決策樹(shù)(DecisionTree)是一種基于樹(shù)結(jié)構(gòu)進(jìn)行決策的機(jī)器學(xué)習(xí)算法。它在構(gòu)建決策樹(shù)的過(guò)程中,主要依據(jù)數(shù)據(jù)的特征和類別信息進(jìn)行劃分,對(duì)數(shù)據(jù)的具體數(shù)值分布并不敏感,因此不需要進(jìn)行歸一化處理。而SVM(支持向量機(jī))、Kmeans(K均值聚類算法)、LogisticRegression(邏輯回歸)等算法,在處理數(shù)據(jù)時(shí),為了提高模型的性能、收斂速度以及避免某些特征對(duì)模型的影響過(guò)大等,通常需要對(duì)數(shù)據(jù)進(jìn)行歸一化處理。23.關(guān)于精度與錯(cuò)誤率的說(shuō)法中錯(cuò)誤的是()。A、精度與錯(cuò)誤率的和為1B、精度與錯(cuò)誤率都可以反映模型的好壞C、精度與錯(cuò)誤率都可以用概率密度函數(shù)表示D、精度是評(píng)價(jià)模型的唯一標(biāo)準(zhǔn)正確答案:D答案解析:精度不是評(píng)價(jià)模型的唯一標(biāo)準(zhǔn),還有召回率、F1值等多種指標(biāo)可以用來(lái)綜合評(píng)價(jià)模型,所以選項(xiàng)D說(shuō)法錯(cuò)誤。選項(xiàng)A,精度與錯(cuò)誤率的和確實(shí)為1;選項(xiàng)B,精度與錯(cuò)誤率都能在一定程度上反映模型的好壞;選項(xiàng)C,精度與錯(cuò)誤率在一些概率模型場(chǎng)景下是可以用概率密度函數(shù)表示的。24.關(guān)于bagging下列說(shuō)法錯(cuò)誤的是:()A、各基分類器之間有較強(qiáng)依賴,不可以進(jìn)行并行訓(xùn)練。B、最著名的算法之一是基于決策樹(shù)基分類器的隨機(jī)森林。C、當(dāng)訓(xùn)練樣本數(shù)量較少時(shí),子集之間可能有重疊。D、為了讓基分類器之間互相獨(dú)立,需要將訓(xùn)練集分為若干子集。正確答案:A答案解析:bagging中各基分類器之間相互獨(dú)立,可進(jìn)行并行訓(xùn)練,A選項(xiàng)說(shuō)法錯(cuò)誤;隨機(jī)森林是基于決策樹(shù)基分類器的著名bagging算法,B選項(xiàng)正確;當(dāng)訓(xùn)練樣本數(shù)量較少時(shí),子集之間可能會(huì)有重疊,C選項(xiàng)正確;為使基分類器相互獨(dú)立,需將訓(xùn)練集分為若干子集,D選項(xiàng)正確。25.關(guān)于支持向量機(jī),哪項(xiàng)說(shuō)法不正確()A、支持向量機(jī)可以用于處理二分類及多分類問(wèn)題B、支持向量機(jī)只能用于線性可分的分類問(wèn)題C、支持向量機(jī)可用于回歸問(wèn)題D、核函數(shù)的選擇對(duì)支持向量機(jī)的性能影響較大正確答案:B答案解析:支持向量機(jī)不僅可以用于線性可分的分類問(wèn)題,對(duì)于線性不可分的情況也有有效的處理方法,比如通過(guò)核函數(shù)將低維空間的數(shù)據(jù)映射到高維空間使其變得線性可分,所以選項(xiàng)B說(shuō)法不正確。選項(xiàng)A,支持向量機(jī)確實(shí)可用于處理二分類及多分類問(wèn)題;選項(xiàng)C,支持向量機(jī)也可用于回歸問(wèn)題;選項(xiàng)D,核函數(shù)的選擇對(duì)支持向量機(jī)的性能影響較大,不同的核函數(shù)適用于不同的數(shù)據(jù)集和問(wèn)題場(chǎng)景。26.語(yǔ)音是一種典型的()數(shù)據(jù)。A、有結(jié)構(gòu)序列B、無(wú)結(jié)構(gòu)序列C、無(wú)結(jié)構(gòu)無(wú)序列D、有結(jié)構(gòu)無(wú)序列正確答案:B答案解析:語(yǔ)音數(shù)據(jù)通常是沒(méi)有明確結(jié)構(gòu)順序的,是典型的無(wú)結(jié)構(gòu)序列數(shù)據(jù)。語(yǔ)音由一系列連續(xù)的音頻信號(hào)組成,不像結(jié)構(gòu)化數(shù)據(jù)那樣有固定的格式和順序,所以屬于無(wú)結(jié)構(gòu)序列數(shù)據(jù)。27.在深度學(xué)習(xí)網(wǎng)絡(luò)中,反向傳播算法用于尋求最優(yōu)參數(shù),在反向傳播算法中使用的什么法則進(jìn)行逐層求導(dǎo)的?A、累加法則B、歸一法則C、鏈?zhǔn)椒▌tD、對(duì)等法則正確答案:C答案解析:反向傳播算法中使用鏈?zhǔn)椒▌t進(jìn)行逐層求導(dǎo)。鏈?zhǔn)椒▌t是復(fù)合函數(shù)求導(dǎo)的重要法則,在深度學(xué)習(xí)的反向傳播過(guò)程中,通過(guò)鏈?zhǔn)椒▌t可以將損失函數(shù)對(duì)最終輸出的導(dǎo)數(shù),逐步反向傳播到網(wǎng)絡(luò)的每一層,從而計(jì)算出損失函數(shù)對(duì)每一層參數(shù)的梯度,進(jìn)而用于更新網(wǎng)絡(luò)參數(shù)以尋求最優(yōu)解。28.下面哪個(gè)技術(shù)跟中文分詞無(wú)關(guān)():A、詞性標(biāo)注B、未登錄詞識(shí)別C、槽位填充D、詞語(yǔ)消歧正確答案:C答案解析:詞語(yǔ)消歧、詞性標(biāo)注、未登錄詞識(shí)別都與中文分詞密切相關(guān)。詞語(yǔ)消歧要基于分詞結(jié)果來(lái)確定詞的準(zhǔn)確含義;詞性標(biāo)注是在分詞后的基礎(chǔ)上對(duì)每個(gè)詞標(biāo)注詞性;未登錄詞識(shí)別也是在分詞過(guò)程中處理那些未在詞典中的詞。而槽位填充是在語(yǔ)義理解和信息抽取等任務(wù)中,根據(jù)句子的語(yǔ)義結(jié)構(gòu)將相關(guān)信息填入特定的槽位,與中文分詞本身沒(méi)有直接關(guān)系。29.在一個(gè)神經(jīng)網(wǎng)絡(luò)中,下面哪種方法可以用來(lái)處理過(guò)擬合?A、DropoutB、分批歸一化(BatchNormalization)C、正則化(regularization)D、都可以正確答案:D答案解析:過(guò)擬合是指模型在訓(xùn)練集上表現(xiàn)良好,但在測(cè)試集上表現(xiàn)較差的現(xiàn)象。Dropout是一種常用的防止過(guò)擬合的方法,它通過(guò)在訓(xùn)練過(guò)程中隨機(jī)丟棄一些神經(jīng)元來(lái)減少模型的復(fù)雜度。分批歸一化(BatchNormalization)可以加速模型收斂,減少梯度消失或爆炸的問(wèn)題,同時(shí)也有助于防止過(guò)擬合。正則化是一種通過(guò)在損失函數(shù)中加入懲罰項(xiàng)來(lái)限制模型復(fù)雜度的方法,也可以有效地防止過(guò)擬合。因此,以上三種方法都可以用來(lái)處理過(guò)擬合。30.在卷積神經(jīng)網(wǎng)絡(luò)中,要求輸入尺寸必須固定的層是?()A、卷積層B、全連接層C、池化層D、以上都不是正確答案:B答案解析:在卷積神經(jīng)網(wǎng)絡(luò)中,全連接層要求輸入尺寸必須固定。卷積層和池化層對(duì)輸入尺寸沒(méi)有嚴(yán)格要求,輸入尺寸可以不同。全連接層的輸入需要是固定長(zhǎng)度的向量,所以需要輸入尺寸固定。31.下列關(guān)于特征選擇的說(shuō)法錯(cuò)誤的是(___)A、可以減輕維數(shù)災(zāi)難問(wèn)題B、可以提高特征關(guān)聯(lián)性C、可以降低學(xué)習(xí)任務(wù)的難度D、特征選擇和降維具有相似的動(dòng)機(jī)正確答案:B答案解析:特征選擇旨在從原始特征中挑選出最相關(guān)、最具代表性的特征子集,其目的并非提高特征關(guān)聯(lián)性,而是去除無(wú)關(guān)或冗余特征。特征選擇能夠減輕維數(shù)災(zāi)難問(wèn)題,降低學(xué)習(xí)任務(wù)的難度,并且和降維具有相似的動(dòng)機(jī),都是為了讓模型更好地學(xué)習(xí)和泛化。32.Inception模塊采用()的設(shè)計(jì)形式,每個(gè)支路使用()大小的卷積核。A、多通路,相同B、單通路,不同C、多通路,不同D、單通路,相同正確答案:C33.如果我們希望預(yù)測(cè)n個(gè)類(p1,p2...pk)的概率使得所有n的p的和等于1,那么下列哪個(gè)函數(shù)可以用作輸出層中的激活函數(shù)?A、ReLuB、SoftmaxC、SigmoidD、Tanh正確答案:B答案解析:Softmax函數(shù)是用于多分類問(wèn)題中,將輸出結(jié)果轉(zhuǎn)換為概率分布,使得所有概率之和為1,符合預(yù)測(cè)n個(gè)類的概率且概率和為1的要求。ReLu函數(shù)是線性整流函數(shù),Sigmoid函數(shù)常用于二分類問(wèn)題輸出概率,Tanh函數(shù)是雙曲正切函數(shù),它們都不滿足該條件。34.隨著集成中個(gè)體分類器(相互獨(dú)立)數(shù)目T的增大,集成的錯(cuò)誤率將呈(___)_下降,最終趨向于零A、對(duì)數(shù)級(jí)B、線性級(jí)C、指數(shù)級(jí)D、平方級(jí)正確答案:B35.哪種聚類方法采用概率模型來(lái)表達(dá)聚類()A、K-meansB、LVQC、DBSCAND、高斯混合聚類正確答案:D答案解析:高斯混合聚類是基于概率模型的聚類方法,它假設(shè)數(shù)據(jù)是由多個(gè)高斯分布混合而成,通過(guò)估計(jì)每個(gè)高斯分布的參數(shù)來(lái)進(jìn)行聚類。K-means是基于距離的聚類方法;LVQ是學(xué)習(xí)向量量化聚類算法;DBSCAN是基于密度的空間聚類算法,它們都不是基于概率模型的。36.YOLOv3網(wǎng)格數(shù)為輸出特征圖[N,C,H,W]的()A、CB、C*HC、H*WD、nan正確答案:C37.在數(shù)據(jù)挖掘中,比較成熟的預(yù)測(cè)算法包括Logistic回歸模型、()、決策樹(shù)、神經(jīng)網(wǎng)絡(luò)等A、線性回歸B、時(shí)間序列C、灰色模型D、貝葉斯網(wǎng)絡(luò)正確答案:D答案解析:在數(shù)據(jù)挖掘中,比較成熟的預(yù)測(cè)算法有多種。Logistic回歸模型主要用于二分類問(wèn)題;決策樹(shù)是基于樹(shù)結(jié)構(gòu)進(jìn)行決策的算法;神經(jīng)網(wǎng)絡(luò)是一種模仿人類神經(jīng)系統(tǒng)的計(jì)算模型;貝葉斯網(wǎng)絡(luò)是基于概率推理的圖形化網(wǎng)絡(luò),它結(jié)合了概率論和圖論的知識(shí),能夠處理不確定性和復(fù)雜的因果關(guān)系,也是比較成熟的預(yù)測(cè)算法之一。而線性回歸主要用于預(yù)測(cè)連續(xù)型變量;時(shí)間序列側(cè)重于分析隨時(shí)間變化的數(shù)據(jù)規(guī)律;灰色模型適用于處理貧信息的小樣本數(shù)據(jù)。相比之下,貝葉斯網(wǎng)絡(luò)更符合題意。38.圖像分類任務(wù)是一個(gè)計(jì)算量較大的任務(wù),下面描述正確的是:①.不要使用深度學(xué)習(xí)技術(shù)②.盡量使用GPU加速運(yùn)算③.盡量使用前人探索的有成功經(jīng)驗(yàn)的經(jīng)典的網(wǎng)絡(luò)結(jié)構(gòu)④.盡量自己重新設(shè)計(jì)編寫(xiě)網(wǎng)絡(luò),不要照搬別人的網(wǎng)絡(luò)A、①③B、①②③C、②③D、①②正確答案:C答案解析:1.圖像分類任務(wù)計(jì)算量較大,深度學(xué)習(xí)技術(shù)在圖像分類等領(lǐng)域有著強(qiáng)大的能力和優(yōu)勢(shì),能取得很好的效果,所以①不要使用深度學(xué)習(xí)技術(shù)是錯(cuò)誤的。2.GPU具有強(qiáng)大的并行計(jì)算能力,可以顯著加速深度學(xué)習(xí)模型的訓(xùn)練和推理過(guò)程,對(duì)于計(jì)算量較大的圖像分類任務(wù),盡量使用GPU加速運(yùn)算能提高效率,②正確。3.前人探索的有成功經(jīng)驗(yàn)的經(jīng)典網(wǎng)絡(luò)結(jié)構(gòu),經(jīng)過(guò)了實(shí)踐檢驗(yàn),性能有一定保障,使用它們可以減少研發(fā)成本和風(fēng)險(xiǎn),③正確。4.自己重新設(shè)計(jì)編寫(xiě)網(wǎng)絡(luò)難度較大,且不一定能比經(jīng)典網(wǎng)絡(luò)取得更好的效果,而照搬別人成熟的網(wǎng)絡(luò)是可行的做法,④錯(cuò)誤。綜上,②③正確,答案選C。39.循環(huán)神經(jīng)網(wǎng)絡(luò)優(yōu)于全連接網(wǎng)絡(luò)的一個(gè)原因是循環(huán)神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)了權(quán)值共享,那么權(quán)值共享的好處有:①.模型參數(shù)變少②.運(yùn)算速度變快③.占用內(nèi)存少④.所有權(quán)值都共享同一個(gè)值A(chǔ)、①③④B、①②③C、①③④D、①②④正確答案:B答案解析:權(quán)值共享使得模型中相同的參數(shù)可以在不同的位置重復(fù)使用,這樣模型的參數(shù)數(shù)量會(huì)減少,①正確;參數(shù)數(shù)量減少會(huì)使運(yùn)算量降低,從而運(yùn)算速度變快,②正確;由于參數(shù)數(shù)量減少,占用的內(nèi)存也會(huì)相應(yīng)減少,③正確;權(quán)值共享并不是所有權(quán)值都共享同一個(gè)值,而是在不同位置共享相同的參數(shù)設(shè)置,④錯(cuò)誤。所以權(quán)值共享的好處有①②③,答案選B。40.關(guān)于主成分分析PCA說(shuō)法不正確的是A、我們必須在使用PCA前規(guī)范化數(shù)據(jù)B、我們應(yīng)該選擇使得模型有最大variance的主成分C、我們應(yīng)該選擇使得模型有最小variance的主成分D、我們可以使用PCA在低緯度上做數(shù)據(jù)可視化正確答案:C答案解析:主成分分析(PCA)的目的是選擇能使模型有最大方差的主成分,而不是最小方差的主成分。在使用PCA前通常需要規(guī)范化數(shù)據(jù),這樣可以避免不同特征尺度對(duì)結(jié)果的影響。PCA可以用于在低維度上進(jìn)行數(shù)據(jù)可視化,通過(guò)將高維數(shù)據(jù)轉(zhuǎn)換到低維空間,能更直觀地展示數(shù)據(jù)的分布和結(jié)構(gòu)。41.半監(jiān)督支持向量機(jī)中最著名的是TSVM(TransductiveSupportVectorMachine)。與標(biāo)準(zhǔn)SVM一樣,TSVM也是針對(duì)(___)問(wèn)題的學(xué)習(xí)方法?A、分類B、回歸C、聚類D、二分類正確答案:D答案解析:TSVM是半監(jiān)督支持向量機(jī)中著名的算法,它和標(biāo)準(zhǔn)SVM一樣,主要用于解決二分類問(wèn)題。在二分類任務(wù)中,TSVM利用少量有標(biāo)注數(shù)據(jù)和大量無(wú)標(biāo)注數(shù)據(jù)來(lái)構(gòu)建分類模型,以提高分類性能。42.A*搜索算法何時(shí)是最優(yōu)的?()A、到目標(biāo)結(jié)點(diǎn)的耗散是一個(gè)可采納啟發(fā)式B、到目標(biāo)結(jié)點(diǎn)的耗散可任意選擇C、不存在求解問(wèn)題的最優(yōu)的a*搜索算法D、以上描述都不對(duì)正確答案:A答案解析:A*搜索算法在到目標(biāo)結(jié)點(diǎn)的耗散是一個(gè)可采納啟發(fā)式時(shí)是最優(yōu)的??刹杉{啟發(fā)式是指啟發(fā)函數(shù)估計(jì)的代價(jià)總是小于或等于從當(dāng)前節(jié)點(diǎn)到目標(biāo)節(jié)點(diǎn)的實(shí)際最小代價(jià)。當(dāng)滿足這個(gè)條件時(shí),A*搜索算法能夠保證找到最優(yōu)解路徑。選項(xiàng)B中到目標(biāo)結(jié)點(diǎn)的耗散可任意選擇顯然無(wú)法保證最優(yōu);選項(xiàng)C與事實(shí)不符,存在最優(yōu)的A*搜索算法情況。所以答案是A。43.循環(huán)神經(jīng)網(wǎng)絡(luò)中,假設(shè)輸入是一個(gè)32*32*3的圖像,3表示RGB三通道,卷積核的結(jié)構(gòu)是5*5*3,共6個(gè)不同的卷積核,一個(gè)卷積核產(chǎn)生一個(gè)featuremap,則輸出的featuremap矩陣的結(jié)構(gòu)是()。A、27*27*3B、28*28*3C、27*27*6D、28*28*6正確答案:D答案解析:在使用卷積核對(duì)圖像進(jìn)行卷積操作時(shí),計(jì)算輸出特征圖大小的公式為:輸出特征圖的寬度=(輸入圖像寬度-卷積核寬度)/步長(zhǎng)+1;輸出特征圖的高度=(輸入圖像高度-卷積核高度)/步長(zhǎng)+1。在本題中,輸入圖像是32*32*3,卷積核是5*5*3,步長(zhǎng)通常默認(rèn)為1。那么輸出特征圖的寬度=(32-5)/1+1=28,輸出特征圖的高度=(32-5)/1+1=28。又因?yàn)橛?個(gè)不同的卷積核,所以會(huì)產(chǎn)生6個(gè)不同的特征圖,即輸出的featuremap矩陣結(jié)構(gòu)是28*28*6。二、多選題(共24題,每題1分,共24分)1.如果深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)出現(xiàn)了梯度消失或梯度爆炸問(wèn)題我們常用的解決方法為A、梯度剪切B、隨機(jī)欠采樣C、使用Relu激活函數(shù)D、正則化正確答案:ACD答案解析:梯度剪切是一種常用的解決梯度爆炸問(wèn)題的方法,它通過(guò)限制梯度的大小來(lái)避免梯度值過(guò)大。Relu激活函數(shù)有助于緩解梯度消失問(wèn)題,因?yàn)樗谡騻鞑r(shí)不會(huì)飽和,能夠讓梯度更有效地傳播。正則化可以防止模型過(guò)擬合,間接有助于緩解梯度消失或梯度爆炸問(wèn)題。而隨機(jī)欠采樣主要是用于數(shù)據(jù)不平衡處理,與梯度消失或梯度爆炸問(wèn)題無(wú)關(guān)。2.下列可用于隱馬爾可夫預(yù)測(cè)的算法是()。A、維特比算法B、Baum-Welch算法C、前向-后向算法D、擬牛頓法正確答案:ABCD3.以下技術(shù),BERT使用的包括哪些?()A、TransformerB、Sel-Attention模塊C、RNN循環(huán)連接D、文本卷積正確答案:AB答案解析:BERT模型基于Transformer架構(gòu),同時(shí)也運(yùn)用了Self-Attention模塊。它摒棄了傳統(tǒng)的RNN循環(huán)連接方式,文本卷積也不是其主要使用的技術(shù)。4.深度學(xué)習(xí)的訓(xùn)練過(guò)程包括:自下而上的()和自頂向下的()。A、半監(jiān)督學(xué)習(xí)B、無(wú)監(jiān)督學(xué)習(xí)C、監(jiān)督學(xué)習(xí)D、強(qiáng)化學(xué)習(xí)正確答案:BC答案解析:深度學(xué)習(xí)的訓(xùn)練過(guò)程包括自下而上的無(wú)監(jiān)督學(xué)習(xí)和自頂向下的監(jiān)督學(xué)習(xí)。無(wú)監(jiān)督學(xué)習(xí)可以發(fā)現(xiàn)數(shù)據(jù)中的潛在模式和結(jié)構(gòu),為后續(xù)的監(jiān)督學(xué)習(xí)提供基礎(chǔ)特征表示等;監(jiān)督學(xué)習(xí)則利用有標(biāo)記的數(shù)據(jù)進(jìn)行模型訓(xùn)練,以實(shí)現(xiàn)對(duì)新數(shù)據(jù)的準(zhǔn)確分類或預(yù)測(cè)等任務(wù)。5.深度學(xué)習(xí)目標(biāo)檢測(cè)算法比傳統(tǒng)方法的優(yōu)勢(shì)()A、算法適應(yīng)性強(qiáng)B、更好的平衡精度C、可遷移學(xué)習(xí)D、數(shù)據(jù)需求少正確答案:ABC答案解析:1.**算法適應(yīng)性強(qiáng)**:深度學(xué)習(xí)目標(biāo)檢測(cè)算法能夠自動(dòng)學(xué)習(xí)數(shù)據(jù)中的特征表示,對(duì)不同場(chǎng)景、不同類型的目標(biāo)具有更強(qiáng)的適應(yīng)性。相比傳統(tǒng)方法,傳統(tǒng)方法往往需要針對(duì)特定問(wèn)題手工設(shè)計(jì)特征和模型結(jié)構(gòu),適應(yīng)性較差。例如在復(fù)雜背景下的目標(biāo)檢測(cè),深度學(xué)習(xí)算法能更好地處理各種干擾因素,準(zhǔn)確檢測(cè)出目標(biāo),而傳統(tǒng)方法可能會(huì)受到較大影響。2.**更好的平衡精度**:深度學(xué)習(xí)目標(biāo)檢測(cè)算法通過(guò)大量數(shù)據(jù)訓(xùn)練,可以在精度和召回率之間取得較好的平衡。傳統(tǒng)方法在某些情況下可能會(huì)側(cè)重于某一方面而導(dǎo)致整體性能不佳。深度學(xué)習(xí)算法通過(guò)不斷優(yōu)化網(wǎng)絡(luò)結(jié)構(gòu)和損失函數(shù)等,可以更精準(zhǔn)地定位和識(shí)別目標(biāo),提高檢測(cè)的精度。3.**可遷移學(xué)習(xí)**:深度學(xué)習(xí)模型在大規(guī)模數(shù)據(jù)上預(yù)訓(xùn)練后,可以將學(xué)到的特征遷移到其他相關(guān)任務(wù)中,大大減少了新任務(wù)的訓(xùn)練時(shí)間和數(shù)據(jù)需求。傳統(tǒng)方法通常難以實(shí)現(xiàn)這種有效的遷移學(xué)習(xí)。例如在不同的目標(biāo)檢測(cè)數(shù)據(jù)集上,基于深度學(xué)習(xí)的預(yù)訓(xùn)練模型可以快速調(diào)整適應(yīng)新的數(shù)據(jù)集,而傳統(tǒng)方法則需要從頭開(kāi)始設(shè)計(jì)和訓(xùn)練模型。深度學(xué)習(xí)通常需要大量的數(shù)據(jù)來(lái)訓(xùn)練模型以學(xué)習(xí)到有效的特征表示,所以選項(xiàng)D是錯(cuò)誤的,深度學(xué)習(xí)目標(biāo)檢測(cè)算法數(shù)據(jù)需求多,而不是少。6.以下哪些操作常被用于目標(biāo)檢測(cè)的骨干網(wǎng)絡(luò):A、分組卷積B、深度可分離卷積C、轉(zhuǎn)置卷積D、池化正確答案:ABD答案解析:分組卷積通過(guò)將輸入通道分組進(jìn)行卷積操作,能在不顯著增加計(jì)算量的情況下提升網(wǎng)絡(luò)性能,常用于骨干網(wǎng)絡(luò);深度可分離卷積是一種高效的卷積方式,可大幅減少計(jì)算量,常被應(yīng)用于骨干網(wǎng)絡(luò);池化操作如最大池化、平均池化等,能降低特征圖尺寸,保留主要特征,是骨干網(wǎng)絡(luò)中常用的操作;轉(zhuǎn)置卷積主要用于上采樣等操作,而非骨干網(wǎng)絡(luò)本身,所以不選C。7.下列哪些開(kāi)發(fā)包,已包含一些常用的機(jī)器學(xué)習(xí)算法?()A、sklearnB、xgboostC、lightgbmD、numpy正確答案:ABC答案解析:sklearn是一個(gè)常用的機(jī)器學(xué)習(xí)開(kāi)發(fā)包,包含了眾多常用的機(jī)器學(xué)習(xí)算法。xgboost是一個(gè)高效的梯度提升框架,有許多實(shí)用的算法。lightgbm也是一個(gè)快速、高效的梯度提升框架,包含了一些常用算法。而numpy主要是用于科學(xué)計(jì)算的基礎(chǔ)庫(kù),側(cè)重于數(shù)值計(jì)算,不包含常用的機(jī)器學(xué)習(xí)算法。8.完整的CNN架構(gòu)除了輸入及輸出外還包含哪些層()A、全連接層B、隱藏層C、卷積層D、池化層正確答案:ACD答案解析:全連接層可以作為CNN架構(gòu)中的一部分,用于將卷積層和池化層提取的特征進(jìn)行整合和分類;卷積層是CNN的核心組成部分,通過(guò)卷積核提取圖像特征;池化層用于對(duì)卷積層的輸出進(jìn)行下采樣,減少數(shù)據(jù)量并保留主要特征。而隱藏層是一個(gè)比較寬泛的概念,不是CNN架構(gòu)特有的明確組成部分,在該題情境下不選。9.一個(gè)好的學(xué)習(xí)訓(xùn)練模型應(yīng)該是()。A、模型應(yīng)該簡(jiǎn)單(防止過(guò)擬合);B、在訓(xùn)練時(shí)最小化錯(cuò)誤率(提高在訓(xùn)練集上的準(zhǔn)確率)C、可以利用已知的數(shù)據(jù)特性,例如稀疏、低秩等D、將模型函數(shù)正則化正確答案:ABCD答案解析:選項(xiàng)A,簡(jiǎn)單的模型能防止過(guò)擬合,使模型具有更好的泛化能力;選項(xiàng)B,在訓(xùn)練時(shí)最小化錯(cuò)誤率能提高模型在訓(xùn)練集上的準(zhǔn)確率,這是模型訓(xùn)練的一個(gè)重要目標(biāo);選項(xiàng)C,利用已知數(shù)據(jù)特性有助于構(gòu)建更貼合數(shù)據(jù)的模型;選項(xiàng)D,將模型函數(shù)正則化可以防止模型過(guò)擬合,提高模型的穩(wěn)定性和泛化能力。這四個(gè)方面對(duì)于一個(gè)好的學(xué)習(xí)訓(xùn)練模型來(lái)說(shuō)都是很重要的。10.NLP中字、詞的one-hot表示:把每個(gè)詞表示為一個(gè)長(zhǎng)向量。這個(gè)向量的維度是詞表大小,向量中只有一個(gè)維度的值為(),其余維度為(),這個(gè)維度就代表了當(dāng)前的詞。A、2B、1C、0D、3正確答案:BC11.在卷積神經(jīng)網(wǎng)絡(luò)中,不同層具有不同的功能,可以起到降維作用的是以下哪一層?A、池化層B、卷積層C、全連接層D、輸入層正確答案:ABC12.LibraRCNN從()幾個(gè)角度論證并增強(qiáng)了兩階段檢測(cè)模型A、FPN特征B、RPN結(jié)構(gòu)C、正負(fù)樣本采樣D、Loss正確答案:ACD13.神經(jīng)網(wǎng)絡(luò)層數(shù)越多,就會(huì)產(chǎn)生什么效果()A、算法精度提升B、參數(shù)越多C、梯度消失風(fēng)險(xiǎn)越大D、計(jì)算時(shí)間越長(zhǎng)正確答案:ABCD答案解析:神經(jīng)網(wǎng)絡(luò)層數(shù)越多,一方面可能會(huì)提升算法精度,使得模型能夠?qū)W習(xí)到更復(fù)雜的模式和特征;另一方面會(huì)增大梯度消失的風(fēng)險(xiǎn),導(dǎo)致訓(xùn)練困難;計(jì)算時(shí)間會(huì)變長(zhǎng),因?yàn)樾枰嗟挠?jì)算資源來(lái)處理各層的運(yùn)算;同時(shí)參數(shù)也會(huì)越多,增加了模型的復(fù)雜度和訓(xùn)練難度。14.下列哪些包是圖像處理時(shí)常用的?()A、matplotlibB、numpyC、opencvD、gensim正確答案:ABC答案解析:1.**numpy**:-numpy是Python中用于科學(xué)計(jì)算的基礎(chǔ)庫(kù)。在圖像處理中,它提供了高效的多維數(shù)組對(duì)象以及大量的數(shù)學(xué)函數(shù),用于對(duì)圖像數(shù)據(jù)進(jìn)行存儲(chǔ)、操作和計(jì)算。例如,可以使用numpy數(shù)組來(lái)表示圖像的像素?cái)?shù)據(jù),方便進(jìn)行各種數(shù)學(xué)運(yùn)算,如矩陣運(yùn)算等,所以是圖像處理常用的包。2.**opencv**:-OpenCV是一個(gè)基于BSD許可(開(kāi)源)發(fā)行的跨平臺(tái)計(jì)算機(jī)視覺(jué)和機(jī)器學(xué)習(xí)軟件庫(kù)。它提供了各種圖像處理和計(jì)算機(jī)視覺(jué)算法,如圖像濾波、特征提取、目標(biāo)檢測(cè)、圖像分割等功能,是圖像處理領(lǐng)域非常強(qiáng)大且常用的庫(kù)。3.**gensim**:-gensim主要用于主題建模、文檔相似度計(jì)算等自然語(yǔ)言處理任務(wù),與圖像處理沒(méi)有直接關(guān)系,所以不是圖像處理常用的包。4.**matplotlib**:-matplotlib是Python中最常用的數(shù)據(jù)可視化庫(kù)之一。在圖像處理中,它可以用于將處理后的圖像進(jìn)行可視化展示,幫助我們直觀地理解圖像處理的結(jié)果,所以也是圖像處理常用的包。15.除了問(wèn)題本身的定義之外,使用問(wèn)題特定知識(shí)的搜索策略被認(rèn)為是A、無(wú)信息搜索B、二元搜索C、有信息搜索D、啟發(fā)式搜索正確答案:CD16.強(qiáng)化學(xué)習(xí)問(wèn)題的三種方法分別是()A、基于價(jià)值(value-based)B、基于策略(policy-based)C、基于模型(model-based)D、nan正確答案:ABC答案解析:強(qiáng)化學(xué)習(xí)問(wèn)題的三種方法分別是基于價(jià)值(value-based)、基于策略(policy-based)、基于模型(model-based)?;趦r(jià)值的方法通過(guò)學(xué)習(xí)狀態(tài)價(jià)值函數(shù)或動(dòng)作價(jià)值函數(shù)來(lái)指導(dǎo)決策;基于策略的方法直接學(xué)習(xí)策略;基于模型的方法則是學(xué)習(xí)環(huán)境的模型來(lái)輔助決策。17.關(guān)于樸素貝葉斯分類器說(shuō)法正確的是()。A、相關(guān)屬性可能會(huì)降低樸素貝葉斯分類器的性能B、面對(duì)孤立的噪聲點(diǎn),樸素貝葉斯分類器是健壯的C、樸素貝葉斯分類器假設(shè)每個(gè)屬性獨(dú)立地對(duì)分類結(jié)果發(fā)生影響D、面對(duì)無(wú)關(guān)屬性,樸素貝葉斯分類器是健壯的正確答案:ABCD18.非線性核SVM研究重點(diǎn)是設(shè)計(jì)快速近似算法,包括()A、低秩逼近B、采樣C、隨機(jī)分布D、隨機(jī)傅里葉特征正確答案:ABD19.下列有監(jiān)督學(xué)習(xí)算法中可解決分類問(wèn)題的算法有A、隨機(jī)森林B、支持向量機(jī)C、邏輯回歸D、線性回歸正確答案:ABC答案解析:線性回歸主要用于解決回歸問(wèn)題,預(yù)測(cè)連續(xù)型變量的值。邏輯回歸用于解決二分類問(wèn)題,通過(guò)對(duì)輸入特征進(jìn)行線性組合,然后經(jīng)過(guò)邏輯函數(shù)轉(zhuǎn)換得到概率值,從而進(jìn)行分類決策。支持向量機(jī)可以用于分類和回歸等問(wèn)題,在分類中能找到最優(yōu)的分類超平面來(lái)區(qū)分不同類別。隨機(jī)森林是一種基于決策樹(shù)的集成學(xué)習(xí)算法,可用于分類和回歸任務(wù),通過(guò)構(gòu)建多個(gè)決策樹(shù)并綜合它們的結(jié)果來(lái)進(jìn)行分類決策。所以可解決分類問(wèn)題的算法有邏輯回歸、支持向量機(jī)和隨機(jī)森林。20.深度卷積網(wǎng)絡(luò)的結(jié)構(gòu)中,通常有多個(gè)順序連接的層,下面描述正確的有A、池化層主要用于降低特征圖的分辨率B、通常在卷積層之后會(huì)增加池化層,有時(shí)卷積層后面也可能不跟池化層C、非線性激活層可以完成非線性變換D、度卷積網(wǎng)絡(luò)中,卷積層是必須的,但是全連接層可有可無(wú)正確答案:ABC21.VGG從()角度改進(jìn)了之前的圖像分類網(wǎng)絡(luò)?GoogLeNet從()角度改進(jìn)了之前的圖像分類網(wǎng)絡(luò)?ResNet從()角度改進(jìn)了之前的圖像分類網(wǎng)絡(luò)?A、增加網(wǎng)絡(luò)深度B、輕量化網(wǎng)絡(luò)模型C、增加網(wǎng)絡(luò)寬度D、改善網(wǎng)絡(luò)退化現(xiàn)象正確答案:ACD22.以下屬于優(yōu)化器的是A、AdamB、SGDC、MomentumD、lr正確答案:ABC答案解析:Adam、SGD、Momentum都屬于優(yōu)化器。Adam是自適應(yīng)矩估計(jì)優(yōu)化器,它結(jié)合了Adagrad善于處理稀疏梯度和RMSProp善于處理非平穩(wěn)目標(biāo)的優(yōu)點(diǎn);SGD是隨機(jī)梯度下降優(yōu)化器,是最基本的優(yōu)化算法;Momentum是帶動(dòng)量的隨機(jī)梯度下降優(yōu)化器,它模擬了物理中的慣性,能夠加快收斂速度。而lr通常指學(xué)習(xí)率,它是優(yōu)化器中的一個(gè)超參數(shù),不是優(yōu)化器本身。23.在某神經(jīng)網(wǎng)絡(luò)的隱層輸出中,包含0.75,那么該神經(jīng)網(wǎng)絡(luò)采用的激活函數(shù)可能是()A、tanhB、reluC、sigmoid正確答案:ABC24.人工神經(jīng)網(wǎng)絡(luò)特點(diǎn)和優(yōu)越性主要表現(xiàn)在()。A、自學(xué)習(xí)功能B、自動(dòng)識(shí)別功能C、聯(lián)想存儲(chǔ)功能D、高速尋找優(yōu)化解的能力正確答案:ACD三、判斷題(共36題,每題1分,共36分)1.神經(jīng)網(wǎng)絡(luò)中的注意力機(jī)制受到人類視覺(jué)中注意力的啟發(fā),即人類視覺(jué)注意力能夠聚焦到圖像的特定區(qū)域,并在這個(gè)區(qū)域有非常低的分辨率,而在其它區(qū)域有較高的分辨率。A、正確B、錯(cuò)誤正確答案:B2.對(duì)于Word2vec的2個(gè)基礎(chǔ)算法,每次梯度更新只能優(yōu)化一個(gè)向量且softmax里的指數(shù)求和操作計(jì)算量太大,一般使用比較高效的負(fù)采樣算法。A、正確B、錯(cuò)誤正確答案:A3.決策樹(shù)分類器的假設(shè)空間VC維可以為無(wú)窮大A、正確B、錯(cuò)誤正確答案:A4.訓(xùn)練CNN時(shí),可以對(duì)輸入進(jìn)行旋轉(zhuǎn)、平移、縮放(增強(qiáng)數(shù)據(jù))等預(yù)處理提高模型泛化能力A、正確B、錯(cuò)誤正確答案:A5.當(dāng)在卷積神經(jīng)網(wǎng)絡(luò)中加入池化層(poolinglayer)時(shí),變換的不變性會(huì)被保留A、正確B、錯(cuò)誤正確答案:A6.可用作數(shù)據(jù)挖掘分析中的關(guān)聯(lián)規(guī)則算法有Apriori算法、FP-Tree算法、K均值法、SOM神經(jīng)網(wǎng)絡(luò)A、正確B、錯(cuò)誤正確答案:B7.感知機(jī)學(xué)習(xí)算法可以直觀解釋為:當(dāng)一個(gè)實(shí)例點(diǎn)被誤分類,即位于分離超平面的錯(cuò)誤一側(cè)時(shí),則調(diào)整模型權(quán)重,使分離超平面向該誤分類點(diǎn)的一側(cè)

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論