人工智能試題及答案_第1頁
人工智能試題及答案_第2頁
人工智能試題及答案_第3頁
人工智能試題及答案_第4頁
人工智能試題及答案_第5頁
已閱讀5頁,還剩14頁未讀 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認(rèn)領(lǐng)

文檔簡介

人工智能試題及答案

1、當(dāng)需要在字符串中使用特殊字符時,python使用O作為轉(zhuǎn)義字符。

A、\

B、/

C、#

D、%

答案:A

2、O是人以自然語言同計算機進行交互的綜合性技術(shù),結(jié)合了語言學(xué)、

心理學(xué)、工程、計算機技術(shù)等領(lǐng)域的知識。

A、語音交互

B、情感交互

C、體感交互

D、腦機交互

答案:A

3、聚類的性能度量亦稱聚類“()”

A、有效性指標(biāo)

B、無效性指標(biāo)

C、驅(qū)動性指標(biāo)

D、可靠性指標(biāo)

答案:A

4、rcnn網(wǎng)絡(luò)用O結(jié)構(gòu)生成候選框?

A、RPN

B、NMS

C、SelectiveSearch

D、RCNN

答案:C

5、感知機描述錯誤的是

A、感知機根據(jù)正確的程度進行權(quán)重調(diào)整

B、輸入層接收外界輸入信號傳遞給輸出層

C、輸出層是M-P神經(jīng)元

D、感知機能容易實現(xiàn)邏輯與、或、非運算

答案:A

6、回歸分析的任務(wù),就是根據(jù)O和因變量的觀察值,估計這個函數(shù),并

討論與之有關(guān)的種種統(tǒng)計推斷的問題

A、相關(guān)變量

B、樣本

C、已知數(shù)據(jù)

D、自變量

答案:D

7、K-means算法采用了哪些策略?O

A、自底向上

B、貪心策略

C、自頂向下

D、以上都是

答案:B

8、()和假設(shè)檢驗又可歸結(jié)為統(tǒng)計推斷的范疇,即對總體的數(shù)量特征做出

具有一定可靠程度的估計和判斷

A、參數(shù)估計

B、邏輯分析

C、方差分析

D、回歸分析

答案:A

9、深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)訓(xùn)練時需要大量的矩陣計算,一般我們需要配用硬件

讓計算機具備并行計算的能力,以下硬件設(shè)備可提供并行計算能力的是:

A、主板

B、內(nèi)存條

C、GPU

D、CPU

答案:C

10、中國在哪年首次舉辦機器人世界杯?。

A、1999

B、2004

C、2006

D、$2,008

答案:D

11、卷積神經(jīng)網(wǎng)絡(luò)經(jīng)常使用的激活函數(shù)有好幾種:。、tanh函數(shù)、ReLu

函數(shù)、LeakyReLu函數(shù)、PReLu函數(shù)等。

A、sigmoid函數(shù)

B、main函數(shù)

C、max函數(shù)

D、sum函數(shù)

答案:A

12、學(xué)習(xí)器的實際預(yù)測輸出與樣本的真實輸出之間的差異稱為(一)。

A、錯誤率

B、精度

C、誤差

D、查準(zhǔn)率

答案:C

13、在其他條件不變的前提下,以下哪種做法容易引起機器學(xué)習(xí)中的過擬

合問題()

A、增加訓(xùn)練集量

B、減少神經(jīng)網(wǎng)絡(luò)隱藏層節(jié)點數(shù)

C、刪除稀疏的特征

D、SVM算法中使用高斯核/RBF核代替線性核

答案:D

14、O是指能夠按照人的要求,在某一個領(lǐng)域完成一項工作或者一類工

作的人工智能。

A、超人工智能

B、強人工智能

C、弱人工智能

D、人工智能

答案:C

15、HiAI移動計算平臺提供豐富的上層功能業(yè)務(wù)APl,可在移動設(shè)備高效

運行。

A、TRUE

B、FALSE

答案:A

16、關(guān)于模型參數(shù)(權(quán)重值)的描述,錯誤的說法是

A、在訓(xùn)練神經(jīng)網(wǎng)絡(luò)過程中,參數(shù)不斷調(diào)整,其調(diào)整的依據(jù)是基于損失函數(shù)

不斷減少

B、每一次EPOCh都會對之前的參數(shù)進行調(diào)整,迭代次數(shù)越多,損失函數(shù)一

般越小

C、模型參數(shù)量越多越好,沒有固定的對應(yīng)規(guī)則

D、訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)模型存儲于一定結(jié)構(gòu)的神經(jīng)元之間的權(quán)重和神經(jīng)元的

偏置中

答案:c

17、Boosting算法要求基學(xué)習(xí)器能對特定的數(shù)據(jù)分布進行學(xué)習(xí),可通過。

實施,對無法接受帶權(quán)樣本的基學(xué)習(xí)算法,則可通過O來處理

A、重賦權(quán)法,重采樣法

B、重采樣法,重賦權(quán)法

C、賦權(quán)法,采樣法

D、采樣法,賦權(quán)法

答案:A

18、若一個屬性可以從其他屬性中推演出來,那這個屬性就是()

A、結(jié)構(gòu)屬性

B、冗余屬性

C、模式屬性

D、集成屬性

答案:B

19、下述。不是人工智能中常用的知識格式化表示方法。

A、框架表示法

B、產(chǎn)生式表示法

C、語義網(wǎng)絡(luò)表示法

D、形象描寫表示法

答案:D

20、參數(shù)學(xué)習(xí)過程中若采用梯度下降法,應(yīng)如何計算梯度值()?

A、wL

B、?L∕?N

C、??∕?L.

D、w/L

答案:B

21、Transformer架構(gòu)首先是由下列哪項引入的?

A、GloVe

B、BERT

C、OpenAΓsGPT

D、ULMFit

答案:C

22、拋擲一枚質(zhì)地均勻的硬幣,若拋擲95次都是正面朝上,則拋擲第100

次正面朝上的概率是()

A、小于1/2

B、等于1/2

C、大于1/2

D、無法確定

答案:B

23、以才哪種組合在CNN不常見

A、conv+relu

B、conv+relu+pool

C、conv+relu+pool+fc

D、conv+k-means

答案:D

24、線性回歸在3維以上的維度中擬合面是?

A、曲面

B、平面

C、超平面

D、超曲面

答案:C

25、使用了興奮劑被檢測出的概率為95除沒有使用興奮劑被誤判的可能

性10%,實際使用興奮劑的概率0?ll?,如果只做1次檢測被檢測服用興奮劑,

真實服用興奮劑的概率是多少?

A、0.90%

B、7.90%

C、45%

D、95%

答案:A

26、以下機器學(xué)習(xí)中,在數(shù)據(jù)預(yù)處理時,不需要考慮歸一化處理的是:()

A、logistic回歸

B、SVM

C、樹形模型

D、神經(jīng)網(wǎng)絡(luò)

答案:C

27、下面是一段將圖像轉(zhuǎn)換為向量的函數(shù)img2vector°該函數(shù)創(chuàng)建

IX1024的NUmPy數(shù)組,然后打開給定的文件,循環(huán)讀出文件的前32行,并將

每行的頭32個字符值存儲在NUmPy數(shù)組中,最后返回數(shù)組。請問填充在空白處

的代碼應(yīng)該是哪個。defimg2vector(fiIename):returnVect=

zeros((1,1024))fr=open(filename)foriinrange(32):

forjinrange(32):returnVect[0,

32*i+j]=int(IineStr[j])returnreturnVect

A、IineStr=fr.readlines

B、IineStr=fr.read_line

C、IineStr=readline

D、IineStr=fr.readline

答案:D

28、關(guān)于梯度下降算法描述正確的是:

A、梯度下降算法就是不斷的更新W和b的值

B、梯度下降算法就是不斷的更新w和b的導(dǎo)數(shù)值

C、梯度下降算法就是不斷尋找損失函數(shù)的最大值

D、梯度下降算法就是不斷更新學(xué)習(xí)率

答案:A

29、如果問題存在最優(yōu)解,則下面幾種搜索算法中,()必然可以得到該

最優(yōu)解。

A、廣度優(yōu)先搜索

B、深度優(yōu)先搜索

C、有界深度優(yōu)先搜索

D、啟發(fā)式搜索

答案:A

30、()就是要得到一些數(shù)據(jù)大致是什么樣的,它的區(qū)間是什么,它的統(tǒng)計

指標(biāo),以及這樣的數(shù)據(jù)是怎么分布的等信息。

A、數(shù)據(jù)搜查

B、數(shù)據(jù)檢查

C、數(shù)據(jù)探查

答案:C

31、小王和老張交換名片后,小王打開手機中安裝的靈云智能輸入法app,

拍照老張的名片,很快得到名片文字信息并保存,這其中最主要應(yīng)用的技術(shù)是

O

A、模式識別

B、文字合成

C、圖像搜索

D、圖像還原

答案:A

32、2010年谷歌推出以頂點為中心的圖處理系統(tǒng)O,其專為大規(guī)模圖數(shù)

據(jù)處理而設(shè)計,將圖數(shù)據(jù)保存在主存儲器中并采用并行計算的BSP模型

A、Aregel

B、Pregel

C、Cregel

D、Dregel

答案:B

33、數(shù)據(jù)挖掘技術(shù)包括三個主要的部分()。

A、數(shù)據(jù)、模型、技術(shù)

B、算法、技術(shù)、領(lǐng)域知識

C、數(shù)據(jù)、建模能力、算法與技術(shù)

D、建模能力、算法與技術(shù)、領(lǐng)域知識

答案:C

34、下列哪些沒有使用AnChorbox?()

A、FasterRCNN

B、YOLOvl

C、Y0L0v2

D、Y0L0v3

答案:B

35、智能語音應(yīng)用中具備辨別聲音來源方向的硬件設(shè)備/技術(shù)是O

A、語音識別

B、語種識別

C、說話人識別

D、麥克風(fēng)陣列

答案:D

36、1997年5月,著名的“人機大戰(zhàn)”,最終計算機以3.5比2.5的總比

分將世界國際象棋棋王卡斯帕羅夫擊敗,這臺計算機被稱為O

A、深藍(lán)

B、IBM

C、深思

D、藍(lán)天

答案:A

37、神經(jīng)網(wǎng)絡(luò)訓(xùn)練過程中,一般會遇到停滯期,即神經(jīng)網(wǎng)絡(luò)在進入全局最

小值之前陷入局部最小值。以下哪個策略可以避免上述情況?

A、增加參數(shù)數(shù)量

B、減少參數(shù)數(shù)量

C、在開始時將學(xué)習(xí)率降低10倍

D、改變幾個時期的學(xué)習(xí)率

答案:D

38、ReSNet從角度改進了之前的圖像分類網(wǎng)絡(luò)?

A、增加網(wǎng)絡(luò)寬度

B、輕量化網(wǎng)絡(luò)模型

C、改善網(wǎng)絡(luò)退化現(xiàn)象

D、增加網(wǎng)絡(luò)深度

答案:C

39、對沒有標(biāo)簽的數(shù)據(jù)進行分類的問題屬于機器學(xué)習(xí)中哪一類問題()。

A、回歸

B、分類

C、聚類

D、強化

答案:C

40、做一個二分類預(yù)測問題,先設(shè)定閾值為0.5,概率不小于0.5的樣本

歸入正例類(即1),小于0.5的樣本歸入反例類(即0)。然后,用閾值n

(n>0.5)重新劃分樣本到正例類和反例類,下面說法正確的是Oo

A、增加閾值不會提高召回率

B、增加閾值會提高召回率

C、增加閾值不會降低查準(zhǔn)率

D、增加閾值會降低查準(zhǔn)率

答案:A

41、以下。的說法是正確。

A、術(shù)語NoSQL是rtNolSQLw的縮寫

B、術(shù)語NOSQL可以理解為“NotOnlySQL”的縮寫

C、NoSQL數(shù)據(jù)庫始終遵循ACID原則

D、NoSQL數(shù)據(jù)庫屬于關(guān)系數(shù)據(jù)庫技術(shù)

答案:B

42、以下說法錯誤的一項是O

A、負(fù)梯度方向是使函數(shù)值下降最快的方向

B、當(dāng)目標(biāo)函數(shù)是凸函數(shù)時,梯度下降法的解是全局最優(yōu)解

C、梯度下降法比牛頓法收斂速度快

D、擬牛頓法不需要計算HeSSe矩陣

答案:c

43、在線性回歸算法中,我們認(rèn)為誤差項是符合什么分布的()

A、高斯分布

B、均勻分布

C、二項分布

D、泊松分布

答案:A

44、第一個成功應(yīng)用的專家系統(tǒng)是()。

A、ELIZA

B、Dendral

C、Xcon

D、Deepblue

答案:B

45、代碼array=np.arange(10,31,5)中的5代表()?

A、元素的個數(shù)

B、步長

C、第一個元素

D、最后一個元素

答案:B

46、深度學(xué)習(xí)是當(dāng)前很熱門的機器學(xué)習(xí)算法,在深度學(xué)習(xí)中,涉及到大量

的矩陣相乘,現(xiàn)在需要計算三個稠密矩陣A,B,C的乘積ABC,假設(shè)三個矩陣的尺

寸分別為m*n,n*p,p*q,且m

A、ABC

B、ACB

C、ABC

D、所有效率都相同

答案:A

47、Python中heapq是一種()數(shù)據(jù)結(jié)構(gòu)

A、樹型數(shù)據(jù)結(jié)構(gòu)

B、列表數(shù)據(jù)結(jié)構(gòu)

C、隊列數(shù)據(jù)結(jié)構(gòu)

D、鏈表數(shù)據(jù)結(jié)構(gòu)

答案:A

48、下面關(guān)于SVM中核函數(shù)的說法正確的是?O

A、核函數(shù)將低維空間中的數(shù)據(jù)映射到高維空間

B、它是一個相似度函數(shù)

C、A、B都對

D、A、B都不對

答案:C

49、

image=fluid.layers,data(name="image,,shape=[1,28,28],dtype=(float32,),

代碼中28表示?

A、訓(xùn)練的周期

B、訓(xùn)練的批次

C、輸入數(shù)據(jù)的維度

D、數(shù)據(jù)的通道

答案:C

50、以下關(guān)于機器學(xué)習(xí)說法錯誤的是

A、機器學(xué)習(xí)可以解決圖像識別問題

B、目前機器學(xué)習(xí)已經(jīng)可以代替人類

C、機器學(xué)習(xí)在一定程度上依賴于統(tǒng)計學(xué)習(xí)

D、監(jiān)督學(xué)習(xí)和非監(jiān)督學(xué)習(xí)都屬于機器學(xué)習(xí)

答案:B

51、半監(jiān)督學(xué)習(xí)四大范型不含有(一)

A、基于分歧方法

B、半監(jiān)督SVM

C、生成式方法

D、半監(jiān)督聚類

答案:D

52、a=[0,1,2,3,4,5,6,7,8,9],a[l:5]的輸出為O0

A、0,1,2,3]

B、1,2,3,4]

C、0,1,2,3,4]

D、1,2,3,4,5]

答案:B

53、。為我們進行學(xué)習(xí)器性能比較提供了重要依據(jù)

A、二項檢驗

B、t檢驗

C、交叉驗證t檢驗

D、統(tǒng)計假設(shè)檢驗

答案:D

54、下列哪項是自然語言處理的PythOn開發(fā)包?

A、openCV

B、jieba

C、sklearn

D、XGBoost

答案:B

55、在其他條件不變的前提下,以下做法容易引起機器學(xué)習(xí)中的“過擬合”

問題的是Oo

A、增加訓(xùn)練集量

B、減少神經(jīng)網(wǎng)絡(luò)隱藏層節(jié)點數(shù)

C、刪除稀疏的特征

D、SVM算法中使用高斯核/RBF核代替線性核

答案:D

56、下列哪個不屬于特征的類型(一)

A、關(guān)鍵特征

B、冗余特征

C、相關(guān)特征

D、無關(guān)特征

答案:A

57、下列哪種機器學(xué)習(xí)算法不需要歸一化處理?()

A、DecisionTree

B、B.SVM

C、Kmeans

D、LogisticRegression

答案:A

58、在人工智能當(dāng)中,圖像、語音、手勢等識別被認(rèn)為是。的層次;而問題

求解、創(chuàng)作、推理預(yù)測被認(rèn)為是()的層次。

A、感知智能

B、認(rèn)知智能

C、認(rèn)知智能

D、感知智能

E、感知智能

F、感知智能

答案:A

59、下面哪個/些超參數(shù)的增加可能會造成隨機森林?jǐn)?shù)據(jù)過擬合()

A、樹的數(shù)量

B、樹的深度

C、學(xué)習(xí)速率

答案:B

60、下面()不是有效的變量名。

A、_demo

B、banana

C、Numbr

D>my-score

答案:D

61、循環(huán)神經(jīng)網(wǎng)絡(luò)之所以有作用是因為:

A、序列中的元素是無關(guān)的

B、序列中的元素蘊含著順序的規(guī)律

C、序列中的元素都是隨機出現(xiàn)的

D、序列中的元素都來自同一個數(shù)據(jù)源

答案:B

62、a=[[1.,2.,1.],[1.,2.,I.]],a+3的值為()。

A、1.,2.,1.],4.,5.,4.]]

B、4.,5.,4.],4.,5.,4.]]

C、以上都不對

D、4.,5,,4.L1.,2.,1.]]

答案:C

63、下面算法中哪個不是分類算法

A、決策樹

B、高斯混合模型GMM

C、隨機森林

D、Xgboost

答案:B

64、下列有關(guān)決策樹說法錯誤的是

A、是一個監(jiān)督學(xué)習(xí)算法

B、是一個分類模型

C、是一個回歸模型

D、主要用來處理時間序列數(shù)據(jù)樣本

答案:D

65、a={2:3},a.get(2,4)返回的值是

A、4

B、3

C、None

D、$2

答案:B

66、下述()不是知識的特征。

A、復(fù)雜性和明確性

B、進化和相對性

C、客觀性和依附性

D、可重用性和共享性

答案:A

67、下列哪項不是SVM的優(yōu)勢

A、可以和核函數(shù)結(jié)合

B、通過調(diào)參可以往往可以得到很好的分類效果

C、訓(xùn)練速度快

D、泛化能力好

答案:C

68、()是指將“數(shù)據(jù)”轉(zhuǎn)換為“產(chǎn)品”的藝術(shù)。

A、數(shù)據(jù)柔性

B、數(shù)據(jù)運用

C、數(shù)據(jù)挖掘

D、數(shù)據(jù)開發(fā)

答案:A

69、智能變電站全站配置模型文件,指的是。。

A、SSD文件

B、CID文件

C、SCD文件

D、ICD文件

答案:C

70、下列哪一項屬于特征學(xué)習(xí)算法(representationlearning

algorithm)?

A、K近鄰算法

B、隨機森林

C、神經(jīng)網(wǎng)絡(luò)

D、都不屬于

答案:C

71、以下哪些算法是分類算法?

A、DBSCAN

B、C4.5

C、K-Mean

D、EM

答案:B

72、產(chǎn)生式系統(tǒng)的推理不包括()

A、正向推理

B、逆向推理

C、雙向推理

D、簡單推理

答案:D

73、一條規(guī)則形如:,其中“一〃左邊的部分稱為(一)

A、規(guī)則長度

B、規(guī)則頭

C、布爾表達(dá)式

D、規(guī)則體

答案:B

74、Python3中有幾種標(biāo)準(zhǔn)數(shù)據(jù)類型?

A、5

B、6

C、7

D、$8

答案:B

75、對于圖像分類問題,以下哪個神經(jīng)網(wǎng)絡(luò)更適合解決這個問題?

A、感知器

B、循環(huán)神經(jīng)網(wǎng)絡(luò)

C、卷積神經(jīng)網(wǎng)絡(luò)

D、全連接神經(jīng)網(wǎng)絡(luò)

答案:C

76、在PythOn中,設(shè)a=2,b=3,表達(dá)式not(b^^a>O)值是()

A、1

B、-1

C、True

D、FALSE

答案:D

77、以下關(guān)于Ll正則化和L2正則化的說法正確的是?

A、防止模型欠擬合而加在損失函數(shù)后面的一項

B、Ll范數(shù)符合拉普拉斯分布,是完全可微的

C、Ll正則化項是模型各個參數(shù)的平方和的開方值

D、Ll正則化可以產(chǎn)生稀疏權(quán)值矩陣,即產(chǎn)生一個稀疏模型,可以用于特

征選擇

答案:D

78、DOCker是一個開源的應(yīng)用容器引擎,基于O語言并遵從APaChe2.0

協(xié)議開源。

A、Go

B、Python

C、C/C++

D、Java

答案:A

79、下面不是超參數(shù)的是:

A、權(quán)重和偏置

B、學(xué)習(xí)率

C、mini-batch的大小

D、網(wǎng)絡(luò)結(jié)構(gòu)

答案:A

80、卷積神經(jīng)網(wǎng)絡(luò)做圖像分類任務(wù)通常不包含:

A、卷積操作

B、池化操作

C、全連接層

D、均方誤差損失函數(shù)

答案:D

81、APriOri算法主要使用標(biāo)準(zhǔn)的發(fā)現(xiàn)關(guān)聯(lián)規(guī)則的步驟,先發(fā)現(xiàn)數(shù)據(jù)中的

0,然后從中產(chǎn)生關(guān)聯(lián)規(guī)則。

A、聚類數(shù)據(jù)集

B、中位數(shù)

C、擬合數(shù)據(jù)集

D、頻繁項目集

答案:D

82、下面的數(shù)據(jù)中哪個不屬于噪聲數(shù)據(jù)()

A、重復(fù)數(shù)據(jù)

B、虛假數(shù)據(jù)

C、錯誤數(shù)據(jù)

D、異常數(shù)據(jù)

答案:A

83、循環(huán)神經(jīng)網(wǎng)絡(luò)優(yōu)于全連接網(wǎng)絡(luò)的一個原因是循環(huán)神經(jīng)網(wǎng)絡(luò)實現(xiàn)了權(quán)值

共享,那么權(quán)值共享的好處有:①.模型參數(shù)變少②.運算速度變快③.占用內(nèi)存

少④.所有權(quán)值都共享同一個值

A、①③④

B、①②③

C、①③④

D、①②④

答案:B

84、O是空語句,一般用做占位語句,不做任何事情。

A、break

B、pass

C、continue

D、print

答案:B

85、O是以樣本統(tǒng)計量作為未知總體參數(shù)的估計量,并通過對樣本單位

的實際觀察取得樣本數(shù)據(jù),計算樣本統(tǒng)計量的取值作為被估計參數(shù)的估計值

A、參數(shù)估計

B、邏輯分析

C、方差分析

D、回歸分析

答案:A

86、在數(shù)據(jù)產(chǎn)品研發(fā)的過程中,以下()屬于低層次數(shù)據(jù)。

A、零次數(shù)據(jù)

B、一次數(shù)據(jù)

C、二次數(shù)據(jù)

D、三次數(shù)據(jù)

答案:A

87、下列關(guān)于深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)的描述,正確的是()

A、不同的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),層數(shù)與神經(jīng)元數(shù)量正相關(guān),層數(shù)越多,神經(jīng)元數(shù)

量越多

B、網(wǎng)絡(luò)結(jié)構(gòu)的層次越深,其學(xué)習(xí)特征越多,10層的結(jié)構(gòu)要優(yōu)于5層結(jié)構(gòu)

C、深層網(wǎng)絡(luò)結(jié)構(gòu)中,學(xué)習(xí)到的特征一般與神經(jīng)元的參數(shù)量有關(guān),也與樣本

的特征多少有關(guān)

D、網(wǎng)絡(luò)的層次越深,其訓(xùn)練時間越久,5層的網(wǎng)絡(luò)比4層的訓(xùn)練時間長

答案:C

88、無監(jiān)督的建模技術(shù)有()、關(guān)聯(lián)分析、預(yù)報三類

A、聚合

B、離散

C、相關(guān)性分析

D、聚類

答案:D

89、主觀Bayes推理中,因子LS、LN的如下取值那組不合理?()

A、LS>RLN

B、LSl

C、LS=1、LN=I

D、LS>kLN>1

答案:D

90、在非均等代價下,希望最小化()

A、召回率

B、錯誤率

C、錯誤次數(shù)

D、總體代價

答案:D

91,機器學(xué)習(xí)訓(xùn)練時,Mini-BatCh的大小優(yōu)選為2的日,如256或512。

它背后的原因是什么?O

A.Mini-Batch為偶數(shù)的時候,梯度下降算法訓(xùn)練的更快

B、Mini-Batch設(shè)為2的暴,是為了符合CPU、GPU的內(nèi)存要求,利于并

行化處理

C、不使用偶數(shù)時,損失函數(shù)是不穩(wěn)定的

D、以上說法都不對

答案:B

92、一個醫(yī)生診斷了病人,并說該病人患流感的概率為40機這里的概率

為Oo

A、頻率派概率

B、古典概率

C、貝葉斯概率

D、條件概率

答案:C

93、()適合連續(xù)特征,它假設(shè)每個特征對于每個類都符合正態(tài)分布。

A、GaussianNB

B、Be

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論