版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認(rèn)領(lǐng)
文檔簡介
人工智能試題及答案
1、當(dāng)需要在字符串中使用特殊字符時,python使用O作為轉(zhuǎn)義字符。
A、\
B、/
C、#
D、%
答案:A
2、O是人以自然語言同計算機進行交互的綜合性技術(shù),結(jié)合了語言學(xué)、
心理學(xué)、工程、計算機技術(shù)等領(lǐng)域的知識。
A、語音交互
B、情感交互
C、體感交互
D、腦機交互
答案:A
3、聚類的性能度量亦稱聚類“()”
A、有效性指標(biāo)
B、無效性指標(biāo)
C、驅(qū)動性指標(biāo)
D、可靠性指標(biāo)
答案:A
4、rcnn網(wǎng)絡(luò)用O結(jié)構(gòu)生成候選框?
A、RPN
B、NMS
C、SelectiveSearch
D、RCNN
答案:C
5、感知機描述錯誤的是
A、感知機根據(jù)正確的程度進行權(quán)重調(diào)整
B、輸入層接收外界輸入信號傳遞給輸出層
C、輸出層是M-P神經(jīng)元
D、感知機能容易實現(xiàn)邏輯與、或、非運算
答案:A
6、回歸分析的任務(wù),就是根據(jù)O和因變量的觀察值,估計這個函數(shù),并
討論與之有關(guān)的種種統(tǒng)計推斷的問題
A、相關(guān)變量
B、樣本
C、已知數(shù)據(jù)
D、自變量
答案:D
7、K-means算法采用了哪些策略?O
A、自底向上
B、貪心策略
C、自頂向下
D、以上都是
答案:B
8、()和假設(shè)檢驗又可歸結(jié)為統(tǒng)計推斷的范疇,即對總體的數(shù)量特征做出
具有一定可靠程度的估計和判斷
A、參數(shù)估計
B、邏輯分析
C、方差分析
D、回歸分析
答案:A
9、深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)訓(xùn)練時需要大量的矩陣計算,一般我們需要配用硬件
讓計算機具備并行計算的能力,以下硬件設(shè)備可提供并行計算能力的是:
A、主板
B、內(nèi)存條
C、GPU
D、CPU
答案:C
10、中國在哪年首次舉辦機器人世界杯?。
A、1999
B、2004
C、2006
D、$2,008
答案:D
11、卷積神經(jīng)網(wǎng)絡(luò)經(jīng)常使用的激活函數(shù)有好幾種:。、tanh函數(shù)、ReLu
函數(shù)、LeakyReLu函數(shù)、PReLu函數(shù)等。
A、sigmoid函數(shù)
B、main函數(shù)
C、max函數(shù)
D、sum函數(shù)
答案:A
12、學(xué)習(xí)器的實際預(yù)測輸出與樣本的真實輸出之間的差異稱為(一)。
A、錯誤率
B、精度
C、誤差
D、查準(zhǔn)率
答案:C
13、在其他條件不變的前提下,以下哪種做法容易引起機器學(xué)習(xí)中的過擬
合問題()
A、增加訓(xùn)練集量
B、減少神經(jīng)網(wǎng)絡(luò)隱藏層節(jié)點數(shù)
C、刪除稀疏的特征
D、SVM算法中使用高斯核/RBF核代替線性核
答案:D
14、O是指能夠按照人的要求,在某一個領(lǐng)域完成一項工作或者一類工
作的人工智能。
A、超人工智能
B、強人工智能
C、弱人工智能
D、人工智能
答案:C
15、HiAI移動計算平臺提供豐富的上層功能業(yè)務(wù)APl,可在移動設(shè)備高效
運行。
A、TRUE
B、FALSE
答案:A
16、關(guān)于模型參數(shù)(權(quán)重值)的描述,錯誤的說法是
A、在訓(xùn)練神經(jīng)網(wǎng)絡(luò)過程中,參數(shù)不斷調(diào)整,其調(diào)整的依據(jù)是基于損失函數(shù)
不斷減少
B、每一次EPOCh都會對之前的參數(shù)進行調(diào)整,迭代次數(shù)越多,損失函數(shù)一
般越小
C、模型參數(shù)量越多越好,沒有固定的對應(yīng)規(guī)則
D、訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)模型存儲于一定結(jié)構(gòu)的神經(jīng)元之間的權(quán)重和神經(jīng)元的
偏置中
答案:c
17、Boosting算法要求基學(xué)習(xí)器能對特定的數(shù)據(jù)分布進行學(xué)習(xí),可通過。
實施,對無法接受帶權(quán)樣本的基學(xué)習(xí)算法,則可通過O來處理
A、重賦權(quán)法,重采樣法
B、重采樣法,重賦權(quán)法
C、賦權(quán)法,采樣法
D、采樣法,賦權(quán)法
答案:A
18、若一個屬性可以從其他屬性中推演出來,那這個屬性就是()
A、結(jié)構(gòu)屬性
B、冗余屬性
C、模式屬性
D、集成屬性
答案:B
19、下述。不是人工智能中常用的知識格式化表示方法。
A、框架表示法
B、產(chǎn)生式表示法
C、語義網(wǎng)絡(luò)表示法
D、形象描寫表示法
答案:D
20、參數(shù)學(xué)習(xí)過程中若采用梯度下降法,應(yīng)如何計算梯度值()?
A、wL
B、?L∕?N
C、??∕?L.
D、w/L
答案:B
21、Transformer架構(gòu)首先是由下列哪項引入的?
A、GloVe
B、BERT
C、OpenAΓsGPT
D、ULMFit
答案:C
22、拋擲一枚質(zhì)地均勻的硬幣,若拋擲95次都是正面朝上,則拋擲第100
次正面朝上的概率是()
A、小于1/2
B、等于1/2
C、大于1/2
D、無法確定
答案:B
23、以才哪種組合在CNN不常見
A、conv+relu
B、conv+relu+pool
C、conv+relu+pool+fc
D、conv+k-means
答案:D
24、線性回歸在3維以上的維度中擬合面是?
A、曲面
B、平面
C、超平面
D、超曲面
答案:C
25、使用了興奮劑被檢測出的概率為95除沒有使用興奮劑被誤判的可能
性10%,實際使用興奮劑的概率0?ll?,如果只做1次檢測被檢測服用興奮劑,
真實服用興奮劑的概率是多少?
A、0.90%
B、7.90%
C、45%
D、95%
答案:A
26、以下機器學(xué)習(xí)中,在數(shù)據(jù)預(yù)處理時,不需要考慮歸一化處理的是:()
A、logistic回歸
B、SVM
C、樹形模型
D、神經(jīng)網(wǎng)絡(luò)
答案:C
27、下面是一段將圖像轉(zhuǎn)換為向量的函數(shù)img2vector°該函數(shù)創(chuàng)建
IX1024的NUmPy數(shù)組,然后打開給定的文件,循環(huán)讀出文件的前32行,并將
每行的頭32個字符值存儲在NUmPy數(shù)組中,最后返回數(shù)組。請問填充在空白處
的代碼應(yīng)該是哪個。defimg2vector(fiIename):returnVect=
zeros((1,1024))fr=open(filename)foriinrange(32):
forjinrange(32):returnVect[0,
32*i+j]=int(IineStr[j])returnreturnVect
A、IineStr=fr.readlines
B、IineStr=fr.read_line
C、IineStr=readline
D、IineStr=fr.readline
答案:D
28、關(guān)于梯度下降算法描述正確的是:
A、梯度下降算法就是不斷的更新W和b的值
B、梯度下降算法就是不斷的更新w和b的導(dǎo)數(shù)值
C、梯度下降算法就是不斷尋找損失函數(shù)的最大值
D、梯度下降算法就是不斷更新學(xué)習(xí)率
答案:A
29、如果問題存在最優(yōu)解,則下面幾種搜索算法中,()必然可以得到該
最優(yōu)解。
A、廣度優(yōu)先搜索
B、深度優(yōu)先搜索
C、有界深度優(yōu)先搜索
D、啟發(fā)式搜索
答案:A
30、()就是要得到一些數(shù)據(jù)大致是什么樣的,它的區(qū)間是什么,它的統(tǒng)計
指標(biāo),以及這樣的數(shù)據(jù)是怎么分布的等信息。
A、數(shù)據(jù)搜查
B、數(shù)據(jù)檢查
C、數(shù)據(jù)探查
答案:C
31、小王和老張交換名片后,小王打開手機中安裝的靈云智能輸入法app,
拍照老張的名片,很快得到名片文字信息并保存,這其中最主要應(yīng)用的技術(shù)是
O
A、模式識別
B、文字合成
C、圖像搜索
D、圖像還原
答案:A
32、2010年谷歌推出以頂點為中心的圖處理系統(tǒng)O,其專為大規(guī)模圖數(shù)
據(jù)處理而設(shè)計,將圖數(shù)據(jù)保存在主存儲器中并采用并行計算的BSP模型
A、Aregel
B、Pregel
C、Cregel
D、Dregel
答案:B
33、數(shù)據(jù)挖掘技術(shù)包括三個主要的部分()。
A、數(shù)據(jù)、模型、技術(shù)
B、算法、技術(shù)、領(lǐng)域知識
C、數(shù)據(jù)、建模能力、算法與技術(shù)
D、建模能力、算法與技術(shù)、領(lǐng)域知識
答案:C
34、下列哪些沒有使用AnChorbox?()
A、FasterRCNN
B、YOLOvl
C、Y0L0v2
D、Y0L0v3
答案:B
35、智能語音應(yīng)用中具備辨別聲音來源方向的硬件設(shè)備/技術(shù)是O
A、語音識別
B、語種識別
C、說話人識別
D、麥克風(fēng)陣列
答案:D
36、1997年5月,著名的“人機大戰(zhàn)”,最終計算機以3.5比2.5的總比
分將世界國際象棋棋王卡斯帕羅夫擊敗,這臺計算機被稱為O
A、深藍(lán)
B、IBM
C、深思
D、藍(lán)天
答案:A
37、神經(jīng)網(wǎng)絡(luò)訓(xùn)練過程中,一般會遇到停滯期,即神經(jīng)網(wǎng)絡(luò)在進入全局最
小值之前陷入局部最小值。以下哪個策略可以避免上述情況?
A、增加參數(shù)數(shù)量
B、減少參數(shù)數(shù)量
C、在開始時將學(xué)習(xí)率降低10倍
D、改變幾個時期的學(xué)習(xí)率
答案:D
38、ReSNet從角度改進了之前的圖像分類網(wǎng)絡(luò)?
A、增加網(wǎng)絡(luò)寬度
B、輕量化網(wǎng)絡(luò)模型
C、改善網(wǎng)絡(luò)退化現(xiàn)象
D、增加網(wǎng)絡(luò)深度
答案:C
39、對沒有標(biāo)簽的數(shù)據(jù)進行分類的問題屬于機器學(xué)習(xí)中哪一類問題()。
A、回歸
B、分類
C、聚類
D、強化
答案:C
40、做一個二分類預(yù)測問題,先設(shè)定閾值為0.5,概率不小于0.5的樣本
歸入正例類(即1),小于0.5的樣本歸入反例類(即0)。然后,用閾值n
(n>0.5)重新劃分樣本到正例類和反例類,下面說法正確的是Oo
A、增加閾值不會提高召回率
B、增加閾值會提高召回率
C、增加閾值不會降低查準(zhǔn)率
D、增加閾值會降低查準(zhǔn)率
答案:A
41、以下。的說法是正確。
A、術(shù)語NoSQL是rtNolSQLw的縮寫
B、術(shù)語NOSQL可以理解為“NotOnlySQL”的縮寫
C、NoSQL數(shù)據(jù)庫始終遵循ACID原則
D、NoSQL數(shù)據(jù)庫屬于關(guān)系數(shù)據(jù)庫技術(shù)
答案:B
42、以下說法錯誤的一項是O
A、負(fù)梯度方向是使函數(shù)值下降最快的方向
B、當(dāng)目標(biāo)函數(shù)是凸函數(shù)時,梯度下降法的解是全局最優(yōu)解
C、梯度下降法比牛頓法收斂速度快
D、擬牛頓法不需要計算HeSSe矩陣
答案:c
43、在線性回歸算法中,我們認(rèn)為誤差項是符合什么分布的()
A、高斯分布
B、均勻分布
C、二項分布
D、泊松分布
答案:A
44、第一個成功應(yīng)用的專家系統(tǒng)是()。
A、ELIZA
B、Dendral
C、Xcon
D、Deepblue
答案:B
45、代碼array=np.arange(10,31,5)中的5代表()?
A、元素的個數(shù)
B、步長
C、第一個元素
D、最后一個元素
答案:B
46、深度學(xué)習(xí)是當(dāng)前很熱門的機器學(xué)習(xí)算法,在深度學(xué)習(xí)中,涉及到大量
的矩陣相乘,現(xiàn)在需要計算三個稠密矩陣A,B,C的乘積ABC,假設(shè)三個矩陣的尺
寸分別為m*n,n*p,p*q,且m
A、ABC
B、ACB
C、ABC
D、所有效率都相同
答案:A
47、Python中heapq是一種()數(shù)據(jù)結(jié)構(gòu)
A、樹型數(shù)據(jù)結(jié)構(gòu)
B、列表數(shù)據(jù)結(jié)構(gòu)
C、隊列數(shù)據(jù)結(jié)構(gòu)
D、鏈表數(shù)據(jù)結(jié)構(gòu)
答案:A
48、下面關(guān)于SVM中核函數(shù)的說法正確的是?O
A、核函數(shù)將低維空間中的數(shù)據(jù)映射到高維空間
B、它是一個相似度函數(shù)
C、A、B都對
D、A、B都不對
答案:C
49、
image=fluid.layers,data(name="image,,shape=[1,28,28],dtype=(float32,),
代碼中28表示?
A、訓(xùn)練的周期
B、訓(xùn)練的批次
C、輸入數(shù)據(jù)的維度
D、數(shù)據(jù)的通道
答案:C
50、以下關(guān)于機器學(xué)習(xí)說法錯誤的是
A、機器學(xué)習(xí)可以解決圖像識別問題
B、目前機器學(xué)習(xí)已經(jīng)可以代替人類
C、機器學(xué)習(xí)在一定程度上依賴于統(tǒng)計學(xué)習(xí)
D、監(jiān)督學(xué)習(xí)和非監(jiān)督學(xué)習(xí)都屬于機器學(xué)習(xí)
答案:B
51、半監(jiān)督學(xué)習(xí)四大范型不含有(一)
A、基于分歧方法
B、半監(jiān)督SVM
C、生成式方法
D、半監(jiān)督聚類
答案:D
52、a=[0,1,2,3,4,5,6,7,8,9],a[l:5]的輸出為O0
A、0,1,2,3]
B、1,2,3,4]
C、0,1,2,3,4]
D、1,2,3,4,5]
答案:B
53、。為我們進行學(xué)習(xí)器性能比較提供了重要依據(jù)
A、二項檢驗
B、t檢驗
C、交叉驗證t檢驗
D、統(tǒng)計假設(shè)檢驗
答案:D
54、下列哪項是自然語言處理的PythOn開發(fā)包?
A、openCV
B、jieba
C、sklearn
D、XGBoost
答案:B
55、在其他條件不變的前提下,以下做法容易引起機器學(xué)習(xí)中的“過擬合”
問題的是Oo
A、增加訓(xùn)練集量
B、減少神經(jīng)網(wǎng)絡(luò)隱藏層節(jié)點數(shù)
C、刪除稀疏的特征
D、SVM算法中使用高斯核/RBF核代替線性核
答案:D
56、下列哪個不屬于特征的類型(一)
A、關(guān)鍵特征
B、冗余特征
C、相關(guān)特征
D、無關(guān)特征
答案:A
57、下列哪種機器學(xué)習(xí)算法不需要歸一化處理?()
A、DecisionTree
B、B.SVM
C、Kmeans
D、LogisticRegression
答案:A
58、在人工智能當(dāng)中,圖像、語音、手勢等識別被認(rèn)為是。的層次;而問題
求解、創(chuàng)作、推理預(yù)測被認(rèn)為是()的層次。
A、感知智能
B、認(rèn)知智能
C、認(rèn)知智能
D、感知智能
E、感知智能
F、感知智能
答案:A
59、下面哪個/些超參數(shù)的增加可能會造成隨機森林?jǐn)?shù)據(jù)過擬合()
A、樹的數(shù)量
B、樹的深度
C、學(xué)習(xí)速率
答案:B
60、下面()不是有效的變量名。
A、_demo
B、banana
C、Numbr
D>my-score
答案:D
61、循環(huán)神經(jīng)網(wǎng)絡(luò)之所以有作用是因為:
A、序列中的元素是無關(guān)的
B、序列中的元素蘊含著順序的規(guī)律
C、序列中的元素都是隨機出現(xiàn)的
D、序列中的元素都來自同一個數(shù)據(jù)源
答案:B
62、a=[[1.,2.,1.],[1.,2.,I.]],a+3的值為()。
A、1.,2.,1.],4.,5.,4.]]
B、4.,5.,4.],4.,5.,4.]]
C、以上都不對
D、4.,5,,4.L1.,2.,1.]]
答案:C
63、下面算法中哪個不是分類算法
A、決策樹
B、高斯混合模型GMM
C、隨機森林
D、Xgboost
答案:B
64、下列有關(guān)決策樹說法錯誤的是
A、是一個監(jiān)督學(xué)習(xí)算法
B、是一個分類模型
C、是一個回歸模型
D、主要用來處理時間序列數(shù)據(jù)樣本
答案:D
65、a={2:3},a.get(2,4)返回的值是
A、4
B、3
C、None
D、$2
答案:B
66、下述()不是知識的特征。
A、復(fù)雜性和明確性
B、進化和相對性
C、客觀性和依附性
D、可重用性和共享性
答案:A
67、下列哪項不是SVM的優(yōu)勢
A、可以和核函數(shù)結(jié)合
B、通過調(diào)參可以往往可以得到很好的分類效果
C、訓(xùn)練速度快
D、泛化能力好
答案:C
68、()是指將“數(shù)據(jù)”轉(zhuǎn)換為“產(chǎn)品”的藝術(shù)。
A、數(shù)據(jù)柔性
B、數(shù)據(jù)運用
C、數(shù)據(jù)挖掘
D、數(shù)據(jù)開發(fā)
答案:A
69、智能變電站全站配置模型文件,指的是。。
A、SSD文件
B、CID文件
C、SCD文件
D、ICD文件
答案:C
70、下列哪一項屬于特征學(xué)習(xí)算法(representationlearning
algorithm)?
A、K近鄰算法
B、隨機森林
C、神經(jīng)網(wǎng)絡(luò)
D、都不屬于
答案:C
71、以下哪些算法是分類算法?
A、DBSCAN
B、C4.5
C、K-Mean
D、EM
答案:B
72、產(chǎn)生式系統(tǒng)的推理不包括()
A、正向推理
B、逆向推理
C、雙向推理
D、簡單推理
答案:D
73、一條規(guī)則形如:,其中“一〃左邊的部分稱為(一)
A、規(guī)則長度
B、規(guī)則頭
C、布爾表達(dá)式
D、規(guī)則體
答案:B
74、Python3中有幾種標(biāo)準(zhǔn)數(shù)據(jù)類型?
A、5
B、6
C、7
D、$8
答案:B
75、對于圖像分類問題,以下哪個神經(jīng)網(wǎng)絡(luò)更適合解決這個問題?
A、感知器
B、循環(huán)神經(jīng)網(wǎng)絡(luò)
C、卷積神經(jīng)網(wǎng)絡(luò)
D、全連接神經(jīng)網(wǎng)絡(luò)
答案:C
76、在PythOn中,設(shè)a=2,b=3,表達(dá)式not(b^^a>O)值是()
A、1
B、-1
C、True
D、FALSE
答案:D
77、以下關(guān)于Ll正則化和L2正則化的說法正確的是?
A、防止模型欠擬合而加在損失函數(shù)后面的一項
B、Ll范數(shù)符合拉普拉斯分布,是完全可微的
C、Ll正則化項是模型各個參數(shù)的平方和的開方值
D、Ll正則化可以產(chǎn)生稀疏權(quán)值矩陣,即產(chǎn)生一個稀疏模型,可以用于特
征選擇
答案:D
78、DOCker是一個開源的應(yīng)用容器引擎,基于O語言并遵從APaChe2.0
協(xié)議開源。
A、Go
B、Python
C、C/C++
D、Java
答案:A
79、下面不是超參數(shù)的是:
A、權(quán)重和偏置
B、學(xué)習(xí)率
C、mini-batch的大小
D、網(wǎng)絡(luò)結(jié)構(gòu)
答案:A
80、卷積神經(jīng)網(wǎng)絡(luò)做圖像分類任務(wù)通常不包含:
A、卷積操作
B、池化操作
C、全連接層
D、均方誤差損失函數(shù)
答案:D
81、APriOri算法主要使用標(biāo)準(zhǔn)的發(fā)現(xiàn)關(guān)聯(lián)規(guī)則的步驟,先發(fā)現(xiàn)數(shù)據(jù)中的
0,然后從中產(chǎn)生關(guān)聯(lián)規(guī)則。
A、聚類數(shù)據(jù)集
B、中位數(shù)
C、擬合數(shù)據(jù)集
D、頻繁項目集
答案:D
82、下面的數(shù)據(jù)中哪個不屬于噪聲數(shù)據(jù)()
A、重復(fù)數(shù)據(jù)
B、虛假數(shù)據(jù)
C、錯誤數(shù)據(jù)
D、異常數(shù)據(jù)
答案:A
83、循環(huán)神經(jīng)網(wǎng)絡(luò)優(yōu)于全連接網(wǎng)絡(luò)的一個原因是循環(huán)神經(jīng)網(wǎng)絡(luò)實現(xiàn)了權(quán)值
共享,那么權(quán)值共享的好處有:①.模型參數(shù)變少②.運算速度變快③.占用內(nèi)存
少④.所有權(quán)值都共享同一個值
A、①③④
B、①②③
C、①③④
D、①②④
答案:B
84、O是空語句,一般用做占位語句,不做任何事情。
A、break
B、pass
C、continue
D、print
答案:B
85、O是以樣本統(tǒng)計量作為未知總體參數(shù)的估計量,并通過對樣本單位
的實際觀察取得樣本數(shù)據(jù),計算樣本統(tǒng)計量的取值作為被估計參數(shù)的估計值
A、參數(shù)估計
B、邏輯分析
C、方差分析
D、回歸分析
答案:A
86、在數(shù)據(jù)產(chǎn)品研發(fā)的過程中,以下()屬于低層次數(shù)據(jù)。
A、零次數(shù)據(jù)
B、一次數(shù)據(jù)
C、二次數(shù)據(jù)
D、三次數(shù)據(jù)
答案:A
87、下列關(guān)于深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)的描述,正確的是()
A、不同的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),層數(shù)與神經(jīng)元數(shù)量正相關(guān),層數(shù)越多,神經(jīng)元數(shù)
量越多
B、網(wǎng)絡(luò)結(jié)構(gòu)的層次越深,其學(xué)習(xí)特征越多,10層的結(jié)構(gòu)要優(yōu)于5層結(jié)構(gòu)
C、深層網(wǎng)絡(luò)結(jié)構(gòu)中,學(xué)習(xí)到的特征一般與神經(jīng)元的參數(shù)量有關(guān),也與樣本
的特征多少有關(guān)
D、網(wǎng)絡(luò)的層次越深,其訓(xùn)練時間越久,5層的網(wǎng)絡(luò)比4層的訓(xùn)練時間長
答案:C
88、無監(jiān)督的建模技術(shù)有()、關(guān)聯(lián)分析、預(yù)報三類
A、聚合
B、離散
C、相關(guān)性分析
D、聚類
答案:D
89、主觀Bayes推理中,因子LS、LN的如下取值那組不合理?()
A、LS>RLN
B、LSl
C、LS=1、LN=I
D、LS>kLN>1
答案:D
90、在非均等代價下,希望最小化()
A、召回率
B、錯誤率
C、錯誤次數(shù)
D、總體代價
答案:D
91,機器學(xué)習(xí)訓(xùn)練時,Mini-BatCh的大小優(yōu)選為2的日,如256或512。
它背后的原因是什么?O
A.Mini-Batch為偶數(shù)的時候,梯度下降算法訓(xùn)練的更快
B、Mini-Batch設(shè)為2的暴,是為了符合CPU、GPU的內(nèi)存要求,利于并
行化處理
C、不使用偶數(shù)時,損失函數(shù)是不穩(wěn)定的
D、以上說法都不對
答案:B
92、一個醫(yī)生診斷了病人,并說該病人患流感的概率為40機這里的概率
為Oo
A、頻率派概率
B、古典概率
C、貝葉斯概率
D、條件概率
答案:C
93、()適合連續(xù)特征,它假設(shè)每個特征對于每個類都符合正態(tài)分布。
A、GaussianNB
B、Be
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 愉快的國慶假期話題作文范文
- 銀行賬戶管理實施細(xì)則
- 青鳥讀書心得萬能10篇
- 物流發(fā)貨回執(zhí)單
- 八年級歷史下冊 第七學(xué)習(xí)主題 社會生活 第20課 城鄉(xiāng)人民生存狀態(tài)的滄桑巨變教學(xué)思路2 川教版
- 2000個論壇華東網(wǎng)絡(luò)營銷基地(已經(jīng)詳細(xì)分好類)
- 轉(zhuǎn)正自我工作總結(jié)(15篇)
- 黑暗效應(yīng)-詳解
- 9《聲音的產(chǎn)生》教學(xué)實錄-2023-2024學(xué)年科學(xué)三年級下冊蘇教版
- 2024年五年級數(shù)學(xué)上冊 1 小數(shù)乘法第2課時 小數(shù)乘整數(shù)(2)教學(xué)實錄 新人教版
- 漢語閱讀教程第一冊第十二課
- 江蘇省南京市六校2024-2025學(xué)年高一上學(xué)期期中聯(lián)合調(diào)研 化學(xué)試題
- 2024年時事政治試題(帶答案)
- 2024年山東省濟南市中考道德與法治試題卷(含答案解析)
- 高一數(shù)學(xué)必修一知識點和公式
- 系統(tǒng)商用密碼應(yīng)用方案v5-2024(新模版)
- 2024年秋國家開放大學(xué)《形勢與政策》大作業(yè):建設(shè)中華民族現(xiàn)代文明的路徑是什么?中華民族現(xiàn)代文明有哪些鮮明特質(zhì)?附答案【供參考】
- Unit 3 Lesson 13 At School(教學(xué)設(shè)計)-2024-2025學(xué)年冀教版(三起)英語四年級上冊
- 和員工簽股權(quán)合同范本
- 2024年7月國開電大本科《建筑結(jié)構(gòu)試驗》期末考試試題及答案
- 09S302 雨水斗選用及安裝
評論
0/150
提交評論