版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)
文檔簡介
人工智能考試試題及答案
1、GOOgle認(rèn)為,響應(yīng)時間每延遲0.5s,查詢數(shù)將會減少()
A、0.05
B、0.1
C、0.15
D、$0.20
答案:D
2、在前饋神經(jīng)網(wǎng)絡(luò)中,誤差后向傳播(BP算法)將誤差從輸出端向輸入
端進(jìn)行傳輸?shù)倪^程中,算法會調(diào)整前饋神經(jīng)網(wǎng)絡(luò)的什么參數(shù)
A、輸入數(shù)據(jù)大小
B、神經(jīng)元和神經(jīng)元之間連接有無
C、相鄰層神經(jīng)元和神經(jīng)元之間的連接權(quán)重
D、同一層神經(jīng)元之間的連接權(quán)重
答案:C
3、如果將數(shù)據(jù)科學(xué)比喻成“鷹”,那么,理論基礎(chǔ)、數(shù)據(jù)加工、數(shù)據(jù)計(jì)算、
數(shù)據(jù)管理、數(shù)據(jù)分析、數(shù)據(jù)產(chǎn)品開發(fā)相當(dāng)于“鷹”的O
A、翅膀
B、腳
C、軀體
D、頭腦
答案:C
4、以下關(guān)于回歸算法描述中不正確的是
A、最小二乘法可以求解線性回歸問題
B、梯度下降法可以求解線性回歸問題
C、利用最小二乘法求解線性回歸問題可能會出現(xiàn)局部最優(yōu)解
D、學(xué)習(xí)率是梯度下降法的重要參數(shù)
答案:C
5、添加用戶時使用參數(shù)()可以指定用戶目錄。
A、-d
B、-p
C、-U
D、-C
答案:A
6、下屬模型是一階段網(wǎng)絡(luò)的是O
A、Y0L0v2
B、rcnn
C、fast-rcnn
D、faster-rcnn
答案:A
7、一條規(guī)則形如:,其中“一”右邊的部分稱為(一)
A、規(guī)則長度
B、規(guī)則頭
C、布爾表達(dá)式
D、規(guī)則體
答案:D
8、下面關(guān)于隨機(jī)森林和集成學(xué)習(xí)的說法,正確的是O
A、隨機(jī)森林只能用于解決分類問題
B、集成學(xué)習(xí)通過構(gòu)建多個模型,并將各個模型的結(jié)果使用求平均數(shù)的方法
集成起來,作為最終的預(yù)測結(jié)果,提高分類問題的準(zhǔn)確率
C、隨機(jī)森林由隨機(jī)數(shù)量的決策樹組成
D、隨機(jī)森林的弱分類器(基分類器)的特征選擇不是隨機(jī)的
答案:B
9、關(guān)于Python中的復(fù)數(shù),下列說法錯誤的是()
A、表是復(fù)數(shù)的語法是real+imagej
B、實(shí)部和虛部都是浮點(diǎn)數(shù)
C、虛部必須后綴j,且必須小寫
D、方法Ce)njugate返回復(fù)數(shù)的共枕復(fù)數(shù)
答案:C
10、對于k折交叉驗(yàn)證,以下對k的說法正確的是?
A、k越大,不一定越好,選擇大的k會加大評估時間
B、選擇更大的k,就會有更小的bias(因?yàn)橛?xùn)練集更加接近總數(shù)據(jù)集)
C、在選擇k時,要最小化數(shù)據(jù)集之間的方差
D、以上所有
答案:D
11、frompandasimportDataFranle這個語句的含義是。
A、從DataFrame類導(dǎo)入pandas類
B、從pandas庫導(dǎo)入DataFrame類
C、從PandaS庫導(dǎo)入DataFrame庫
D、從DataFrame庫導(dǎo)入pandas類
答案:B
12、以下關(guān)于最大似然估計(jì)MLE的說法正確的是
A、MLE中加入了模型參數(shù)本身的概率分布
B、MLE認(rèn)為模型參數(shù)本身概率是不均勻的
C、MLE體現(xiàn)了貝葉斯認(rèn)為參數(shù)也是隨機(jī)變量的觀點(diǎn)
D、MLE是指找出一組參數(shù),使得模型產(chǎn)生出觀測數(shù)據(jù)的概率最大
答案:D
13、第三次工業(yè)革命的地點(diǎn)是
A、英國倫敦
B、美國硅谷
C、德國漢諾威
D、美國辛辛那提農(nóng)場
答案:B
14、下述字符串格式化語法正確的是?
A、GNU,sNot%d%%,%'UNIX'
B、GNU?,sNot%d%%"%'UNIX"
C、GNU,sNot%s%%,%,UNIX,
D、GNU?,sNot%s%%,%,UNIX'
答案:D
15、下列哪項(xiàng)不屬于集成學(xué)習(xí)
A、隨機(jī)森林
B、Adaboost
C、kNN
D、XGBoost
答案:C
16、LSTM是一種什么網(wǎng)絡(luò)?
A、卷積神經(jīng)網(wǎng)
B、前饋神經(jīng)網(wǎng)
C、循環(huán)神經(jīng)網(wǎng)
D、李生網(wǎng)絡(luò)
答案:C
17、在以下模型中,訓(xùn)練集不需要標(biāo)注信息的是0
A、k-means
B、線性回歸
C、神經(jīng)網(wǎng)絡(luò)
D、決策樹
答案:A
18、()是人以自然語言同計(jì)算機(jī)進(jìn)行交互的綜合性技術(shù),結(jié)合了語言學(xué)、
心理學(xué)、工程、計(jì)算機(jī)技術(shù)等領(lǐng)域的知識。
A、語音交互
B、情感交互
C、體感交互
D、腦機(jī)交互
答案:A
19、數(shù)據(jù)挖掘技術(shù)主要有分類、估計(jì)、()、關(guān)聯(lián)分析和預(yù)報。
A、回歸
B、統(tǒng)計(jì)
C、聚類
D、假設(shè)
答案:C
20、下列樸素貝葉斯估計(jì)描述錯誤的是(_)
A、采用屬性條件獨(dú)立性假設(shè);
B、假設(shè)屬性之間相互獨(dú)立;
C、為了避免條件概率是所以屬性上的聯(lián)合概率;
D、假設(shè)屬性之間是相關(guān)的;
答案:D
21、半監(jiān)督學(xué)習(xí)不包括
A、直推學(xué)習(xí)
B、純半監(jiān)督學(xué)習(xí)
C、主動學(xué)習(xí)
D、圖半監(jiān)督學(xué)習(xí)
答案:C
22、下列關(guān)于深度學(xué)習(xí)說法錯誤的是
A、LSTM在一定程度上解決了傳統(tǒng)RNN梯度消失或梯度爆炸的問題
B、CNN相比于全連接的優(yōu)勢之一是模型復(fù)雜度低,緩解過擬合
C、只要參數(shù)設(shè)置合理,深度學(xué)習(xí)的效果至少應(yīng)優(yōu)于隨機(jī)算法
D、隨機(jī)梯度下降法可以緩解網(wǎng)絡(luò)訓(xùn)練過程中陷入鞍點(diǎn)的問題
答案:C
23、fasterRCNN用于生成候選框ProPOSal的模塊名稱。
A、RPN
B、CNN
C、ResNet
D>RoIpooling
答案:A
24、以下關(guān)于人工智能系統(tǒng)架構(gòu)的表述,不正確的是
A、人工智能分為應(yīng)用層、技術(shù)層、基礎(chǔ)層
B、數(shù)據(jù)處理一般都是在應(yīng)用層完成
C、應(yīng)用層聚焦人工智能技術(shù)和各個領(lǐng)域的結(jié)合
D、基礎(chǔ)層提供計(jì)算能力和數(shù)據(jù)資源
答案:B
25、當(dāng)數(shù)據(jù)太大而不能同時在RAM中處理時,哪種梯度技術(shù)更有優(yōu)勢
A、全批量梯度下降
B、隨機(jī)梯度下降
答案:B
26、使用()關(guān)鍵字來創(chuàng)建PylhOn自定義函數(shù)。
A、function
B、func
C、procedure
D、def
答案:D
27、下列代碼執(zhí)行結(jié)果是什么?x=ldefchange(a):x+=lprintx
change(x)
A、1
B、2
C、3
D、報錯
答案:D
28、PythOn字體切片時(S[0,10])下標(biāo)的取值范圍為()。
A、0,10]
B、(0,10)
C、0,10)
D、(0,10]
答案:C
29、下列哪個神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)會發(fā)生權(quán)重共享
A、卷積神經(jīng)網(wǎng)絡(luò)&
B、&循環(huán)神經(jīng)網(wǎng)絡(luò)&
c、&全連接神經(jīng)網(wǎng)絡(luò)&
D、&卷積和循環(huán)神經(jīng)網(wǎng)絡(luò)
答案:D
30、如果強(qiáng)行限制輸出層的分布是標(biāo)準(zhǔn)化的,可能會導(dǎo)致某些特征模式的
丟失,所以在標(biāo)準(zhǔn)化之后,BatChNorm會緊接著對數(shù)據(jù)做縮放和O
A、平移
B、刪除
C、移動
D、收斂
答案:A
31、以下程序的輸出是。?array=np.array
([[1,2,3],[4,5,6],[7,8,9],[10,11,12]]);print(array,shape)
A、(4,3)
B、(3,4)
C、3
D、$4
答案:A
32、迄今為止,最成功的神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)算法是O
A、感知機(jī)
B、BB算法
C、BP算法
D、阿黛爾算法
答案:C
33、昇騰AI處理器的邏輯架構(gòu)不包括以下哪個選項(xiàng)?
A、DVPP
B、GPU
C、Al計(jì)算引擎
D、芯片系統(tǒng)控制CPU
答案:B
34、聚類分析屬于典型的。。
A、監(jiān)督學(xué)習(xí)
B、無監(jiān)督學(xué)習(xí)
C、半監(jiān)督學(xué)習(xí)
D、強(qiáng)化學(xué)習(xí)
答案:B
35、a=np.arange(2),b=np.arange(3,5),print(np.Iexsort([a,b]))fr?
輸出結(jié)果是0。
A、a,b]
B、0,1]
C、O,1,3,4]
D、O,1,2,3]
答案:B
36、在Python中,運(yùn)行以下程序,結(jié)果應(yīng)為()a=5b=7b+=3a=b*20
a+=2a=a%bprint(a,b)
A,57
B、2010
C、227
D、210
答案:D
37、回歸算法預(yù)測的標(biāo)簽是?
A、自變型
B、離散型
C、應(yīng)變型
D、連續(xù)型
答案:D
38、檢索的()和基于反事實(shí)學(xué)習(xí)的檢索和推薦模型已經(jīng)成為信息檢索領(lǐng)
域重要的研究方向
A、公平性
B、真實(shí)性
C、快速性
D、準(zhǔn)確性
答案:A
39、下列關(guān)于線性回歸分析中的殘差(ReSidUalS)說法正確的是?
A、殘差均值總是為零
B、殘差均值總是小于零
C、殘差均值總是大于零
D、以上說法都不對
答案:A
40、跳出所處的最近層循環(huán)的是()
A、break
B、continues
C、continue
D、pass
答案:A
41、下列哪項(xiàng)不屬于聚類算法O
A、K-means
B、BIRCH
C、SVM
D、DBSCAN
答案:C
42、關(guān)于混合模型聚類算法的優(yōu)缺點(diǎn),下面說法正確的是()。
A、當(dāng)簇只包含少量數(shù)據(jù)點(diǎn),或者數(shù)據(jù)點(diǎn)近似協(xié)線性時,混合模型也能很好
地處理。
B、混合模型比K均值或模糊均值更一般,因?yàn)樗梢允褂酶鞣N類型的分布。
C、混合模型很難發(fā)現(xiàn)不同大小和橢球形狀的簇。
D、混合模型在有噪聲和離群點(diǎn)時不會存在問題。
答案:B
43、簡單遺傳算法的遺傳操作主要有三種:選擇操作,交叉操作,O操
作
A、連接
B、復(fù)制
C、變異
D、結(jié)合
答案:C
44、深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)訓(xùn)練時需要大量的矩陣計(jì)算,一般我們需要配用硬
件讓計(jì)算機(jī)具備并行計(jì)算的能力,以下硬件設(shè)備可提供并行計(jì)算能力的是:
A、主板
B、內(nèi)存條
C、GPU
D、CPU
答案:C
45、()是一類用圖來表達(dá)變量相關(guān)關(guān)系的概率模型。
A、概率圖模型
B、隱馬爾可夫模型
C、變量圖模型
D、以上都不對
答案:A
46、為什么不能用多層全連接網(wǎng)絡(luò)解決命名實(shí)體識別問題:
A、序列數(shù)據(jù)的輸入和輸出通常是不固定的,有的序列長,有的序列短
B、全連接網(wǎng)絡(luò)的根本不能處理任何序列數(shù)據(jù)
C、全連接網(wǎng)絡(luò)的層次太深導(dǎo)致梯度消失,所以不能處理序列問題
D、命名實(shí)體識別問題是一個無法解決的問題,全連接網(wǎng)絡(luò)也不能解決這個
問題
答案:A
47、不屬于噪聲數(shù)據(jù)表現(xiàn)形式的是()
A、重復(fù)數(shù)據(jù)
B、虛假數(shù)據(jù)
C、錯誤數(shù)據(jù)
D、異常數(shù)據(jù)
答案:A
48、后剪枝是先從訓(xùn)練集生成一顆完整的決策樹,然后(—)對非葉結(jié)點(diǎn)進(jìn)
行考察。
A、自上而下
B、在劃分前
C、禁止分支展開
D、自底向上
答案:D
49、LARS屬于哪種特征選擇方法(一)
A、包裹式
B、啟發(fā)式
C、嵌入式
D、過濾式
答案:C
50、云計(jì)算提供的支撐技術(shù),有效解決虛擬化技術(shù)、()、海量存儲和海
量管理等問題
A、并行計(jì)算
B、實(shí)際操作
C、數(shù)據(jù)分析
D、數(shù)據(jù)研發(fā)
答案:A
51、YOLOV3在COC。數(shù)據(jù)集上聚類了。個矛框?
A、3
B、9
C、80
D、nan
答案:B
52、神經(jīng)網(wǎng)絡(luò)研究屬于下列哪個學(xué)派
A、符號主義
B、連接主義
C、行為主義
D、其他選項(xiàng)均不對
答案:B
53、以下屬于回歸算法的評價指標(biāo)是?
A、召回率
B、混淆矩陣
C、均方誤差
D、準(zhǔn)確率
答案:C
54、多層前饋神經(jīng)網(wǎng)絡(luò)描述錯誤的是
A、輸出層與輸入層之間包含隱含層,且隱含層和輸出層都擁有激活函數(shù)的
神經(jīng)元
B、神經(jīng)元之間存在這同層連接以及跨層連接
C、輸入層僅僅是接收輸入,不進(jìn)行函數(shù)處理
D、每層神經(jīng)元上一層與下一層全互連
答案:B
55、Python標(biāo)記語句塊使用()
A、花括號
B、小括號
C、引號
D、縮進(jìn)
答案:D
56、DSSM經(jīng)典模型的優(yōu)點(diǎn);L解決了字典爆炸問題,降低了計(jì)算復(fù)雜度;2.
中文方面使用字作為最細(xì)切分粒度,可以復(fù)用每個字表達(dá)的詞義,減少分詞的
依賴,從而提高模型的泛化能力;3.字母的n-gram可以更好的處理新詞,具有
較強(qiáng)的魯棒性;4.使用有監(jiān)督的方法,優(yōu)化語義embedding的映射問題;5.省
去了人工特征工程;6.采用有監(jiān)督訓(xùn)練,精度較高。
A、1.2.3.4
B、1.3.4.6
C、1.2.3.4.5.6
D、3.4.6
答案:C
57、衡量模型預(yù)測值和真實(shí)值差距的評價函數(shù)被稱為O
A、損失函數(shù)
B、無參數(shù)函數(shù)
C、激活函數(shù)
D、矩陣拼接函數(shù)
答案:A
58、智能體的性能度量用來()
A、進(jìn)行正確感知
B、評價智能體在環(huán)境中的行為表現(xiàn)
C、財務(wù)分析
D、進(jìn)行自我學(xué)習(xí)與自我優(yōu)化
答案:D
59、()是一種基于貝葉斯法則為基礎(chǔ)的,通過概率手段進(jìn)行學(xué)習(xí)的方法。
A、遺傳算法
B、分析學(xué)習(xí)
C、歸納學(xué)習(xí)
D、貝葉斯學(xué)習(xí)
答案:D
60、在TenSOrFIOW中,TenSOrBOard運(yùn)行時的默認(rèn)訪問端口是以下哪個端
口號?
A、4004
B、8080
C、8008
D、$6,006
答案:D
61、下列人工神經(jīng)網(wǎng)絡(luò)屬于反饋網(wǎng)絡(luò)的是。
A、Hopfield網(wǎng)
B、BP網(wǎng)絡(luò)
C、多層感知器
D、LVQ網(wǎng)絡(luò)
答案:A
62、PyTorCh框架算法模型配置文件應(yīng)為。格式。
A、prototxt
B、py
C、config
D、params
答案:B
63、關(guān)于用4V來表示大數(shù)據(jù)的主要特征,描述錯誤的是
A、大數(shù)據(jù)的時間分布往往不均勻,近幾年生成數(shù)據(jù)的占比最高
B、“如何從海量數(shù)據(jù)中洞見(洞察)出有價值的數(shù)據(jù)”是數(shù)據(jù)科學(xué)的重要
課題之一
C、數(shù)據(jù)類型的多樣性往往導(dǎo)致數(shù)據(jù)的異構(gòu)性,進(jìn)而加大數(shù)據(jù)處理的復(fù)雜性,
對數(shù)據(jù)處理能力提出了更高要求
D、數(shù)據(jù)價值與數(shù)據(jù)量之間存在線性關(guān)系
答案:D
64、關(guān)系云的一個重要功能是提供0。
A、數(shù)據(jù)庫即服務(wù)
B、虛擬服務(wù)
C、彈性計(jì)算
D、按需服務(wù)
答案:A
65、在卷積神經(jīng)網(wǎng)絡(luò)中,要求輸入尺寸必須固定的層是?O
A、卷積層
B、全連接層
C、池化層
D、以上都不是
答案:B
66、機(jī)器執(zhí)行學(xué)習(xí)的框架體現(xiàn)了其學(xué)習(xí)的本質(zhì)是()
A、參數(shù)預(yù)估
B、機(jī)器翻譯
C、圖像識別
D、參數(shù)估計(jì)
答案:D
67、在感知機(jī)中(Perceptron)的任務(wù)順序是什么?1隨機(jī)初始化感知機(jī)
的權(quán)重2去到數(shù)據(jù)集的下一批(batch)3如果預(yù)測值和輸出不一致,則調(diào)整
權(quán)重4對一個輸入樣本,計(jì)算輸出值
A、1,2,3,4
B、4,3,2,1
C、3,1,2,4
D、1,4,3,2
答案:D
68、以下關(guān)于機(jī)器學(xué)習(xí)描述正確的是?
A、深度學(xué)習(xí)是機(jī)器學(xué)習(xí)的一個分支
B、深度學(xué)習(xí)與機(jī)器學(xué)習(xí)是互相包含的關(guān)系
C、深度學(xué)習(xí)與機(jī)器學(xué)習(xí)同屬于人工智能但相互之間沒有關(guān)系
D、以上都不對
答案:A
69、中心極限定理告訴我們,當(dāng)樣本量足夠大時,樣本均值的分布圍繞總
體均值呈現(xiàn)O0
A、泊松分布
B、正態(tài)分布
C、伯努利分布
D、幾何分布
答案:B
70、關(guān)于MNlST,下列說法錯誤的是。。
A、是著名的手寫體數(shù)字識別數(shù)據(jù)集
B、有訓(xùn)練集和測試集兩部分
C、訓(xùn)練集類似人學(xué)習(xí)中使用的各種考試試卷
D、測試集大約包含IOOOO個樣本和標(biāo)簽
答案:C
71、在抽樣估計(jì)中,隨著樣本容量的增大,樣本統(tǒng)計(jì)量接近總體參數(shù)的概
率就越大,這一性質(zhì)稱為()
A、無偏性
B、有效性
C、及時性
D、一致性
答案:D
72、LSTM是一個非常經(jīng)典的面向序列的模型,可以對自然語言句子或是其
他時序信號進(jìn)行建模,是一種Oo
A、循環(huán)神經(jīng)網(wǎng)絡(luò)
B、卷積神經(jīng)網(wǎng)絡(luò)
C、樸素貝葉斯
D、深度殘差網(wǎng)絡(luò)
答案:A
73、CPU主要通過增加指令,增加核數(shù)等方式來提升Al性能。
A、TRUE
B、FALSE
答案:A
74、在多通道卷積過程中,要生成n個featuremaps,需要()個卷積核
立方體。
A、n-2
B、n^2
C、n∕2]注x]表示對X取整
D、n
答案:D
75、C4.5決策樹算法中采用()對連續(xù)屬性進(jìn)行離散化處理。
A、二分法
B、最小二乘法
C、均值法
D、投票法
答案:A
76、C5.O和QUEST決策樹只能處理()目標(biāo)值的問題。
A、隨機(jī)型
B、連續(xù)型
C、離散型
D、分類型
答案:D
77、循環(huán)神經(jīng)網(wǎng)最常常遇到的問題是:①.梯度消失②.詞語依賴位置較遠(yuǎn)
③.梯度爆炸④.維數(shù)災(zāi)難
A、①③④
B、①②③
C、①③④
D、①②④
答案:B
78、表達(dá)式3or5的值為。
A、TRUE
B、3
C、5
D、$2
答案:B
79、下列哪部分不是專家系統(tǒng)的組成部分
A、用戶
B、綜合數(shù)據(jù)庫
C、推理機(jī)
D、知識庫
答案:A
80、歸結(jié)原理的特點(diǎn)是(_)
A、發(fā)明新的概念和關(guān)系
B、發(fā)現(xiàn)更多的規(guī)則
C、緩解過擬合的風(fēng)險
D、將復(fù)雜的邏輯規(guī)則與背景知識聯(lián)系起來化繁為簡
答案:D
81、一個盒子內(nèi)裝有大小、形狀相同的四個球,其中紅球1個、綠球1個、
白球2個,小明摸出一個球不放回,再摸出一個球,則兩次都摸到白球的概率
是()
A、1212122022年1月2日
B、1212122022年1月4日
C、1212122022年1月6日
D、1212122022年1月12日
答案:C
82、在£-greedy策略當(dāng)中,?的值越大,表示采用隨機(jī)的一個動作的概率
越(),采用當(dāng)前Q函數(shù)值最大的動作的概率越。。
A、大
B、小
C、大
D、大
E、小
F、小
答案:A
83、下列說法中對專用人工智能理解正確的是OO
A、在某一個特定領(lǐng)域應(yīng)用的人工智能。
B、不是真正在這次人工智能浪潮中起到影響的主角。
C、充分利用已掌握的技能來解決新問題、達(dá)到甚至超過人類智慧的人工智
能。
D、是眾多科幻作品中顛覆人類社會的人工智能形象。
答案:A
84、對不具備泛化能力的規(guī)則轉(zhuǎn)變?yōu)楦话愕囊?guī)則的最基礎(chǔ)的技術(shù)為(一)
A、最大一般泛化
B、最小一般泛化
C、最大一般特化
D、最小一般特化
答案:B
85、。是指數(shù)據(jù)減去一個總括統(tǒng)計(jì)量或模型擬合值時的殘余部分
A、極值
B、標(biāo)準(zhǔn)值
C、平均值
D、殘值
答案:D
86、下列不是知識表示法的是()
A、計(jì)算機(jī)表示法
B、“與/或”圖表示法
C、狀態(tài)空間表示法
D、產(chǎn)生式規(guī)則表示法
答案:A
87、()的人工神經(jīng)網(wǎng)絡(luò)適合學(xué)習(xí)、分類等應(yīng)用。
A、反饋型
B、隨機(jī)型網(wǎng)絡(luò)
C、自組織競爭型
D、前向型
答案:D
88、機(jī)器學(xué)習(xí)算法中,以下不屬于集成學(xué)習(xí)策略的是?
A、Boosting
B、Stacking
C、Bagging
D、Marking
答案:D
89、在PythOn程序中,已知x=2,y=l,當(dāng)執(zhí)行語句y+=x*2,y的值是()
A、3
B、4
C、5
D、$6
答案:C
90、輸入圖片大小為200X200,依次經(jīng)過一層卷積(kernelsize5×5,
paddingl,stride2),pooling(kernelsize3×3,paddingθ,Stridel),又
一層卷積(kernelsize3×3,paddin
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 2024通信行業(yè)通信網(wǎng)絡(luò)規(guī)劃與設(shè)計(jì)保密合同3篇
- 2025年中國救生服行業(yè)市場深度分析及發(fā)展前景預(yù)測報告
- 三維可視化橋梁安全監(jiān)測解決方案
- 工業(yè)互聯(lián)網(wǎng)平臺在智能供應(yīng)鏈中的實(shí)踐
- 商業(yè)世界中的家庭旅行文化打造
- 《破產(chǎn)重整程序中債轉(zhuǎn)股法律問題研究》
- 2024版股權(quán)轉(zhuǎn)讓合同范本2篇
- 2024框架合同合作標(biāo)的概述
- 2024-2025年中國網(wǎng)絡(luò)可視化行業(yè)市場調(diào)研分析及投資戰(zhàn)略咨詢報告
- 2025年中國品牌胃藥市場發(fā)展現(xiàn)狀調(diào)查及投資趨勢前景分析報告
- 服務(wù)推廣合同協(xié)議(2025年)
- 麻風(fēng)病防治知識課件
- 中國保險行業(yè)協(xié)會官方-2023年度商業(yè)健康保險經(jīng)營數(shù)據(jù)分析報告-2024年3月
- 霉菌性陰道炎VVC的分類及診治
- 預(yù)制艙技術(shù)方案思源弘瑞課件
- 四年級科學(xué)《運(yùn)動與摩擦力》說課課件
- 訴訟費(fèi)退費(fèi)確認(rèn)表
- 全球變暖視野下中國與墨西哥的能源現(xiàn)狀分析
- 新外研版八年級上冊英語全冊教案(教學(xué)設(shè)計(jì))
- 2022年(高級)茶藝師職業(yè)資格考試參考題庫-下(多選、判斷題部分)
- 邊坡安全施工組織方案
評論
0/150
提交評論