版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)
文檔簡介
人工智能考試題庫含答案
1、用樹形結(jié)構(gòu)來表示實體之間聯(lián)系的模型稱為
A、關(guān)系模型
B、層次模型
C、網(wǎng)狀模型
D、數(shù)據(jù)模型
答案:B
2、實現(xiàn)多路分支的最佳控制結(jié)構(gòu)是
A、if
B、try
C、if-elif-else
D、if-else
答案:c
3、前饋神經(jīng)網(wǎng)絡(luò)通過誤差后向傳播(BP算法)進(jìn)行參數(shù)學(xué)習(xí),這是一種
()機(jī)器學(xué)習(xí)手段
A、監(jiān)督學(xué)習(xí)
B、無監(jiān)督學(xué)習(xí)
C、半監(jiān)督學(xué)習(xí)
D、無監(jiān)督學(xué)習(xí)和監(jiān)督學(xué)習(xí)的結(jié)合
答案:A
4、決策管理系統(tǒng)幫助用戶制定、細(xì)化、實施、。各種決策,并將這些決策
引入具體的環(huán)境中發(fā)揮作用。
A、核對
B、驗證
C、檢驗
D、跟蹤
答案:D
5、決策樹學(xué)習(xí)的關(guān)鍵是如何從候選屬性集中選擇一個最有助于分類實例的
屬性,而其選擇是以()為依據(jù)的
A、分類
B、聚類
C、概率
D、信息蠟
答案:D
6、變量的不確定性越大,相對應(yīng)信息端有什么變化()
A、嫡變小
B、熠變大
C、不變
D、以上都不對
答案:B
7、對于線性不可分的數(shù)據(jù),支持向量機(jī)的解決方式是O
A、軟間隔
B、硬間隔
C、核函數(shù)
D、以上選項均不正確
答案:C
8、貝葉斯學(xué)習(xí)是一種以貝葉斯法則為基礎(chǔ)的,并通過。手段進(jìn)行學(xué)習(xí)的方
法。
A、邏輯
B、概率
C、推理
D、假定
答案:B
9、TensorFlow2.0中可用于張量合并的方法有?
A、join
B、concat
C、split
D、unstack
答案:B
10、如果在大型數(shù)據(jù)集上訓(xùn)練決策樹。為了花費更少的時間來訓(xùn)練這個模
型,下列哪種做法是正確的
A、增加樹的深度
B、增加學(xué)習(xí)率
C、減少樹的數(shù)量
D、減小樹的深度
答案:D
Ik假設(shè)你使用IogToSS函數(shù)作為評估標(biāo)準(zhǔn)。下面這些選項,哪些是對作
為評估標(biāo)準(zhǔn)的log-loss的正確解釋。。
A、如果一個分類器對不正確的分類很自信,IogToss會嚴(yán)重的批評它。
B、對一個特別的觀察而言,分類器為正確的類別分配非常小的概率,然后
對log-loss的相應(yīng)分布會非常大。
C?log-loss越低,模型越好
D、以上都是
答案:D
12、如果一個訓(xùn)練好的模型在測試集上有100%的準(zhǔn)確率,這是不是意味著
在一個新的數(shù)據(jù)集上,也會有同樣好的表現(xiàn)?
A、是的,這說明這個模型的范化能力已經(jīng)足以支持新的數(shù)據(jù)集合了
B、不對,依然后其他因素模型沒有考慮到,比如噪音數(shù)據(jù)
答案:B
13、人工智能中通常把。作為衡量機(jī)器智能的準(zhǔn)則。
A、圖靈機(jī)
B、圖靈測試
C、中文屋實驗
D、人類智能
答案:B
14、()城市大腦目前已在杭州、蘇州、上海、衢州、澳門、馬來西亞等
城市和國家落地,覆蓋交通、平安、市政建設(shè)、城市規(guī)劃等領(lǐng)域,是目前全球
最大規(guī)模的人工智能公共系統(tǒng)之一。
A、浪潮云
B、華為云
C、阿里云
D、海爾云
答案:C
15、假定你在神經(jīng)網(wǎng)絡(luò)中的隱藏層中使用激活函數(shù)Xo在特定神經(jīng)元給定
任意輸入,你會得到輸出「-0.0001」。X可能是以下哪一個激活函數(shù)?
A、ReLU
B、tanh
C、SIGMOID
D、以上都不是
答案:B
16、。庫是一個具有強(qiáng)大圖像處理能力的第三方庫。用途:圖像處理.
A、numpy
B、pandas
C、Matplotlib
D、PIL
答案:D
17、標(biāo)準(zhǔn)循環(huán)神經(jīng)網(wǎng)絡(luò)隱含層的輸入對于網(wǎng)絡(luò)輸出的影響隨時間
A、不斷遞歸而衰退
B、不斷遞歸而增強(qiáng)
C、先增強(qiáng)后減弱
D、先減弱后增強(qiáng)
答案:A
18、如何選取合適的卷積核大小?
A、分布范圍廣一->較小的卷積核,大的感受野
B、分布范圍小一->較小的卷積核,小的感受野
C、分布范圍小一->較大的卷積核,小的感受野
D、分布范圍大一-〉較小的卷積核,小的感受野
答案:B
19、以下不屬于聚類算法的是()。
A、K均值
B、SAN
C、Apriori
D、Jarvis-Patrik(JP)
答案:C
20、關(guān)于Python程序設(shè)計語言,下列說法不正確的是()
A、python源文件以***.py為擴(kuò)展名
B、python的默認(rèn)交互提示符是:>>>
C、PythOn只能在文件模式中編寫代碼
D、Python具有豐富和強(qiáng)大的模塊
答案:C
21、下列關(guān)于MaPRedUCe說法不正確的是()。
A?MapReduce是一種計算框架
B、MapReduce來源于google的學(xué)術(shù)論文
C、MaPRedUCe程序只能用java語言編寫
D、MaPRedUCe隱藏了并行計算的細(xì)節(jié),方便使用
答案:C
22、將數(shù)值類型的屬性值(如年齡)用區(qū)間標(biāo)簽(例如0~18、19-44、
45~59和60~100等)或概念標(biāo)簽,稱為數(shù)據(jù)()處理。
A、離散化
B、標(biāo)準(zhǔn)化
C、特征構(gòu)造
D、聚集
答案:A
23、LVW屬于哪種特征選擇方法(—)
A、包裹式
B、啟發(fā)式
C、嵌入式
D、過濾式
答案:A
24、用numpy創(chuàng)建單位矩陣使用。
A、np.identity
B、np.ones
C、np.random,rand
D、np.arange
答案:A
25、強(qiáng)化學(xué)習(xí)的基礎(chǔ)模型是()模型
A、馬可夫決策&
B、&貝葉斯&
C、&HMM&
D、&最大后驗概率
答案:A
26、人工智能的三個階段包含了計算智能、()、認(rèn)知智能。
A、弱人工智能
B、感知智能
C、行為智能
D、強(qiáng)人工智能
答案:B
27、語句np.sum(arr3,axis=l)的作用是()?注:(已導(dǎo)入numpy庫)
Importnumpyasnp
A、對整個數(shù)組求和
B、對每一行求和
C、對第1列求和
D、對每一列求和
答案:B
28、已知f=exsiny,則等于()。
A、exsiny+excosy
B、exsinyex+exsinyey
C、exsinyex+excosyey
D>excosyex+excosyey
答案:C
29、NMS算法中文名為()
A、非極大值抑制
B、非極小值抑制
C、極大值抑制
D、極小值抑制
答案:A
30^TenSOrFloW程序開發(fā)時經(jīng)常會使用到PlaCehOlder,PlaCehOlder是
指
A、常量
B、變量
C>張量
D、占位符
答案:D
31、隨機(jī)森林是Bagging的一個擴(kuò)展變體,它在以決策樹為基學(xué)習(xí)器構(gòu)建
Bagging集成的基礎(chǔ)上,進(jìn)一步在決策樹的訓(xùn)練過程中引入了()選擇。
A、隨機(jī)屬性
B、分支屬性
C、機(jī)器屬性
D、以上都不對
答案:A
32、下列哪一項在神經(jīng)網(wǎng)絡(luò)中引入了非線性?
A、隨機(jī)梯度下降
B、修正線性單元(ReLU)
C、卷積函數(shù)
D、以上都不正確
答案:B
33、()是人工智能地核心,是使計算機(jī)具有智能地主要方法,其應(yīng)用遍及
人工智能地各個領(lǐng)域。
A、深度學(xué)習(xí)
B、機(jī)器學(xué)習(xí)
C、人機(jī)交互
D、智能芯片
答案:B
34、AI的是哪兩個英文單詞的縮寫
A、AutomaticIntelligence
B、ArtificialIntelligence
C、AutomaticInformation
D、ArtificialInformation
答案:B
35、關(guān)于RBF神經(jīng)網(wǎng)絡(luò)描述錯誤的是(__)
A、單隱層前饋神經(jīng)網(wǎng)絡(luò);
B、隱層神經(jīng)元激活函數(shù)為徑向基函數(shù);
C、輸出層是對隱層神經(jīng)元輸出的非線性組合;
D、可利用BP算法來進(jìn)行參數(shù)優(yōu)化;
答案:C
36、()就是指分類任務(wù)中不同類別的訓(xùn)練樣例數(shù)目差別很大的情況
A、類別不平衡
B、類別不相同
C、類別不對等
D、類別數(shù)不同
答案:A
37、下列快捷鍵中能夠中斷(InterruptExecution)Python程序運行的
A、F6
B、Ctrl+Q
C、Ctrl+C
D、Ctrl+F6
答案:c
38、人工神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)中()主要采用反向傳播算法。
A、單元學(xué)習(xí)算法
B、多層網(wǎng)絡(luò)學(xué)習(xí)
C、決策樹學(xué)習(xí)
D、概念學(xué)習(xí)
答案:B
39、關(guān)于k折交叉驗證,下列說法正確的是?()
A、k值并不是越大越好,k值過大,會降低運算速度
B、選擇更大的k值,會讓偏差更小,因為k值越大,訓(xùn)練集越接近整個訓(xùn)
練樣本
C、選擇合適的k值,能減小驗方差
D、以上說法都正確
答案:D
40、將輸出標(biāo)記的對數(shù)作為線性模型逼近的目標(biāo)是
A、對數(shù)幾率回歸
B、對數(shù)線性回歸
C、極大似然法
D、正則化
答案:B
41、主成分分析是一種數(shù)據(jù)降維和去除相關(guān)性的方法,它通過。將向量
投影到低維空間。
A、線性變換
B、非線性變換
C、拉布拉斯變換
D、Z變換
答案:A
42、在神經(jīng)網(wǎng)絡(luò)中,我們是通過以下哪個方法在訓(xùn)練網(wǎng)絡(luò)的時候更新參數(shù),
從而最小化損失函數(shù)的?
A、正向傳播算法
B、池化計算
C、卷積計算
D、反向傳播算法
答案:D
43、某二叉樹的前序序列為ABDECFG,中序序列為DBEAFCG,則后序序列為
A、DEBFGCA
B、DBEFCGA
C、BDECFGA
D、DEFGBCA
答案:A
44、據(jù)WardMO(2010)的研究,超過()的人腦功能用于視覺信息的處理,
視覺信息的處理是人腦的最主要功能之一
A、0.45
B、0.55
C、0.5
D、$0.75
答案:C
45、()技術(shù)可以將所有數(shù)據(jù)的特性通過圖的方式展現(xiàn)出來。
A、支持向量機(jī)
B、神經(jīng)網(wǎng)絡(luò)
C、數(shù)據(jù)可視化
D、數(shù)據(jù)挖掘
答案:C
46、關(guān)于正態(tài)分布,下列說法錯誤的是
A、正態(tài)分布具有集中性和對稱性
B、正態(tài)分布的均值和方差能夠決定正態(tài)分布的位置和形態(tài)
C、正態(tài)分布的偏度為0,峰度為1
D、標(biāo)準(zhǔn)正態(tài)分布的均值為0,方差為1
答案:C
47、關(guān)于語音識別服務(wù)中的一句話識別指的是,用于短語音的同步識別。
一次性上傳整個音頻,響應(yīng)中即返回識別結(jié)果。
A、TRUE
B、FALSE
答案:A
48、利用計算機(jī)來模擬人類的某些思維活動,如醫(yī)療診斷、定理證明,這
些應(yīng)用屬于()
A、數(shù)值計算
B、自動控制
C、人工智能
D、模擬仿真
答案:C
49、在一個神經(jīng)網(wǎng)絡(luò)中,知道每一個神經(jīng)元的權(quán)重和偏差是最重要的一步。
如果知道了神經(jīng)元準(zhǔn)確的權(quán)重和偏差,便可以近似任何函數(shù),但怎么獲知每個
神經(jīng)的權(quán)重和偏移呢?
A、搜索每個可能的權(quán)重和偏差組合,直到得到最佳值
B、賦予一個初始值,然后檢查跟最佳值的差值,不斷迭代調(diào)整權(quán)重
C、隨機(jī)賦值,聽天由命
D、以上都不正確的
答案:B
50、SOM網(wǎng)絡(luò)是一種O的無監(jiān)督神經(jīng)網(wǎng)絡(luò),它能將高維輸入數(shù)據(jù)映射到低
維空間。
A、競爭學(xué)習(xí)型
B、增量學(xué)習(xí)型
C、在線學(xué)習(xí)型
D、匹配學(xué)習(xí)型
答案:A
51、下列哪行PythOn代碼有語法錯誤()
A、forsubitem:al!Items:
B、forkey,valueinip_map:
Cywithopensrc_file,,r,asread_stream:
D、read_stream=opensrc_file,,r,
答案:A
52、一階規(guī)則的基本成分是(__)
A、原子命題
B、謂詞
C、量詞
D、原子公式
答案:D
53>在PythOn中,x=[ll,8,7,2,3],x.insert(4,[4,5]),列表X的值為
Oo
A、11,8,7,2,4,5],3]
B、11,8,7,2,4,5,3]
C、11,8,7,4,5],2,3]
D、11,8,7,4,5,2,3]
答案:A
54、在一個神經(jīng)網(wǎng)絡(luò)中,下面哪種方法可以用來處理過擬合?
A、Dropout
B、分批歸一化BatChNormalization
C、正則化regularization
D、都可以
答案:D
55、下列關(guān)于冗余特征的說法錯誤的是()
A、冗余特征是可以通過其他特征推演出來的特征
B、冗余特征是無用的特征
C、冗余特征有時候可以降低學(xué)習(xí)任務(wù)的難度
D、去除冗余特征可以減輕學(xué)習(xí)過程的負(fù)擔(dān)
答案:B
56、下列不屬于深度學(xué)習(xí)內(nèi)容的是
A、深度置信網(wǎng)絡(luò)
B、受限玻爾茲曼機(jī)
C、卷積神經(jīng)網(wǎng)絡(luò)
D、貝葉斯學(xué)習(xí)
答案:D
57、()方法用于返回當(dāng)前工作目錄。
A、os.chdir
B、os.removedirs
C、os.getcwd
D、os.rename
答案:C
58、一種將數(shù)據(jù)轉(zhuǎn)換成信息的分析過程叫做0。
A、描述性分析
B、診斷性分析
C、預(yù)測性分析
D、規(guī)范性分析
答案:A
59、假如你在訓(xùn)練一個線性回歸模型,有下面兩句話:①如果數(shù)據(jù)量較少,
容易發(fā)生過擬合。②如果假設(shè)空間較小,容易發(fā)生過擬合。關(guān)于這兩句話,下
列說法正確的是?
A、①和②都錯誤
B、①正確,②錯誤
C、①錯誤,②正確
D、①和②都正確
答案:B
60、已知
a={"fruits”:Pear,“animals”:dog,“vegetables”:CarrOt},則
a["animals"]的值為()
A、pear
B、dog
C、carrot
D、以上選項均不正確
答案:B
61、以下選項中,不是Python語言保留字的是
A、while
B、except
C>do
D、pass
答案:c
62、關(guān)于“與/或”圖表示知識的敘述,錯誤的有。
A、用“與/或”圖表示知識方便使用程序設(shè)計語言表達(dá),也便于計算機(jī)存
儲處理。
B、“與/或”圖表示知識時一定同時有“與節(jié)點”和“或節(jié)點”。
C、“與/或”圖能方便地表示陳述性知識和過程性知識。
D、能用“與/或”圖表示的知識不適宜用其他方法表示。
答案:D
63、下面哪條命令可以把fl.txt復(fù)制為f2.txt?O
A、cpfl.txtIf2.txt
B、catfl.txtIf2.txt
C、catfl.txt>f2.txt
D、copyfl.txtIf2.txt
答案:C
64、下列()不是建立專家系統(tǒng)的一般步驟
A、設(shè)計初始知識庫
B、排序與查詢
C、原型機(jī)的開發(fā)
D、知識庫的改進(jìn)與歸納
答案:B
65、在NoSQL數(shù)據(jù)庫的復(fù)制機(jī)制中,“主從復(fù)制”是將數(shù)據(jù)復(fù)制到多個節(jié)
點,用戶可以讀取該節(jié)點的數(shù)據(jù),但不能直接更新它,此類節(jié)點為0。
A、Main節(jié)點
B、Master節(jié)點
C、Slave節(jié)點
D、Save節(jié)點
答案:c
66、一個完整機(jī)器學(xué)習(xí)項目需要以下哪些流程?①抽象成數(shù)學(xué)問題②獲取
數(shù)據(jù)③特征預(yù)處理與特征選擇④訓(xùn)練模型與調(diào)優(yōu)⑤模型診斷與融合⑥上線運行
A、①②③④⑤
B、②③④⑤⑥
C、①②③④⑤⑥
D、①②④⑤⑥
答案:C
67、貝葉斯網(wǎng)絡(luò)是基于概率推理的()模型。
A、數(shù)據(jù)
B、數(shù)學(xué)
C、判斷
D、圖形
答案:B
68、從加工程度看,以下。屬于數(shù)據(jù)產(chǎn)品中的決策類產(chǎn)品。
A、戰(zhàn)略規(guī)劃
B、咨詢報告
C、Apps
D、數(shù)據(jù)庫
答案:A
69、()是概率框架下實施決策的基本方法。
A、決策樹
B、神經(jīng)網(wǎng)絡(luò)
C、貝葉斯決策論
D、支持向量機(jī)
答案:C
70、前饋神經(jīng)網(wǎng)絡(luò)是一種簡單的神經(jīng)網(wǎng)絡(luò),各神經(jīng)元分層排列,是目前應(yīng)
用最廣泛,發(fā)展最迅速的人工神經(jīng)網(wǎng)絡(luò)之一。以下關(guān)于前饋神經(jīng)網(wǎng)絡(luò)說法正確
的是:
A、具備計算能力的神經(jīng)元與上下兩層相連
B、其輸入節(jié)點具備計算能力
C、同一層神經(jīng)元相互連接
D、層間信息只沿個方向傳遞
答案:D
71、規(guī)則生成本質(zhì)上是一個貪心搜索的過程,須有一定的機(jī)制來緩解過擬
合的風(fēng)險,最常見的做法是(_)
A、序列化
B、剪枝
C、去重
D、重組
答案:B
72、關(guān)聯(lián)規(guī)則反映了事物之間的相互依賴性或關(guān)聯(lián)性。關(guān)聯(lián)規(guī)則主要可分
為()類
A、3
B、4
C、5
D、$6
答案:A
73、在機(jī)器學(xué)習(xí)建模過程中對原始數(shù)據(jù)集的劃分不包括
A、trainingset
B、testset
C、validationset
D、verificationset
答案:D
74、Python3中獲取用戶輸入并默認(rèn)以字符串存儲的函數(shù)是()
A、raw_input
B、input
C、raw
D>print
答案:B
75、通常池化操作的效果是:
A、使圖片變大
B、使圖片變小
C、使圖片變成三角形
D、使圖片變成圓形
答案:B
76、在PythOn中,下列哪種說法是錯誤的()。
A、除字典類型外,所有標(biāo)準(zhǔn)對象均可以用于布爾測試
B、空字符串的布爾值是FalSe
C、空列表對象的布爾值是FaISe
D、值為O的數(shù)值型數(shù)據(jù)的布爾值是FaISe
答案:A
77、以下不屬于對抗生成網(wǎng)絡(luò)的應(yīng)用是?
A、文字生成
B、圖像生成
C、圖像識別
D、數(shù)據(jù)增強(qiáng)
答案:C
78、下列選項中昇騰310和昇騰910屬性相同的是?
A、最大功率
B、架構(gòu)
C、整數(shù)精度
D、7nm制程
答案:B
79、什么是KDD?()
A、數(shù)據(jù)挖掘與知識發(fā)現(xiàn)
B、領(lǐng)域知識發(fā)現(xiàn)
C、文檔知識發(fā)現(xiàn)
D、動態(tài)知識發(fā)現(xiàn)
答案:A
80、考慮值集{12243324556826},其四分位數(shù)極差是
A、31
B、24
C、55
D、3
答案:A
81、下面哪個是PythOn中的不變的數(shù)據(jù)結(jié)構(gòu)()。
A、set
B、list
C、tuple
D、diet
答案:C
82、假設(shè)你需要調(diào)整超參數(shù)來最小化代價函數(shù)(CoStfunction),會使用
下列哪項技術(shù)?
A、窮舉搜索
B、隨機(jī)搜索
C、Bayesian優(yōu)化
D、都可以
答案:D
83、下列度量不具有反演性的是()
A、系數(shù)
B、幾率
C、Cohen度量
D、興趣因子
答案:D
84、O的神經(jīng)形態(tài)芯片已經(jīng)可以搭建較大規(guī)模的類腦計算系統(tǒng),為類腦
計算模型提供快速運行平臺。
A、基于腦電波神經(jīng)網(wǎng)絡(luò)
B、基于脈沖神經(jīng)網(wǎng)絡(luò)
C、基于腦回路神經(jīng)網(wǎng)絡(luò)
D、基于類腦神經(jīng)網(wǎng)絡(luò)
答案:B
85、正式提出人工智能(artificialintelligence,AD這個術(shù)語并把
它作為一門新興科學(xué)的名稱實在哪一年。
A、1956
B、1960年
C、1965年
D、1980年
答案:A
86、創(chuàng)建一個3x3并且值從0到8的矩陣
A、np.arange9
B、np.arange9.reshape3,3
C、np.arange9.reshape8
D、np.arange8.reshape8
答案:B
87、()是科學(xué)推理的兩大基本手段。
A、歸納和演繹
B、歸納和泛化
C、歸納和特化
D、演繹和泛化
答案:A
88、語義網(wǎng)絡(luò)表達(dá)知識時,有向弧AKo鏈、ISA鏈?zhǔn)怯脕肀磉_(dá)節(jié)點知識的
A、無悖性
B、可擴(kuò)充性
C、繼承性
D、連貫性
答案:C
89、下列關(guān)于聚類算法的說法,正確的是()
A、聚類算法通常用于在知道類別的情況下,把樣本按照樣本之間的相似性
等分成不同的類別
B、聚類算法是一種監(jiān)督學(xué)習(xí)算法
C、聚類算法可以用于回歸問題
D、聚類算法通常用于在不知道類別的情況下,把樣本按照樣本之間的相似
性等分成不同的類別
答案:D
90、SCikitTearn用于訓(xùn)練模型的函數(shù)接口為O
A、Fit
B、fit
C、Train
D、train
答案:B
91、下列關(guān)于LARS算法的說法正確的是(_)
A、每次選擇一個與殘差相關(guān)性最大的特征
B、是一種包裹式特征選擇法
C、基于線性回歸平絕對誤差最小化
D、是通過對LASSO稍加修改而實現(xiàn)
答案:A
92、在廢棄階段
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 親子繪畫服裝租賃協(xié)議模板
- 廣告牌安裝機(jī)械施工合同
- 基酒加工合同范例
- 手機(jī)置換合同范例
- 代理記賬合伙合同范例
- 安裝維護(hù)合同范例
- 彩鋼瓦安裝質(zhì)保合同范例
- 山林贈與合同范例
- 斷橋窗戶定制合同模板
- 承包農(nóng)民公寓合同范例
- 第五單元測試卷(單元測試)2024-2025學(xué)年統(tǒng)編版語文四年級上冊
- 《金融科技概論(第二版)》高職全套教學(xué)課件
- 風(fēng)力發(fā)電項目施工方案
- 前程無憂行測題庫及答案大全
- (2024年)傳染病培訓(xùn)課件
- 沙盤游戲大綱
- 物理化學(xué)實驗B智慧樹知到課后章節(jié)答案2023年下北京科技大學(xué)
- 實驗室安全準(zhǔn)入教育(通識A課程)學(xué)習(xí)通超星課后章節(jié)答案期末考試題庫2023年
- 濾波器出廠試驗報告
- 無機(jī)及分析化學(xué)考試題(附答案)
- 臥式車床電氣控制電路設(shè)計畢業(yè)設(shè)計
評論
0/150
提交評論