人工智能考試題庫含答案_第1頁
人工智能考試題庫含答案_第2頁
人工智能考試題庫含答案_第3頁
人工智能考試題庫含答案_第4頁
人工智能考試題庫含答案_第5頁
已閱讀5頁,還剩14頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)

文檔簡介

人工智能考試題庫含答案

1、用樹形結(jié)構(gòu)來表示實體之間聯(lián)系的模型稱為

A、關(guān)系模型

B、層次模型

C、網(wǎng)狀模型

D、數(shù)據(jù)模型

答案:B

2、實現(xiàn)多路分支的最佳控制結(jié)構(gòu)是

A、if

B、try

C、if-elif-else

D、if-else

答案:c

3、前饋神經(jīng)網(wǎng)絡(luò)通過誤差后向傳播(BP算法)進(jìn)行參數(shù)學(xué)習(xí),這是一種

()機(jī)器學(xué)習(xí)手段

A、監(jiān)督學(xué)習(xí)

B、無監(jiān)督學(xué)習(xí)

C、半監(jiān)督學(xué)習(xí)

D、無監(jiān)督學(xué)習(xí)和監(jiān)督學(xué)習(xí)的結(jié)合

答案:A

4、決策管理系統(tǒng)幫助用戶制定、細(xì)化、實施、。各種決策,并將這些決策

引入具體的環(huán)境中發(fā)揮作用。

A、核對

B、驗證

C、檢驗

D、跟蹤

答案:D

5、決策樹學(xué)習(xí)的關(guān)鍵是如何從候選屬性集中選擇一個最有助于分類實例的

屬性,而其選擇是以()為依據(jù)的

A、分類

B、聚類

C、概率

D、信息蠟

答案:D

6、變量的不確定性越大,相對應(yīng)信息端有什么變化()

A、嫡變小

B、熠變大

C、不變

D、以上都不對

答案:B

7、對于線性不可分的數(shù)據(jù),支持向量機(jī)的解決方式是O

A、軟間隔

B、硬間隔

C、核函數(shù)

D、以上選項均不正確

答案:C

8、貝葉斯學(xué)習(xí)是一種以貝葉斯法則為基礎(chǔ)的,并通過。手段進(jìn)行學(xué)習(xí)的方

法。

A、邏輯

B、概率

C、推理

D、假定

答案:B

9、TensorFlow2.0中可用于張量合并的方法有?

A、join

B、concat

C、split

D、unstack

答案:B

10、如果在大型數(shù)據(jù)集上訓(xùn)練決策樹。為了花費更少的時間來訓(xùn)練這個模

型,下列哪種做法是正確的

A、增加樹的深度

B、增加學(xué)習(xí)率

C、減少樹的數(shù)量

D、減小樹的深度

答案:D

Ik假設(shè)你使用IogToSS函數(shù)作為評估標(biāo)準(zhǔn)。下面這些選項,哪些是對作

為評估標(biāo)準(zhǔn)的log-loss的正確解釋。。

A、如果一個分類器對不正確的分類很自信,IogToss會嚴(yán)重的批評它。

B、對一個特別的觀察而言,分類器為正確的類別分配非常小的概率,然后

對log-loss的相應(yīng)分布會非常大。

C?log-loss越低,模型越好

D、以上都是

答案:D

12、如果一個訓(xùn)練好的模型在測試集上有100%的準(zhǔn)確率,這是不是意味著

在一個新的數(shù)據(jù)集上,也會有同樣好的表現(xiàn)?

A、是的,這說明這個模型的范化能力已經(jīng)足以支持新的數(shù)據(jù)集合了

B、不對,依然后其他因素模型沒有考慮到,比如噪音數(shù)據(jù)

答案:B

13、人工智能中通常把。作為衡量機(jī)器智能的準(zhǔn)則。

A、圖靈機(jī)

B、圖靈測試

C、中文屋實驗

D、人類智能

答案:B

14、()城市大腦目前已在杭州、蘇州、上海、衢州、澳門、馬來西亞等

城市和國家落地,覆蓋交通、平安、市政建設(shè)、城市規(guī)劃等領(lǐng)域,是目前全球

最大規(guī)模的人工智能公共系統(tǒng)之一。

A、浪潮云

B、華為云

C、阿里云

D、海爾云

答案:C

15、假定你在神經(jīng)網(wǎng)絡(luò)中的隱藏層中使用激活函數(shù)Xo在特定神經(jīng)元給定

任意輸入,你會得到輸出「-0.0001」。X可能是以下哪一個激活函數(shù)?

A、ReLU

B、tanh

C、SIGMOID

D、以上都不是

答案:B

16、。庫是一個具有強(qiáng)大圖像處理能力的第三方庫。用途:圖像處理.

A、numpy

B、pandas

C、Matplotlib

D、PIL

答案:D

17、標(biāo)準(zhǔn)循環(huán)神經(jīng)網(wǎng)絡(luò)隱含層的輸入對于網(wǎng)絡(luò)輸出的影響隨時間

A、不斷遞歸而衰退

B、不斷遞歸而增強(qiáng)

C、先增強(qiáng)后減弱

D、先減弱后增強(qiáng)

答案:A

18、如何選取合適的卷積核大小?

A、分布范圍廣一->較小的卷積核,大的感受野

B、分布范圍小一->較小的卷積核,小的感受野

C、分布范圍小一->較大的卷積核,小的感受野

D、分布范圍大一-〉較小的卷積核,小的感受野

答案:B

19、以下不屬于聚類算法的是()。

A、K均值

B、SAN

C、Apriori

D、Jarvis-Patrik(JP)

答案:C

20、關(guān)于Python程序設(shè)計語言,下列說法不正確的是()

A、python源文件以***.py為擴(kuò)展名

B、python的默認(rèn)交互提示符是:>>>

C、PythOn只能在文件模式中編寫代碼

D、Python具有豐富和強(qiáng)大的模塊

答案:C

21、下列關(guān)于MaPRedUCe說法不正確的是()。

A?MapReduce是一種計算框架

B、MapReduce來源于google的學(xué)術(shù)論文

C、MaPRedUCe程序只能用java語言編寫

D、MaPRedUCe隱藏了并行計算的細(xì)節(jié),方便使用

答案:C

22、將數(shù)值類型的屬性值(如年齡)用區(qū)間標(biāo)簽(例如0~18、19-44、

45~59和60~100等)或概念標(biāo)簽,稱為數(shù)據(jù)()處理。

A、離散化

B、標(biāo)準(zhǔn)化

C、特征構(gòu)造

D、聚集

答案:A

23、LVW屬于哪種特征選擇方法(—)

A、包裹式

B、啟發(fā)式

C、嵌入式

D、過濾式

答案:A

24、用numpy創(chuàng)建單位矩陣使用。

A、np.identity

B、np.ones

C、np.random,rand

D、np.arange

答案:A

25、強(qiáng)化學(xué)習(xí)的基礎(chǔ)模型是()模型

A、馬可夫決策&

B、&貝葉斯&

C、&HMM&

D、&最大后驗概率

答案:A

26、人工智能的三個階段包含了計算智能、()、認(rèn)知智能。

A、弱人工智能

B、感知智能

C、行為智能

D、強(qiáng)人工智能

答案:B

27、語句np.sum(arr3,axis=l)的作用是()?注:(已導(dǎo)入numpy庫)

Importnumpyasnp

A、對整個數(shù)組求和

B、對每一行求和

C、對第1列求和

D、對每一列求和

答案:B

28、已知f=exsiny,則等于()。

A、exsiny+excosy

B、exsinyex+exsinyey

C、exsinyex+excosyey

D>excosyex+excosyey

答案:C

29、NMS算法中文名為()

A、非極大值抑制

B、非極小值抑制

C、極大值抑制

D、極小值抑制

答案:A

30^TenSOrFloW程序開發(fā)時經(jīng)常會使用到PlaCehOlder,PlaCehOlder是

A、常量

B、變量

C>張量

D、占位符

答案:D

31、隨機(jī)森林是Bagging的一個擴(kuò)展變體,它在以決策樹為基學(xué)習(xí)器構(gòu)建

Bagging集成的基礎(chǔ)上,進(jìn)一步在決策樹的訓(xùn)練過程中引入了()選擇。

A、隨機(jī)屬性

B、分支屬性

C、機(jī)器屬性

D、以上都不對

答案:A

32、下列哪一項在神經(jīng)網(wǎng)絡(luò)中引入了非線性?

A、隨機(jī)梯度下降

B、修正線性單元(ReLU)

C、卷積函數(shù)

D、以上都不正確

答案:B

33、()是人工智能地核心,是使計算機(jī)具有智能地主要方法,其應(yīng)用遍及

人工智能地各個領(lǐng)域。

A、深度學(xué)習(xí)

B、機(jī)器學(xué)習(xí)

C、人機(jī)交互

D、智能芯片

答案:B

34、AI的是哪兩個英文單詞的縮寫

A、AutomaticIntelligence

B、ArtificialIntelligence

C、AutomaticInformation

D、ArtificialInformation

答案:B

35、關(guān)于RBF神經(jīng)網(wǎng)絡(luò)描述錯誤的是(__)

A、單隱層前饋神經(jīng)網(wǎng)絡(luò);

B、隱層神經(jīng)元激活函數(shù)為徑向基函數(shù);

C、輸出層是對隱層神經(jīng)元輸出的非線性組合;

D、可利用BP算法來進(jìn)行參數(shù)優(yōu)化;

答案:C

36、()就是指分類任務(wù)中不同類別的訓(xùn)練樣例數(shù)目差別很大的情況

A、類別不平衡

B、類別不相同

C、類別不對等

D、類別數(shù)不同

答案:A

37、下列快捷鍵中能夠中斷(InterruptExecution)Python程序運行的

A、F6

B、Ctrl+Q

C、Ctrl+C

D、Ctrl+F6

答案:c

38、人工神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)中()主要采用反向傳播算法。

A、單元學(xué)習(xí)算法

B、多層網(wǎng)絡(luò)學(xué)習(xí)

C、決策樹學(xué)習(xí)

D、概念學(xué)習(xí)

答案:B

39、關(guān)于k折交叉驗證,下列說法正確的是?()

A、k值并不是越大越好,k值過大,會降低運算速度

B、選擇更大的k值,會讓偏差更小,因為k值越大,訓(xùn)練集越接近整個訓(xùn)

練樣本

C、選擇合適的k值,能減小驗方差

D、以上說法都正確

答案:D

40、將輸出標(biāo)記的對數(shù)作為線性模型逼近的目標(biāo)是

A、對數(shù)幾率回歸

B、對數(shù)線性回歸

C、極大似然法

D、正則化

答案:B

41、主成分分析是一種數(shù)據(jù)降維和去除相關(guān)性的方法,它通過。將向量

投影到低維空間。

A、線性變換

B、非線性變換

C、拉布拉斯變換

D、Z變換

答案:A

42、在神經(jīng)網(wǎng)絡(luò)中,我們是通過以下哪個方法在訓(xùn)練網(wǎng)絡(luò)的時候更新參數(shù),

從而最小化損失函數(shù)的?

A、正向傳播算法

B、池化計算

C、卷積計算

D、反向傳播算法

答案:D

43、某二叉樹的前序序列為ABDECFG,中序序列為DBEAFCG,則后序序列為

A、DEBFGCA

B、DBEFCGA

C、BDECFGA

D、DEFGBCA

答案:A

44、據(jù)WardMO(2010)的研究,超過()的人腦功能用于視覺信息的處理,

視覺信息的處理是人腦的最主要功能之一

A、0.45

B、0.55

C、0.5

D、$0.75

答案:C

45、()技術(shù)可以將所有數(shù)據(jù)的特性通過圖的方式展現(xiàn)出來。

A、支持向量機(jī)

B、神經(jīng)網(wǎng)絡(luò)

C、數(shù)據(jù)可視化

D、數(shù)據(jù)挖掘

答案:C

46、關(guān)于正態(tài)分布,下列說法錯誤的是

A、正態(tài)分布具有集中性和對稱性

B、正態(tài)分布的均值和方差能夠決定正態(tài)分布的位置和形態(tài)

C、正態(tài)分布的偏度為0,峰度為1

D、標(biāo)準(zhǔn)正態(tài)分布的均值為0,方差為1

答案:C

47、關(guān)于語音識別服務(wù)中的一句話識別指的是,用于短語音的同步識別。

一次性上傳整個音頻,響應(yīng)中即返回識別結(jié)果。

A、TRUE

B、FALSE

答案:A

48、利用計算機(jī)來模擬人類的某些思維活動,如醫(yī)療診斷、定理證明,這

些應(yīng)用屬于()

A、數(shù)值計算

B、自動控制

C、人工智能

D、模擬仿真

答案:C

49、在一個神經(jīng)網(wǎng)絡(luò)中,知道每一個神經(jīng)元的權(quán)重和偏差是最重要的一步。

如果知道了神經(jīng)元準(zhǔn)確的權(quán)重和偏差,便可以近似任何函數(shù),但怎么獲知每個

神經(jīng)的權(quán)重和偏移呢?

A、搜索每個可能的權(quán)重和偏差組合,直到得到最佳值

B、賦予一個初始值,然后檢查跟最佳值的差值,不斷迭代調(diào)整權(quán)重

C、隨機(jī)賦值,聽天由命

D、以上都不正確的

答案:B

50、SOM網(wǎng)絡(luò)是一種O的無監(jiān)督神經(jīng)網(wǎng)絡(luò),它能將高維輸入數(shù)據(jù)映射到低

維空間。

A、競爭學(xué)習(xí)型

B、增量學(xué)習(xí)型

C、在線學(xué)習(xí)型

D、匹配學(xué)習(xí)型

答案:A

51、下列哪行PythOn代碼有語法錯誤()

A、forsubitem:al!Items:

B、forkey,valueinip_map:

Cywithopensrc_file,,r,asread_stream:

D、read_stream=opensrc_file,,r,

答案:A

52、一階規(guī)則的基本成分是(__)

A、原子命題

B、謂詞

C、量詞

D、原子公式

答案:D

53>在PythOn中,x=[ll,8,7,2,3],x.insert(4,[4,5]),列表X的值為

Oo

A、11,8,7,2,4,5],3]

B、11,8,7,2,4,5,3]

C、11,8,7,4,5],2,3]

D、11,8,7,4,5,2,3]

答案:A

54、在一個神經(jīng)網(wǎng)絡(luò)中,下面哪種方法可以用來處理過擬合?

A、Dropout

B、分批歸一化BatChNormalization

C、正則化regularization

D、都可以

答案:D

55、下列關(guān)于冗余特征的說法錯誤的是()

A、冗余特征是可以通過其他特征推演出來的特征

B、冗余特征是無用的特征

C、冗余特征有時候可以降低學(xué)習(xí)任務(wù)的難度

D、去除冗余特征可以減輕學(xué)習(xí)過程的負(fù)擔(dān)

答案:B

56、下列不屬于深度學(xué)習(xí)內(nèi)容的是

A、深度置信網(wǎng)絡(luò)

B、受限玻爾茲曼機(jī)

C、卷積神經(jīng)網(wǎng)絡(luò)

D、貝葉斯學(xué)習(xí)

答案:D

57、()方法用于返回當(dāng)前工作目錄。

A、os.chdir

B、os.removedirs

C、os.getcwd

D、os.rename

答案:C

58、一種將數(shù)據(jù)轉(zhuǎn)換成信息的分析過程叫做0。

A、描述性分析

B、診斷性分析

C、預(yù)測性分析

D、規(guī)范性分析

答案:A

59、假如你在訓(xùn)練一個線性回歸模型,有下面兩句話:①如果數(shù)據(jù)量較少,

容易發(fā)生過擬合。②如果假設(shè)空間較小,容易發(fā)生過擬合。關(guān)于這兩句話,下

列說法正確的是?

A、①和②都錯誤

B、①正確,②錯誤

C、①錯誤,②正確

D、①和②都正確

答案:B

60、已知

a={"fruits”:Pear,“animals”:dog,“vegetables”:CarrOt},則

a["animals"]的值為()

A、pear

B、dog

C、carrot

D、以上選項均不正確

答案:B

61、以下選項中,不是Python語言保留字的是

A、while

B、except

C>do

D、pass

答案:c

62、關(guān)于“與/或”圖表示知識的敘述,錯誤的有。

A、用“與/或”圖表示知識方便使用程序設(shè)計語言表達(dá),也便于計算機(jī)存

儲處理。

B、“與/或”圖表示知識時一定同時有“與節(jié)點”和“或節(jié)點”。

C、“與/或”圖能方便地表示陳述性知識和過程性知識。

D、能用“與/或”圖表示的知識不適宜用其他方法表示。

答案:D

63、下面哪條命令可以把fl.txt復(fù)制為f2.txt?O

A、cpfl.txtIf2.txt

B、catfl.txtIf2.txt

C、catfl.txt>f2.txt

D、copyfl.txtIf2.txt

答案:C

64、下列()不是建立專家系統(tǒng)的一般步驟

A、設(shè)計初始知識庫

B、排序與查詢

C、原型機(jī)的開發(fā)

D、知識庫的改進(jìn)與歸納

答案:B

65、在NoSQL數(shù)據(jù)庫的復(fù)制機(jī)制中,“主從復(fù)制”是將數(shù)據(jù)復(fù)制到多個節(jié)

點,用戶可以讀取該節(jié)點的數(shù)據(jù),但不能直接更新它,此類節(jié)點為0。

A、Main節(jié)點

B、Master節(jié)點

C、Slave節(jié)點

D、Save節(jié)點

答案:c

66、一個完整機(jī)器學(xué)習(xí)項目需要以下哪些流程?①抽象成數(shù)學(xué)問題②獲取

數(shù)據(jù)③特征預(yù)處理與特征選擇④訓(xùn)練模型與調(diào)優(yōu)⑤模型診斷與融合⑥上線運行

A、①②③④⑤

B、②③④⑤⑥

C、①②③④⑤⑥

D、①②④⑤⑥

答案:C

67、貝葉斯網(wǎng)絡(luò)是基于概率推理的()模型。

A、數(shù)據(jù)

B、數(shù)學(xué)

C、判斷

D、圖形

答案:B

68、從加工程度看,以下。屬于數(shù)據(jù)產(chǎn)品中的決策類產(chǎn)品。

A、戰(zhàn)略規(guī)劃

B、咨詢報告

C、Apps

D、數(shù)據(jù)庫

答案:A

69、()是概率框架下實施決策的基本方法。

A、決策樹

B、神經(jīng)網(wǎng)絡(luò)

C、貝葉斯決策論

D、支持向量機(jī)

答案:C

70、前饋神經(jīng)網(wǎng)絡(luò)是一種簡單的神經(jīng)網(wǎng)絡(luò),各神經(jīng)元分層排列,是目前應(yīng)

用最廣泛,發(fā)展最迅速的人工神經(jīng)網(wǎng)絡(luò)之一。以下關(guān)于前饋神經(jīng)網(wǎng)絡(luò)說法正確

的是:

A、具備計算能力的神經(jīng)元與上下兩層相連

B、其輸入節(jié)點具備計算能力

C、同一層神經(jīng)元相互連接

D、層間信息只沿個方向傳遞

答案:D

71、規(guī)則生成本質(zhì)上是一個貪心搜索的過程,須有一定的機(jī)制來緩解過擬

合的風(fēng)險,最常見的做法是(_)

A、序列化

B、剪枝

C、去重

D、重組

答案:B

72、關(guān)聯(lián)規(guī)則反映了事物之間的相互依賴性或關(guān)聯(lián)性。關(guān)聯(lián)規(guī)則主要可分

為()類

A、3

B、4

C、5

D、$6

答案:A

73、在機(jī)器學(xué)習(xí)建模過程中對原始數(shù)據(jù)集的劃分不包括

A、trainingset

B、testset

C、validationset

D、verificationset

答案:D

74、Python3中獲取用戶輸入并默認(rèn)以字符串存儲的函數(shù)是()

A、raw_input

B、input

C、raw

D>print

答案:B

75、通常池化操作的效果是:

A、使圖片變大

B、使圖片變小

C、使圖片變成三角形

D、使圖片變成圓形

答案:B

76、在PythOn中,下列哪種說法是錯誤的()。

A、除字典類型外,所有標(biāo)準(zhǔn)對象均可以用于布爾測試

B、空字符串的布爾值是FalSe

C、空列表對象的布爾值是FaISe

D、值為O的數(shù)值型數(shù)據(jù)的布爾值是FaISe

答案:A

77、以下不屬于對抗生成網(wǎng)絡(luò)的應(yīng)用是?

A、文字生成

B、圖像生成

C、圖像識別

D、數(shù)據(jù)增強(qiáng)

答案:C

78、下列選項中昇騰310和昇騰910屬性相同的是?

A、最大功率

B、架構(gòu)

C、整數(shù)精度

D、7nm制程

答案:B

79、什么是KDD?()

A、數(shù)據(jù)挖掘與知識發(fā)現(xiàn)

B、領(lǐng)域知識發(fā)現(xiàn)

C、文檔知識發(fā)現(xiàn)

D、動態(tài)知識發(fā)現(xiàn)

答案:A

80、考慮值集{12243324556826},其四分位數(shù)極差是

A、31

B、24

C、55

D、3

答案:A

81、下面哪個是PythOn中的不變的數(shù)據(jù)結(jié)構(gòu)()。

A、set

B、list

C、tuple

D、diet

答案:C

82、假設(shè)你需要調(diào)整超參數(shù)來最小化代價函數(shù)(CoStfunction),會使用

下列哪項技術(shù)?

A、窮舉搜索

B、隨機(jī)搜索

C、Bayesian優(yōu)化

D、都可以

答案:D

83、下列度量不具有反演性的是()

A、系數(shù)

B、幾率

C、Cohen度量

D、興趣因子

答案:D

84、O的神經(jīng)形態(tài)芯片已經(jīng)可以搭建較大規(guī)模的類腦計算系統(tǒng),為類腦

計算模型提供快速運行平臺。

A、基于腦電波神經(jīng)網(wǎng)絡(luò)

B、基于脈沖神經(jīng)網(wǎng)絡(luò)

C、基于腦回路神經(jīng)網(wǎng)絡(luò)

D、基于類腦神經(jīng)網(wǎng)絡(luò)

答案:B

85、正式提出人工智能(artificialintelligence,AD這個術(shù)語并把

它作為一門新興科學(xué)的名稱實在哪一年。

A、1956

B、1960年

C、1965年

D、1980年

答案:A

86、創(chuàng)建一個3x3并且值從0到8的矩陣

A、np.arange9

B、np.arange9.reshape3,3

C、np.arange9.reshape8

D、np.arange8.reshape8

答案:B

87、()是科學(xué)推理的兩大基本手段。

A、歸納和演繹

B、歸納和泛化

C、歸納和特化

D、演繹和泛化

答案:A

88、語義網(wǎng)絡(luò)表達(dá)知識時,有向弧AKo鏈、ISA鏈?zhǔn)怯脕肀磉_(dá)節(jié)點知識的

A、無悖性

B、可擴(kuò)充性

C、繼承性

D、連貫性

答案:C

89、下列關(guān)于聚類算法的說法,正確的是()

A、聚類算法通常用于在知道類別的情況下,把樣本按照樣本之間的相似性

等分成不同的類別

B、聚類算法是一種監(jiān)督學(xué)習(xí)算法

C、聚類算法可以用于回歸問題

D、聚類算法通常用于在不知道類別的情況下,把樣本按照樣本之間的相似

性等分成不同的類別

答案:D

90、SCikitTearn用于訓(xùn)練模型的函數(shù)接口為O

A、Fit

B、fit

C、Train

D、train

答案:B

91、下列關(guān)于LARS算法的說法正確的是(_)

A、每次選擇一個與殘差相關(guān)性最大的特征

B、是一種包裹式特征選擇法

C、基于線性回歸平絕對誤差最小化

D、是通過對LASSO稍加修改而實現(xiàn)

答案:A

92、在廢棄階段

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論