




版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
機(jī)器學(xué)習(xí)基礎(chǔ)知到智慧樹(shù)期末考試答案題庫(kù)2025年太原理工大學(xué)隨機(jī)梯度下降導(dǎo)致方向變化過(guò)大,不能很快收斂到最優(yōu)解。()
答案:對(duì)隨機(jī)梯度下降中每次迭代使用一個(gè)樣本的梯度。()
答案:對(duì)降維的優(yōu)點(diǎn)有哪些()
答案:減小訓(xùn)練時(shí)間;方便實(shí)現(xiàn)數(shù)據(jù)可視化;方便消除冗余特征邏輯回歸算法是一種廣義的線性回歸分析方法,它僅在線性回歸算法的基礎(chǔ)上,利用Sigmoid函數(shù)對(duì)事件發(fā)生的概率進(jìn)行預(yù)測(cè)。()。
答案:對(duì)邏輯回歸的特征一定是離散的。()。
答案:錯(cuò)設(shè)實(shí)矩陣A有SVD:A=UΣVT,則下列說(shuō)法錯(cuò)誤的是()。
答案:V的每行都是單位向量?訓(xùn)練完SVM模型后,不是支持向量的那些樣本我們可以丟掉,也可以繼續(xù)分類(lèi)。()
答案:對(duì)考慮一個(gè)有兩個(gè)屬性的logistic回歸問(wèn)題。假設(shè),則分類(lèi)決策平面是()。
答案:考慮一個(gè)有兩個(gè)屬性的logistic回歸問(wèn)題。假設(shè),則分類(lèi)決策平面是()。線性回歸是一種有監(jiān)督機(jī)器學(xué)習(xí)算法,它使用真實(shí)的標(biāo)簽進(jìn)行訓(xùn)練。()
答案:對(duì)線性回歸方程中,回歸系數(shù)b為負(fù)數(shù),表明自變量與因變量為()
答案:負(fù)相關(guān)線性回歸中加入正則化可以降低過(guò)擬合。()
答案:對(duì)線性回歸中,我們可以使用最小二乘法來(lái)求解系數(shù),下列關(guān)于最小二乘法說(shuō)法正確的是()。
答案:只適用于線性模型,不適合邏輯回歸模型等其他模型;不需要選擇學(xué)習(xí)率;當(dāng)特征值很多的時(shí)候,運(yùn)算速率會(huì)很慢;不需要迭代訓(xùn)練現(xiàn)有一個(gè)能被正確分類(lèi)且遠(yuǎn)離超平面的樣本,如果將其刪除,不會(huì)影響超平面的選擇。()
答案:對(duì)特征空間越大,過(guò)擬合的可能性越大。()
答案:對(duì)特征工程非常重要,在采用機(jī)器學(xué)習(xí)算法前,首先需要利用特征工程確定樣本屬性。()
答案:對(duì)梯度下降法中,梯度要加一個(gè)負(fù)號(hào)的原因是()。
答案:梯度方向是上升最快方向,負(fù)號(hào)就是下降最快方向梯度下降,就是沿著函數(shù)的梯度(導(dǎo)數(shù))方向更新自變量,使得函數(shù)的取值越來(lái)越小,直至達(dá)到全局最小或者局部最小。()
答案:對(duì)梯度上升方法可以求解全局最大或者局部最大值。()
答案:對(duì)根據(jù)腫瘤的體積、患者的年齡來(lái)判斷良性或惡性,這是一個(gè)回歸問(wèn)題。()
答案:錯(cuò)樣本是連續(xù)型數(shù)據(jù)且有標(biāo)簽,我們采用()進(jìn)行機(jī)器學(xué)習(xí)。
答案:回歸算法機(jī)器學(xué)習(xí)進(jìn)行的第一步是()。
答案:特征提取機(jī)器學(xué)習(xí)算法需要顯示編程,具備歸納、總結(jié)等自學(xué)習(xí)能力。()
答案:錯(cuò)機(jī)器學(xué)習(xí)算法在圖像識(shí)別領(lǐng)域的性能表現(xiàn)可能會(huì)超過(guò)人類(lèi)。()
答案:對(duì)機(jī)器學(xué)習(xí)的核心要素包括()。
答案:數(shù)據(jù);算法;算力機(jī)器學(xué)習(xí)方法由()等幾個(gè)要素構(gòu)成。
答案:模型;損失函數(shù);優(yōu)化算法;模型評(píng)估指標(biāo)機(jī)器學(xué)習(xí)方法傳統(tǒng)上可以分為()類(lèi)。
答案:4機(jī)器學(xué)習(xí)和人工智能、深度學(xué)習(xí)是一個(gè)概念,都是指機(jī)器模仿人類(lèi)推理、學(xué)習(xí)能力。()
答案:錯(cuò)樸素貝葉斯適用于小規(guī)模數(shù)據(jù)集,邏輯回歸適用于大規(guī)模數(shù)據(jù)集。()
答案:錯(cuò)樸素貝葉斯的基本假設(shè)是屬性之間是相互獨(dú)立的。()
答案:對(duì)樸素貝葉斯的優(yōu)點(diǎn)不包括()
答案:樸素貝葉斯模型對(duì)輸入數(shù)據(jù)的表達(dá)形式很敏感樸素貝葉斯法對(duì)缺失數(shù)據(jù)較敏感。()
答案:對(duì)樸素貝葉斯模型假設(shè)屬性之間相互獨(dú)立,這個(gè)假設(shè)在實(shí)際應(yīng)用中往往是不成立的,在屬性相關(guān)性較小時(shí),樸素貝葉斯性能良好。而在屬性個(gè)數(shù)比較多或者屬性之間相關(guān)性較大時(shí),分類(lèi)效果不好。()
答案:對(duì)樸素貝葉斯是概率模型。()
答案:對(duì)樸素貝葉斯是一種典型的基于概率的機(jī)器學(xué)習(xí)方法,它利用了()
答案:先驗(yàn)概率、后驗(yàn)概率樸素貝葉斯分類(lèi)器基于()假設(shè)
答案:屬性條件獨(dú)立性最小二乘法是基于預(yù)測(cè)值和真實(shí)值的均方差最小化的方法來(lái)估計(jì)線性回歸學(xué)習(xí)器的參數(shù)w和b。()
答案:對(duì)數(shù)據(jù)預(yù)處理對(duì)機(jī)器學(xué)習(xí)是很重要的,下面說(shuō)法正確的是()。
答案:數(shù)據(jù)預(yù)處理的效果直接決定了機(jī)器學(xué)習(xí)的結(jié)果質(zhì)量數(shù)據(jù)之間的相關(guān)關(guān)系可以通過(guò)以下哪個(gè)算法直接挖掘()。
答案:Apriori支持向量機(jī)求解不可以采用梯度下降方法求解最優(yōu)值。()
答案:錯(cuò)支持向量機(jī)是那些最接近決策平面的數(shù)據(jù)點(diǎn)。()
答案:對(duì)批量梯度下降是最原始的形式,它是指在每一次迭代時(shí)使用一部分樣本的梯度來(lái)更新參數(shù)。()
答案:錯(cuò)影響KNN算法效果的主要因素包括()。
答案:K的值;距離度量方式;決策規(guī)則市場(chǎng)上某商品來(lái)自兩個(gè)工廠,它們市場(chǎng)占有率分別為60%和40%,有兩人各自買(mǎi)一件,則買(mǎi)到的來(lái)自不同工廠之概率為()
答案:0.48小批量梯度下降是結(jié)合了批量梯度下降和隨機(jī)梯度下降,性能比批量梯度下降和隨機(jī)梯度下降都好。()
答案:對(duì)對(duì)于線性回歸,我們應(yīng)該有以下哪些假設(shè)()(1)找到離群點(diǎn)很重要,因?yàn)榫€性回歸對(duì)離群點(diǎn)很敏感;(2)線性回歸要求所有變量必須符合正態(tài)分布;(3)線性回歸假設(shè)數(shù)據(jù)沒(méi)有多重線性相關(guān)性。
答案:其它都不是對(duì)于以下哪些任務(wù),K-means聚類(lèi)可能是一種合適的算法?()。
答案:給定一個(gè)關(guān)于用戶信息的數(shù)據(jù)庫(kù),自動(dòng)將用戶分組到不同的市場(chǎng)細(xì)分中。;根據(jù)超市中大量產(chǎn)品的銷(xiāo)售數(shù)據(jù),找出哪些產(chǎn)品可以組成組合(比如經(jīng)常一起購(gòu)買(mǎi)),因此應(yīng)該放在同一個(gè)貨架上。如果某個(gè)項(xiàng)集是頻繁的,那么它的所有超集也是頻繁的。()
答案:錯(cuò)如果某個(gè)項(xiàng)集是頻繁的,那么它的所有子集也是頻繁的。()
答案:對(duì)如果A為m階實(shí)矩陣,則ATA半正定。()
答案:對(duì)如果A為m階實(shí)矩陣,ATA與AAT有相同的非零特征值集合。()
答案:對(duì)大部分的機(jī)器學(xué)習(xí)工程中,數(shù)據(jù)搜集、數(shù)據(jù)清洗、特征工程這三個(gè)步驟要花費(fèi)大部分時(shí)間,而數(shù)據(jù)建模,占總時(shí)間比較少。()
答案:對(duì)在機(jī)器學(xué)習(xí)中,樣本常被分成()。
答案:其它選項(xiàng)都有在各類(lèi)機(jī)器學(xué)習(xí)算法中,過(guò)擬合和欠擬合都是可以徹底避免的。()
答案:錯(cuò)在K近鄰算法中,K的選擇是()?
答案:與樣本有關(guān)回歸問(wèn)題和分類(lèi)問(wèn)題的區(qū)別()。
答案:回歸問(wèn)題輸出值是連續(xù)的,分類(lèi)問(wèn)題輸出值是離散的哪些情況下必須停止樹(shù)的增長(zhǎng)()
答案:當(dāng)前數(shù)據(jù)子集的標(biāo)簽一致;沒(méi)有更多可用屬性;當(dāng)前數(shù)據(jù)子集為空;當(dāng)前訓(xùn)練誤差已經(jīng)較低分析顧客消費(fèi)行業(yè),以便有針對(duì)性的向其推薦感興趣的服務(wù),屬于()問(wèn)題。
答案:關(guān)聯(lián)規(guī)則挖掘決策樹(shù)的說(shuō)法正確的是()。
答案:它易于理解、可解釋性強(qiáng);其可作為分類(lèi)算法,也可用于回歸模型;CART使用的是二叉樹(shù)決策樹(shù)模型中建樹(shù)的基本原則是()。
答案:信息增益大的屬性應(yīng)放在上層決策樹(shù)模型中如何處理連續(xù)型屬性()。
答案:根據(jù)信息增益選擇閾值進(jìn)行離散化決策樹(shù)學(xué)習(xí)是一種逼近離散值目標(biāo)函數(shù)的方法,學(xué)習(xí)到的函數(shù)被表示為一棵決策樹(shù)。()
答案:對(duì)具有較高的支持度的項(xiàng)集具有較高的置信度。()
答案:錯(cuò)關(guān)于支持向量機(jī)中硬間隔和軟間隔的說(shuō)法錯(cuò)誤的是()
答案:硬間隔有利于消除模型的過(guò)擬合關(guān)于剪枝,以下算法正確的是()。
答案:決策樹(shù)剪枝的基本策略有預(yù)剪枝和后剪枝;ID3算法沒(méi)有剪枝操作;剪枝是防止過(guò)擬合的手段關(guān)于決策樹(shù)剪枝操作正確的描述是()。
答案:可以防止過(guò)擬合關(guān)于關(guān)聯(lián)規(guī)則,正確的是()。
答案:關(guān)聯(lián)規(guī)則挖掘的算法主要有:Apriori和FP-Growth;一個(gè)項(xiàng)集滿足最小支持度,我們稱(chēng)之為頻繁項(xiàng)集;支持度是衡量關(guān)聯(lián)規(guī)則重要性的一個(gè)指標(biāo)關(guān)于PCA和SVD比較錯(cuò)誤的是()
答案:PCA無(wú)需進(jìn)行零均值化公司里有一個(gè)人穿了運(yùn)動(dòng)鞋,推測(cè)是男還是女?已知公司里男性30人,女性70人,男性穿運(yùn)動(dòng)鞋的有25人,穿拖鞋的有5人,女性穿運(yùn)動(dòng)鞋的有40人,穿高跟鞋的有30人。則以下哪項(xiàng)計(jì)算錯(cuò)誤()
答案:p(運(yùn)動(dòng)鞋|男性)=25/30假設(shè)你訓(xùn)練SVM后,得到一個(gè)線性決策邊界,你認(rèn)為該模型欠擬合。在下次迭代訓(xùn)練模型時(shí),應(yīng)該考慮()
答案:計(jì)算更多變量假設(shè)會(huì)開(kāi)車(chē)的本科生比例是15%,會(huì)開(kāi)車(chē)的研究生比例是23%。若在某大學(xué)研究生占學(xué)生比例是20%,則會(huì)開(kāi)車(chē)的學(xué)生是研究生的概率是()
答案:27.7%假設(shè)主成分分析的方式是“95%的方差被保留”,與此等價(jià)的說(shuō)法是()
答案:假設(shè)主成分分析的方式是“95%的方差被保留”,與此等價(jià)的說(shuō)法是()信息熵是度量樣本集合純度最常用的一種指標(biāo)。信息熵的值越大,說(shuō)明樣本集合的純度越高。()
答案:錯(cuò)傳統(tǒng)機(jī)器學(xué)習(xí)的應(yīng)用領(lǐng)域有()。
答案:信用風(fēng)險(xiǎn)檢測(cè);銷(xiāo)售預(yù)測(cè);商品推薦以下選擇主成分?jǐn)?shù)量的合理方法是(n是輸入數(shù)據(jù)的維度m是輸入示例的數(shù)量)()
答案:選擇至少保留99%的方差的k的最小值以下說(shuō)法正確的是()。
答案:logistic回歸的樣本屬性是連續(xù)型數(shù)據(jù)以下說(shuō)法中錯(cuò)誤的是()。
答案:負(fù)定矩陣的特征值即為奇異值以下是一組用戶的年齡數(shù)據(jù),將K值定義為2對(duì)用戶進(jìn)行聚類(lèi)。并隨機(jī)選擇16和22作為兩個(gè)類(lèi)別的初始質(zhì)心,回答以下問(wèn)題:[15,15,16,19,19,20,20,21,22,28,35,40,41,42,43,44,60,61,65]第一次迭代結(jié)束后,樣本20的分類(lèi)為()
答案:原質(zhì)心22的類(lèi)以下是一組用戶的年齡數(shù)據(jù),將K值定義為2對(duì)用戶進(jìn)行聚類(lèi)。并隨機(jī)選擇16和22作為兩個(gè)類(lèi)別的初始質(zhì)心,回答以下問(wèn)題:[15,15,16,19,19,20,20,21,22,28,35,40,41,42,43,44,60,61,65]第一次迭代結(jié)束后,原質(zhì)心16的類(lèi)包含()個(gè)樣本。
答案:3以下是一組用戶的年齡數(shù)據(jù),將K值定義為2對(duì)用戶進(jìn)行聚類(lèi)。并隨機(jī)選擇16和22作為兩個(gè)類(lèi)別的初始質(zhì)心,回答以下問(wèn)題:[15,15,16,19,19,20,20,21,22,28,35,40,41,42,43,44,60,61,65]第一次迭代結(jié)束后,原質(zhì)心16更新后的質(zhì)心是()。
答案:15.33以下是一組用戶的年齡數(shù)據(jù),將K值定義為2對(duì)用戶進(jìn)行聚類(lèi)。并隨機(jī)選擇16和22作為兩個(gè)類(lèi)別的初始質(zhì)心,回答以下問(wèn)題:[15,15,16,19,19,20,20,21,22,28,35,40,41,42,43,44,60,61,65]第一次迭代中,樣本“15”到質(zhì)心16的距離是()
答案:1以下對(duì)經(jīng)典K-means聚類(lèi)算法解釋正確的是()
答案:不能自動(dòng)識(shí)別類(lèi)的個(gè)數(shù),隨機(jī)挑選初始點(diǎn)為中心點(diǎn)計(jì)算以下哪種說(shuō)法是正確的?()
答案:KNN是有監(jiān)督學(xué)習(xí)算法以下關(guān)于邏輯回歸與線性回歸問(wèn)題的描述錯(cuò)誤的是()。
答案:邏輯回歸一般要求變量服從正態(tài)分布,線性回歸一般不要求以下關(guān)于梯度下降算法說(shuō)法正確的是()。
答案:學(xué)習(xí)率的選取會(huì)影響梯度下降算法的求解速度以下關(guān)于梯度下降法錯(cuò)誤的是()。
答案:特征數(shù)量較大可以使用以下關(guān)于決策樹(shù)特點(diǎn)分析的說(shuō)法錯(cuò)誤的有()。
答案:算法考慮了數(shù)據(jù)屬性之間的相關(guān)性以下關(guān)于決策樹(shù)原理介紹錯(cuò)誤的有()。
答案:決策樹(shù)算法屬于無(wú)監(jiān)督學(xué)習(xí)以下關(guān)于SVD說(shuō)法正確的有()
答案:SVD并不要求分解矩陣必須是方陣以下關(guān)于PCA說(shuō)法正確的是()
答案:PCA各個(gè)主成分之間正交;PCA運(yùn)算時(shí)需要進(jìn)行特征值分解;PCA運(yùn)算結(jié)果受到屬性方差的影響以下關(guān)于KNN說(shuō)法正確的是()。
答案:計(jì)算復(fù)雜度低;對(duì)數(shù)據(jù)沒(méi)有假設(shè);對(duì)異常值不敏感以下關(guān)于K-means算法錯(cuò)誤的有()
答案:K-means算法不會(huì)出現(xiàn)局部極小值的問(wèn)題以下關(guān)于AdaBoost算法說(shuō)法錯(cuò)誤的是()
答案:在投票時(shí),分類(lèi)誤差小的弱分類(lèi)器權(quán)重較小以下關(guān)于PCA說(shuō)法正確的是()
答案:PCA轉(zhuǎn)換后選擇的第一個(gè)方向是最主要特征從某大學(xué)隨機(jī)選擇8名女大學(xué)生,其身高x(cm)和體重y(kg)的回歸方程是y=0.849x-85.712,則身高172cm的女大學(xué)生,預(yù)測(cè)體重為()。
答案:60.316kg主成分分析是一個(gè)線性變化,就是把數(shù)據(jù)變換到一個(gè)新的坐標(biāo)系統(tǒng)中。()
答案:對(duì)下面梯度下降說(shuō)法錯(cuò)誤的是()。
答案:梯度下降算法速度快且可靠下面有關(guān)機(jī)器學(xué)習(xí)的認(rèn)識(shí)正確的是()。
答案:高質(zhì)量的樣本對(duì)一個(gè)機(jī)器學(xué)習(xí)項(xiàng)目是必不可少的下面屬于降維常用的技術(shù)的有()
答案:主成分分析;奇異值分解下面對(duì)集成學(xué)習(xí)模型中的弱學(xué)習(xí)器描述錯(cuò)誤的是?()
答案:弱學(xué)習(xí)器通常會(huì)過(guò)擬合下面哪幾種機(jī)器學(xué)習(xí)的分類(lèi),完全不需要人工標(biāo)注數(shù)據(jù)()。
答案:無(wú)監(jiān)督學(xué)習(xí);強(qiáng)化學(xué)習(xí)下面關(guān)于支持向量機(jī)(SVM)的描述錯(cuò)誤的是()
答案:支持向量機(jī)不能處理分界線為曲線的多分類(lèi)問(wèn)題下面關(guān)于回歸分析的描述錯(cuò)誤的是()
答案:按照因變量的多少,可分為線性回歸分析和非線性回歸分析下述哪一個(gè)是機(jī)器學(xué)習(xí)的合理定義。()
答案:機(jī)器學(xué)習(xí)能使計(jì)算機(jī)能夠在沒(méi)有明確編程的情況下學(xué)習(xí)下列選項(xiàng)中,對(duì)于軟間隔支持向量機(jī),超平面應(yīng)該是()。
答案:下列選項(xiàng)中,對(duì)于軟間隔支持向量機(jī),超平面應(yīng)該是()。下列選項(xiàng)中,對(duì)于硬間隔支持向量機(jī),超平面應(yīng)該是()。
答案:下列選項(xiàng)中,對(duì)于硬間隔支持向量機(jī),超平面應(yīng)該是()。下列選項(xiàng)中,關(guān)于KNN算法說(shuō)法不正確是()
答案:效率很高下列存在線性回歸關(guān)系的是()
答案:正三角形的邊長(zhǎng)與周長(zhǎng)下列關(guān)于樸素貝葉斯的特點(diǎn)說(shuō)法錯(cuò)誤的是()
答案:樸素貝葉斯模型無(wú)需假設(shè)特征條件獨(dú)立下列關(guān)于主成分分析法(PCA)說(shuō)法錯(cuò)誤的是?()
答案:要選出方差最小的作為主成分下列關(guān)于Apriori算法說(shuō)法錯(cuò)誤的是()。
答案:Apriori算法運(yùn)算過(guò)程中不需要找出所有的頻繁項(xiàng)集下列不是SVM核函數(shù)的是()
答案:邏輯核函數(shù)下列不屬于線性回歸預(yù)測(cè)的應(yīng)用場(chǎng)景的是()
答案:廣告點(diǎn)擊率下列()中兩個(gè)變量之間的關(guān)系是線性的。
答案:重力和質(zhì)量一般的,一棵決策樹(shù)包含一個(gè)根結(jié)點(diǎn)、若干個(gè)內(nèi)部結(jié)點(diǎn)和若干個(gè)葉結(jié)點(diǎn);葉結(jié)點(diǎn)對(duì)應(yīng)于決策結(jié)果,其他每個(gè)結(jié)點(diǎn)則對(duì)應(yīng)于一個(gè)屬性測(cè)試;根結(jié)點(diǎn)包含樣本全集。()
答案:對(duì)SVM的效率依賴于()。
答案:其它選項(xiàng)都對(duì)SVD可用于求解矩陣的偽逆。()
答案:對(duì)PCA投影方向可從最大化方差和最小化投影誤差這兩個(gè)角度理解。()
答案:對(duì)PCA會(huì)選取信息量最少的方向進(jìn)行投影。()
答案:錯(cuò)PCA算法獲取的超平面應(yīng)具有哪些性質(zhì)()
答案:數(shù)據(jù)壓縮性;最大可分性logistic回歸適用于因變量為()。
答案:多分類(lèi)有序變量;二分類(lèi)變量;多分類(lèi)無(wú)序變量Logistic回歸的因變量是連續(xù)型數(shù)據(jù)。()。
答案:錯(cuò)logistic回歸只能用于二分類(lèi)問(wèn)題。()
答案:錯(cuò)logistic回歸中也可以用正則化方法來(lái)防止過(guò)擬合。()
答案:對(duì)lasso中采用的是L2正則化。()
答案:錯(cuò)K近鄰算法認(rèn)為距離越近的相似度越高。()
答案:對(duì)K近鄰算法中采用不同的距離公式對(duì)于結(jié)果沒(méi)有影響。()
答案:錯(cuò)K近鄰算法中數(shù)據(jù)可以不做歸一化,因?yàn)槭欠駳w一化對(duì)結(jié)果影響不大。()
答案:錯(cuò)K近鄰是一種比較成熟也是比較簡(jiǎn)單的機(jī)器學(xué)習(xí)算法,主要用于分類(lèi)問(wèn)題。()
答案:對(duì)K均值聚類(lèi)時(shí),初始質(zhì)心不好會(huì)導(dǎo)致收斂速度差。()
答案:對(duì)K
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 教練和女兒私下協(xié)議書(shū)
- 咖啡廳加盟合同協(xié)議書(shū)
- 財(cái)產(chǎn)賬戶協(xié)議書(shū)
- 藥店變更協(xié)議書(shū)
- 郵儲(chǔ)就業(yè)協(xié)議書(shū)
- 屠宰檢疫員合同協(xié)議書(shū)
- 合同外增加工程協(xié)議書(shū)
- 郵寄快遞協(xié)議書(shū)
- 液化氣供氣合同協(xié)議書(shū)
- 美國(guó)導(dǎo)彈協(xié)議書(shū)
- 高中英語(yǔ)新人教版必修三全冊(cè)單詞(按單元順序)默寫(xiě)版(含答案)
- 施工鋼結(jié)構(gòu)制作安裝環(huán)境因素識(shí)別表
- 污水井巡查記錄表
- 2關(guān)于更換現(xiàn)場(chǎng)項(xiàng)目經(jīng)理的函
- 部編版小學(xué)道德與法治四年級(jí)下冊(cè)期末復(fù)習(xí)簡(jiǎn)答及分析題專(zhuān)練(含答案)
- 電子商務(wù)那些事學(xué)習(xí)通超星課后章節(jié)答案期末考試題庫(kù)2023年
- 環(huán)境及理化因素?fù)p傷-凍傷
- Unit7SeasonPartALetslearn(教學(xué)設(shè)計(jì))閩教版英語(yǔ)四年級(jí)下冊(cè)
- 世界文化遺產(chǎn)武當(dāng)山古建筑群的資料
- 醫(yī)院醫(yī)療設(shè)備采購(gòu)項(xiàng)目HIS系統(tǒng)及硬件采購(gòu)?fù)稑?biāo)文件
- 【橡膠工藝】-橡膠產(chǎn)品生產(chǎn)工藝規(guī)程
評(píng)論
0/150
提交評(píng)論