SwinBN-一種基于SwinTransformer的針織物疵點檢測模型_第1頁
SwinBN-一種基于SwinTransformer的針織物疵點檢測模型_第2頁
SwinBN-一種基于SwinTransformer的針織物疵點檢測模型_第3頁
SwinBN-一種基于SwinTransformer的針織物疵點檢測模型_第4頁
SwinBN-一種基于SwinTransformer的針織物疵點檢測模型_第5頁
已閱讀5頁,還剩12頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權,請進行舉報或認領

文檔簡介

SwinBN:一種基于SwinTransformer的針織物疵點檢測模型

胡越杰,蔣高明(江南大學a.紡織科學與工程學院;b.針織技術教育部工程研究中心,江蘇無錫214122)在紡織工業(yè)中,疵點的檢測與分類至關重要,可以為紡織生產(chǎn)的質量控制提供指導性建議。紡織企業(yè)常用的檢測方法是人工檢測,即檢測人員按個人經(jīng)驗或評分標準對織物做出等級評定[1]。這種檢測方式存在眾所周知的局限性,如檢測人員注意力易分散、易疲勞及易受主觀因素影響,據(jù)調(diào)查其準確率僅為60%~70%[2]。因此,自動化的機器視覺檢測方法已成為當前研究的熱點,但是關于針織物疵點的檢測與分類比其他類織物更少涉及,這主要是由于針織物本身良好的彈性,及其較為松散的線圈結構,容易導致下機后織物無法在尺寸上保持穩(wěn)定,因而使得疵點信息相對模糊。傳統(tǒng)的織物疵點檢測方法可以總結為統(tǒng)計法[3]、模型法[4]和頻譜法[5-6]。這些方法主要依賴人工設計的特征提取器對織物特征進行提取,需要具備專業(yè)的知識并且調(diào)參過程復雜,因此存在一定的局限性。近年來隨著人工智能技術的發(fā)展,深度學習因其能夠自適應、智能地學習關鍵信息,被廣泛應用于織物疵點的檢測與分類任務中。Xie等[7]基于全卷積通道注意力和自底向上路徑增強設計了一種改進的頭部結構(Head),有效地提高了缺陷定位精度。Wen等[8]使用PE算法(Patchesextractor)提取缺陷圖像的片段,再通過卷積神經(jīng)網(wǎng)絡(CNN)來預測片段的類別和圖像的最終類別。在文獻[9]中同樣遵循二階段思想,以Inception-V1模型預估局部區(qū)域疵點是否存在,最終使用LeNet-5模型識別織物中的缺陷類型。Biradar等[10]設計三層結構的CNN,在TILDA數(shù)據(jù)庫上的分類精度高達99.06%,但是該模型無法提供疵點的位置信息。此外,YOLO系列的目標檢測模型具備端到端(End-to-end)的特性,并且兼顧了檢測精度,因此不乏其應用于織物疵點檢測的場景。例如參照YOLOv5提出的師生結構(Teacher-student)[11],以及根據(jù)YOLOv4設計的實時檢測系統(tǒng)[12]。Liu等[13]提出了一種基于生成對抗網(wǎng)絡(GAN)的織物缺陷檢測框架,不僅實現(xiàn)了像素級別的分割還能夠自動適應不同的織物紋理。與之類似,文獻[14]中設計的DLSE網(wǎng)絡,引入了注意力機制以提高對陌生樣本的適應性。值得一提的是,上述兩種模型似乎更適合顯示疵點的形狀,然而這種分割過程將消耗大量的計算資源,如何設計合理的結構以滿足工業(yè)檢測的實時性需求是該領域面臨的巨大挑戰(zhàn)。另外,Wang等[15]搭建的監(jiān)督神經(jīng)網(wǎng)絡模型只需要少量的無缺陷樣本進行訓練,在一定程度上緩解了數(shù)據(jù)集不足的問題。以上織物缺陷檢測和分類的深度學習框架都是基于CNN模型。CNN提取局部有效信息效果顯著,但缺乏整合全局信息的能力。Transformer可以彌補這一缺陷[16],其獨特的自注意機制專注于建立遠程元素之間的聯(lián)系,使每個像素包含全局特征。Alexey等[17]提出ViT網(wǎng)絡模型,將Transformer從自然語言處理應用到圖像識別任務。ViT直接分割輸入圖像成16×16的片段(Patch)并輸入Transformer,該模型只能處理分類任務。Zheng等[18]提出一種名為SETR的網(wǎng)絡,該網(wǎng)絡將Transformer的輸出從向量重塑為特征圖,隨后上采樣、反卷積解碼得到分割結果。雖然基于Transformer的算法極大地提高了目標檢測的效果,但在計算機視覺領域仍然存在嚴重問題:1)向量運算需要涉及所有像素,對大尺寸圖像操作會非常耗時并且占據(jù)計算資源。2)忽略了文本信號和視覺信號的差異,沒有與視覺信號本身的特點結合。針對上述問題SwinTransformer(ST)模型被提出[19],ST采用層級結構設計,在各個窗口區(qū)域執(zhí)行注意力計算。ST開創(chuàng)性地引入卷積操作的局部性和層次性,同時大幅降低計算復雜度,使其與輸入圖像的尺寸呈線性關系。作為一個通用的視覺網(wǎng)絡,ST在圖像分類、目標檢測[20]和語義分割[21-22]等任務中表現(xiàn)出SOTA(State-of-the-art)的性能。然而處理針織物疵點檢測任務時,ST對上下文信息編碼的能力有限,需要進一步改善。此外,現(xiàn)有的目標檢測網(wǎng)絡大多通過深度監(jiān)督處理不同層次的特征圖,或者只使用最終的抽象特征,導致無法充分整合多尺度特征信息,影響檢測精度。因此,本文提出了一種多尺度自適應網(wǎng)絡模型SwinBN(Swintransformerandbidirectionalfeaturepyramidnetwork),該模型以改進的BiFPN網(wǎng)絡為頸部結構,有效地區(qū)分各個特征層對于輸出的重要性,實現(xiàn)不同尺度之間的加權特征融合。考慮到CNN提取全局信息能力弱及針織物疵點的形狀特點,模型的骨干網(wǎng)絡DCSW(Deformableconvolutionandswintransformer)將可變形卷積和ST各自的優(yōu)勢相結合,有助于提取局部特征和整合全局信息。由于現(xiàn)有的圖像數(shù)據(jù)不足,本實驗在紡織工廠現(xiàn)場采集圖像,人工標注并創(chuàng)建了針織物疵點圖像數(shù)據(jù)庫。真實工業(yè)數(shù)據(jù)集的實驗結果表明,SwinBN在針織物疵點檢測任務上優(yōu)于現(xiàn)有先進的目標檢測模型,驗證了該方法的準確性與可行性。1數(shù)據(jù)集和SwinBN模型1.1針織物疵點圖像數(shù)據(jù)集關于針織面料疵點檢測的研究很少,本實驗圖像采集于江南大學針織技術工程研究中心和無錫新祥瑞紡織品有限公司,如圖1所示。采集圖像時使用一臺2600萬像素的高分辨率相機(分辨率固定為300dpi),鏡頭距坯布垂直距離200mm,豎直向下聚焦拍攝,側面補光角度為30°以達到圖像沒有暗影和坯布反光的效果,采集的圖像大小為900×600pixel。本文主要針對實際生產(chǎn)中出現(xiàn)的四種最常見的疵點類型,包括破洞、漏針、油針、橫檔(圖2),具體描述如下:圖1針織物圖像采集Fig.1Acquisitionofknittedfabricimages1)破洞:紗線在編織過程中受到了超過其自身斷裂強度的力,導致紗線被拉斷,形成布面上的洞孔。2)漏針:緯編針織物在織造時,織針沒有勾到毛紗或勾到毛紗后又脫出針鉤而造成線圈脫散,在布面出現(xiàn)垂直的條痕及小孔的現(xiàn)象。3)油針:由于機臺供油過多或者漏油,跟隨織針的運轉污染坯布,在布面上呈現(xiàn)為一條黑線直落。4)橫檔:一種視覺上非主觀性設計的,重復且連續(xù)狀的條形圖案,通常平行于針織物的線圈橫列,又稱為橫條或橫路。實驗中,為了避免因計算原因影響圖像特性,采集的圖像從原始大小裁剪并縮放至320×320pixel。經(jīng)過人工標注后建立的數(shù)據(jù)集包含3524張針織物圖像,其中負樣本935張,破洞、漏針、油針、橫檔疵點分別為890、784、439、476張。訓練集、驗證集和測試集的比例設置為8︰1︰1,此外,采用水平翻轉、垂直翻轉和旋轉(90°、180°和270°)等數(shù)據(jù)增強方式擴充樣本數(shù)量。圖2針織物疵點圖像Fig.2Imagesofknittedfabricdefects1.2DCSW骨干網(wǎng)絡結構針織是一種將紗線順序地彎曲成圈并相互穿套而形成織物的工藝。由于其線圈是紗線在空間彎曲而成,并且每個線圈均由一根紗線構成,因此當織針損壞,沉降片位置不對或者紗線本身出現(xiàn)問題時,產(chǎn)生的瑕疵具有連續(xù)性,如圖3所示。以圖像的視角看,疵點的長寬比例非常高,為細長狀,并且疵點區(qū)域相對總圖像面積占比較小。圖3針織物疵點的形狀特征Fig.3Shapedcharacteristicsofknittedfabricdefects考慮到上述織物疵點本身的形狀特征,本文致力于將CNN和Transformer的先驗優(yōu)勢有效結合,改進SwinTransformer骨干網(wǎng)絡。本文在每個檢測層中加入可變形卷積模塊,加強網(wǎng)絡對于細長疵點的局部感知能力,以便更好地融合高語義的特征信息。DCSW網(wǎng)絡由PatchMerging層、可變形卷積模塊和ST模塊等部分組成,其整體結構如圖4所示。圖4DCSW主干網(wǎng)絡總體結構Fig.4OverallstructureofDCSWbackbonenetwork1.2.1SwinTransformer模塊從圖4(b)可以看出,與Transformer模塊[16]相比,ST將標準多頭自注意單元(MSA)替換成窗口多頭自注意單元(W-MSA)和移動窗口多頭自注意單元(SW-MSA),并分別應用于兩個連續(xù)的ST模塊。此外,在每個(S)W-MSA和多層感知機MLP前安插歸一化層使得模型訓練穩(wěn)定,并添加殘差連接。該部分可以用下式表示:(1)(2)(3)zl+1=MLP(LN(zl+1))+zl+1(4)如圖5(b)所示,ST模塊中的W-MSA首先將特征圖按M×M的比例劃分為一系列不重疊的窗口,而且在每個窗口中執(zhí)行注意力計算。該方式減少了網(wǎng)絡計算量,并控制模型復雜度與圖像尺寸線性相關。然而窗口分割的實現(xiàn)會導致不同區(qū)域之間缺乏跨窗口的信息交流,因此,SW-MSA通過將規(guī)則分區(qū)的窗口沿垂直和水平方向平移(M/2,M/2)像素的距離,并循環(huán)移位(Cycleshifted)獲得一種新的窗口布局,如圖5(d)所示。在此基礎上,像素的全局相關性得以保證。圖5移動窗口的作用機制Fig.5Actionmechanismofshiftedwindows1.2.2可變形卷積模塊盡管ST以W-MSA和SW-MSA兩種滑動窗口方案為主體構建了層次結構,但基于位置編碼的模式容易忽略圖像的局部相關性和結構信息,以致無法高效地編碼空間上下文信息。為了緩解這個問題,本文設計了可變形卷積模塊改進主干網(wǎng)絡,它被嵌入在ST模塊的前面,其組成如圖4(a)所示。由于ST模塊中不同層次以向量組成的數(shù)據(jù)流傳遞信息,而不是傳統(tǒng)卷積中的特征映射,因此在輸入可變形卷積模塊之前需要將其重塑為特征圖的形式。例如數(shù)據(jù)流維度大小為(B,H×W,C),首先將其重塑為(B,C,H,W)的特征圖。隨后,一個1×1的卷積層使其維度從C減小到C/4。再添加一層3×3的可變形卷積增強對局部特征的提取,并保持維度在C/4。然后設置一個1×1卷積層恢復維度,并使用殘差連接防止網(wǎng)絡退化,同時提升網(wǎng)絡的表征能力。為了加速神經(jīng)網(wǎng)絡的收斂及提高模型訓練的穩(wěn)定性,每一個卷積層后面添加一個BatchNorm2D層和一個Relu激活函數(shù)。最終,將特征圖重塑為(B,H×W,C)的數(shù)據(jù)流,作為ST模塊的輸入。圖6展示了3×3可變形卷積的特征提取過程,其直觀效果是卷積核采樣點的位置會根據(jù)圖像內(nèi)容自適應調(diào)整,從而應對不同物體的形狀、大小等幾何形變[23]。相比PascalVOC[24]和COCO[25]這些大型數(shù)據(jù)集的檢測目標(人臉、行人和車輛等),織物疵點的形狀特征更復雜多變。例如對于一張漏針圖像,其檢測對象的長寬比可達30倍,而疵點區(qū)域面積僅占整幅圖像的1/19。因此,可變形卷積這種對圖像特征更細粒度的定位、提取方式與本文研究的需求匹配。圖63×3可變形卷積的特征提取過程Fig.6Featureextractionprocessofthe3×3deformableconvolution1.3改進的特征融合網(wǎng)絡在深度網(wǎng)絡中,深層的特征圖通常包含更豐富的全局語義信息,而淺層的特征圖包含更多的局部紋理和結構信息。如何有效地表征和處理多尺度特征是目標檢測任務的主要難點之一,常見的做法是在主干網(wǎng)絡和預測層之間添加頸部結構(Neck)以整合信息流[26-27]。如圖7(a)所示,特征金字塔網(wǎng)絡(FPN)首次提出一種自頂向下的結構來組合多尺度特征[28]。而NAS-FPN將其與神經(jīng)搜索相結合[29],自動設計特征網(wǎng)絡拓撲結構。但是該方法對算力的要求極高,并且從圖7(b)可以看出,其生成的特征網(wǎng)絡不規(guī)律,缺乏可解釋性。本文旨在以更直觀的方式平衡不同尺度的特征信息,受文獻[30]的啟發(fā)設計了一種改進的頸部結構I-BiFPN,如圖7(d)所示。圖74種不同的頸部結構設計Fig.7Fourdifferentdesignsoftheneckstructure已有研究表明,具有不同分辨率的各層次特征,對于輸出結果的作用各不相同[31-32]。因此改進的網(wǎng)絡在各節(jié)點設置輸入權重,以加權融合的方式衡量不同特征層的重要性。具體而言,引入可學習參數(shù)wi=1(i表示各節(jié)點的輸入特征個數(shù)),將其作為不同輸入特征的權重與模型一起優(yōu)化。此外,網(wǎng)絡在原始輸入節(jié)點與輸出節(jié)點之間采用跨層連接的方式,以便在不消耗過多計算資源的情況下有效地聚合多尺度特征。假設輸入圖像尺寸320×320pixel,網(wǎng)絡輸入特征F2至F5的分辨率分別為80×80、40×40、20×20、10×10。本文以圖7(d)中F4所在層為例,其特征融合過程可以用下式表示:(5)(6)式中:F4td表示自頂向下路徑中的特征,F4out表示該層的輸出特征;Resize是上采樣或者下采樣操作以保證特征維度的匹配;ε=0.0001,用于防止數(shù)值不穩(wěn)定。所有其他特征都以類似的方式構造。另外,在每個深度可分離卷積后添加批量歸一化層和Relu激活函數(shù)。值得注意的是,為了實現(xiàn)更高級別的特征融合,每個雙向路徑被視作一個特征網(wǎng)絡層,并在頸部結構重復m次(m在下文3.2節(jié)中加以討論)。1.4SwinBNSwinBN網(wǎng)絡模型的整體結構如圖8所示。給定一張大小為H×W×3的輸入圖像,其中空間分辨率為H×W。首先將圖片輸入PatchPartition模塊進行分塊,即每4×4相鄰的像素為一組在通道方向展平,特征圖的尺寸由[H,W,3]重塑為[H/4,W/4,48]。隨后輸入至DSBL1(Deformableconvolutionandswintransformerblock1)。通過LinearEmbedding層將其映射到維度C,再設置一個可變形卷積模塊加強局部信息的提取并且不改變特征圖的大小。DSBL1包含兩個連續(xù)的Transformer模塊,分別應用WMSA和SW-MSA,不僅可以關注全局信息還能實現(xiàn)跨窗口的信息傳遞。輸出DSBL1的特征圖尺寸為H/4×W/4×C。與DSBL1相似,DSBL2包含一個可變形卷積模塊和兩個Transformer模塊,區(qū)別是將LinearEmbedding層替換成PatchMerging層。PatchMerging層類似CNN中的池化層用于下采樣以得到多尺度特征信息,其中每2×2的相鄰像素劃分為一個片段并依次拼接,再通過全連接層調(diào)整通道數(shù)。由于可變形卷積模塊和ST模塊不改變特征圖的尺寸,因此DSBL2的輸出尺寸為H/8×W/8×2C。DSBL3、DSBL4與DSBL2高度相似,區(qū)別在于DSBL3中包含6個ST模塊,可以看作是DSBL2中的3倍。最終,DSBL1至DSBL4的輸出特征為F2、F3、F4、F5,通過頸部結構I-BiFPN實現(xiàn)多尺度特征信息的融合。預測層參照文獻[11]和文獻[33]的設計方式,對4種不同尺度的特征圖進行預測。圖8SwinBN網(wǎng)絡模型Fig.8SwinBNnetworkmodel2評價指標在本實驗中,主要使用mAP值評估目標檢測模型的性能,影響mAP值的相關指標的含義及計算方法如下。IoU表示真實邊界框和預測框的交集與并集的比值,如下式所示:(7)TP(Truepositive)是指正確檢測出對象的預測框數(shù)量。在本文中,該對象是織物疵點,當預測框與真實邊界框的IoU>0.5,并且類別預測正確,即被判定為TP。FP(Falsepositive)表示IoU精確率P(Precision)指預測正確的邊界框占所有預測框的比重,具體如下式所示:(8)召回率R(Recall)指預測正確的邊界框占所有真實邊界框的比重,具體如下式所示:(9)以召回率為橫軸、精確率為縱軸,可以得到P(R)曲線。AP指P(R)曲線與坐標軸所包圍區(qū)域的面積,mAP值代表多個類別的平均AP值,mAP值越高則表示模型的檢測性能越好。因此,mAP可以通過下式計算:(10)3實驗與討論3.1實驗設置本實驗的操作系統(tǒng)是Windows10,64位,CPU配置InterI7-10700,GPU配置NVIDIAGeForceRTX2060(12G)。軟件環(huán)境為CUDA11.1、Python3.8.8和Pytorch1.9.0。采用隨機梯度下降(SGD)方法對模型進行優(yōu)化,訓練的迭代次數(shù)設置為200。此外,本文在自制的針織物疵點數(shù)據(jù)集上比較FasterRCNN[34]、Efficientdet[30]、YOLOv3[35]、YOLOv5、DETR[36]、SwinBN模型的性能。所有目標檢測模型都是基于Pytorch深度學習框架實現(xiàn)的,其初始化參數(shù)如表1所示。表1網(wǎng)絡初始化參數(shù)Tab.1Initializationparametersofnetworks3.2綜合實驗結果參考SwinTransformer提供的4個版本(Swin-T、Swin-S、Swin-B和Swin-L),本文設計的DCSW主干網(wǎng)絡通過縮放系數(shù)λ調(diào)整網(wǎng)絡大小。此外控制頸部結構深度的參數(shù)m需要合理優(yōu)化,因此使用控制變量法來分析參數(shù)對檢測效果的影響。實驗中不同參數(shù)的模型均在同一臺設備訓練直至收斂,訓練次數(shù)不固定,結果如表2所示。表2不同參數(shù)配置下模型檢測mAP指標Tab.2ModeldetectionmAPindexesunderdifferentparameterconfigurations由表2可以看出,在[1,4]內(nèi)模型的mAP值隨著m值的增大提升明顯,這是因為隨著特征融合網(wǎng)絡I-BiFPN加深,多尺度特征之間的加權融合更加充分。當m≥5,模型的表現(xiàn)略有下降,此時訓練模型所需迭代次數(shù)過多,導致模型難以訓練無法完全收斂。圖9展示了在該參數(shù)下對于破洞疵點的檢測結果,學習不足的模型容易將織物背景誤判為疵點對象。圖9不同參數(shù)配置下的檢測結果Fig.9Detectionresultsunderdifferentparameterconfigurations在另一組對照實驗中,SwinBN模型的檢測效果并非與骨干網(wǎng)絡大小呈現(xiàn)正相關趨勢,這可能是由于本實驗的整體數(shù)據(jù)規(guī)模較小,SwinBN-b和SwinBN-l過于復雜以致無法良好地擬合其他數(shù)據(jù)。圖10(m=4)和表2共同說明了當λ=s時檢測效果最佳,但是推理速度達不到實時監(jiān)測的要求38ms/image。綜上分析,選取λ=t和m=4的參數(shù)配置較為合理,模型的mAP值達到74.53%,并且在準確性和實時性之間取得折中。本文后續(xù)與該模型相關的實驗中全部使用此參數(shù)配置。圖10模型的性能與骨干網(wǎng)絡大小的關系討論Fig.10Illustrationontherelationshipbetweenamodel’sperformanceandthesizeofthebackbonenetwork表3對比了SwinBN模型與其他五個模型的檢測性能。由表3可以明顯地看出,在所有模型中二階段算法FasterRCNN的檢測效果最不理想。其精確率、召回率和mAP值分別為54.35%、50.67%和46.75%,皆是最差的實驗結果。并且檢測一幅圖像的耗時最長為0.237s,因此不適合針織物疵點的檢測。表3不同目標檢測模型的性能比較Tab.3Performancecomparisonofdifferentobjectdetectionmodels此外,基于Transformer的網(wǎng)絡模型一定程度上表現(xiàn)出在視覺領域的優(yōu)越性。具體而言,DETR和SwinBN的平均mAP值達到了70.26%。分析主要原因在于自注意力機制的使用,它能夠捕捉全局上下文信息,建立像素之間的遠程相關性,從而提取更有價值的特征。因此在計算機視覺領域,基于Transformer的模型與CNN相比,擁有更具競爭力的性能及可觀的改進空間??偟膩碚f,SwinBN以同一水平的參數(shù)量和計算成本在各指標上取得了最佳的表現(xiàn)。對于綜合指標F1-score,SwinBN分別比YOLOv3、Efficientdet、YOLOv5和DETR高19.18%、13.82%、10.39%和2.23%。就目標檢測的基準指標mAP而言,本文提出的方法比上述模型高12.24%、11.91%、7.80%和1.63%。在檢測速度方面,SwinBN模型的參數(shù)量僅為39.72M,預測一張圖片所需時間0.032s,快于YOLOv5m和DETR,比YOLOv3模型略慢。上述實驗結果證明,該方法在檢測速度和檢測精度之間取得了平衡,能夠高效、快速地檢測出針織物疵點。3.3消融實驗為了驗證不同改進技術的必要性和對模型性能的影響,本文進行了消融實驗。在模型設計階段,以ST為主干網(wǎng)絡原型,在DSBL1至DSBL4中配置可變形卷積模塊以提取更豐富的局部特征(表4)。表4可變形卷積模塊對檢測性能提升效果驗證Tab.4Verificationoftheimprovementeffectofdeformableconvolutionmodulesonthedetectionperformance表4評估了各可變形卷積模塊的重要性,“√”和“×”分別表示其在DSBL中是否被應用。實驗結果證明,在添加可變形卷積模塊后模型性能有顯著提升。相比不使用可變形卷積模塊的Modela,SwinBN的mAP值提升了3.33%,并且針對橫檔、漏針兩種細長型疵點的檢測效果改善明顯(圖11),其AP值分別提升了5.02%和3.03%。圖11Modela和SwinBN模型的檢測效果對比Fig.11Comparisonofthedetectioneffect

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論