基于深度學(xué)習(xí)的細(xì)胞癌惡化程度預(yù)測(cè)方法研究_第1頁
基于深度學(xué)習(xí)的細(xì)胞癌惡化程度預(yù)測(cè)方法研究_第2頁
基于深度學(xué)習(xí)的細(xì)胞癌惡化程度預(yù)測(cè)方法研究_第3頁
基于深度學(xué)習(xí)的細(xì)胞癌惡化程度預(yù)測(cè)方法研究_第4頁
基于深度學(xué)習(xí)的細(xì)胞癌惡化程度預(yù)測(cè)方法研究_第5頁
已閱讀5頁,還剩7頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

1、 基于深度學(xué)習(xí)的細(xì)胞癌惡化程度預(yù)測(cè)方法研究 銀溫社胡楊升董青青Summary:細(xì)胞癌是當(dāng)今致死率最高的癌癥之一,細(xì)胞癌惡化程度預(yù)測(cè)方法對(duì)治療該病癥具有重大意義。對(duì)細(xì)胞圖像病理識(shí)別數(shù)據(jù)集中的癌癥細(xì)胞切片進(jìn)行檢測(cè),首先利用數(shù)據(jù)增加(DATA Augmentation,DA)技術(shù),增加模型訓(xùn)練集和測(cè)試集,然后設(shè)計(jì)卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練和測(cè)試網(wǎng)絡(luò)結(jié)構(gòu),再結(jié)合經(jīng)驗(yàn)設(shè)置優(yōu)化參數(shù)進(jìn)行預(yù)測(cè)模型訓(xùn)練,從而為細(xì)胞癌惡化程度預(yù)測(cè)提供一個(gè)深度模型的檢測(cè)手段。隨著深度學(xué)習(xí)的發(fā)展和醫(yī)學(xué)圖像在臨床上的應(yīng)用,以及醫(yī)學(xué)影像數(shù)據(jù)集的不斷完善,該方法有望為醫(yī)生診斷細(xì)胞癌惡化程度提供一種有效工具。KeyKey:深度學(xué)習(xí);細(xì)胞癌;檢測(cè);卷積

2、神經(jīng)網(wǎng)絡(luò)DOIDOI:10.11907/rjdk.172498:TP301:A:16727800(2018)003001104英文SummaryAbstract:Cell carcinoma is one of the highest mortality rates in todays society. The prediction of cell cancer progression have a great significance for the treatment of this disease. In this paper, the cell image provided in th

3、e pathological identification data set by JuShuLi are detected. First, data augmentation is used to add the model training set and test set, and then, the convolution neural network training network structure and testing network is designed, the predictor model is trained by setting the optimization

4、 parameters combined with experience. Thus providing a depth detection method for the prediction of cell cancer progression. With the development of deep learning and the clinical application of medical images, the medical image data sets are constantly improved. This method is expected to provide a

5、n effective tool for doctors diagnose the deterioration of cell carcinoma.英文KeyKey Words:deep learning; cell carcinoma; detection; convolution neural network0引言細(xì)胞是組成人體的最基本單位,其規(guī)則的生長(zhǎng)衰變對(duì)人體健康至關(guān)重要。當(dāng)出現(xiàn)不規(guī)則的生長(zhǎng)情況時(shí),病理學(xué)家可以對(duì)惡化細(xì)胞進(jìn)行檢測(cè),以確定細(xì)胞是否惡化癌變。由于空間和時(shí)間上的基因異質(zhì)性以及紋理和形狀上的不確定性,盡管病理學(xué)家經(jīng)驗(yàn)豐富,但診斷誤差率仍有30%40%。病理學(xué)家通過活體檢測(cè)或醫(yī)學(xué)

6、影像主觀地分析細(xì)胞的形態(tài)是否由正常的扁平梭狀變成了惡化的球形、細(xì)胞核是否分葉、顏色是否淡化等特征,往往只能作出初步診斷,必須結(jié)合個(gè)人病史,甚至家族病史才能給出最終診斷結(jié)果。此類主觀診斷方法周期很長(zhǎng),而且臨床數(shù)據(jù)顯示誤診率較高。因此,找到一種高效、準(zhǔn)確的細(xì)胞癌惡化程度預(yù)測(cè)方法尤為重要。癌癥惡化程度預(yù)測(cè)方法備受關(guān)注,特別是隨著特征提取、分類器、機(jī)器學(xué)習(xí)算法的產(chǎn)生以及深度學(xué)習(xí)思想的提出,這一領(lǐng)域研究很多。如張利文團(tuán)隊(duì)1提出了基于定量影像組學(xué)的肺腫瘤良惡性預(yù)測(cè)方法。該方法先通過雪橇自動(dòng)生長(zhǎng)對(duì)病灶區(qū)域進(jìn)行分割,然后進(jìn)行特征提取和特征選擇,最后通過SVM訓(xùn)練預(yù)測(cè)模型,預(yù)測(cè)準(zhǔn)確度在80%左右,但工作量較大。

7、Rejintal 團(tuán)隊(duì)2提出的基于圖像處理的白血病癌細(xì)胞檢測(cè)方法,主要采用k均值分割、灰度共生矩陣和SVM分類器,但此方法提取特征較少,文章中沒有給出識(shí)別精度。在相關(guān)研究基礎(chǔ)上,本文提出一種基于深度學(xué)習(xí)的細(xì)胞癌惡化程度預(yù)測(cè)方法。深度學(xué)習(xí)是機(jī)器學(xué)習(xí)研究的一個(gè)新領(lǐng)域,其目標(biāo)在于建立能模擬人腦進(jìn)行學(xué)習(xí)的神經(jīng)網(wǎng)絡(luò)來解釋數(shù)據(jù),通過組合低層特征形成更加抽象的高層特征,從而發(fā)現(xiàn)分布式特征。卷積神經(jīng)網(wǎng)絡(luò)是模擬人腦網(wǎng)絡(luò)的一種,它不但具有尺度不變性,而且具有權(quán)值共享等特點(diǎn)3。卷積神經(jīng)網(wǎng)絡(luò)從特征提取到特征選擇再到權(quán)值優(yōu)化,模型構(gòu)建完全組合在神經(jīng)網(wǎng)絡(luò)的隱含層內(nèi)4,大大降低了復(fù)雜度。在預(yù)測(cè)方面,使用有監(jiān)督的標(biāo)記訓(xùn)練,模

8、型預(yù)測(cè)結(jié)果就是標(biāo)記對(duì)應(yīng)值。1預(yù)測(cè)模型及預(yù)測(cè)方法1.1深度學(xué)習(xí)框架選擇本文選擇開源的Caffe深度學(xué)習(xí)框架,其高效,簡(jiǎn)潔的特點(diǎn)是選擇它的原因之一5,在圖像識(shí)別和分類領(lǐng)域擁有大部分資源,很多圖像領(lǐng)域的研究都是在Caffe框架下進(jìn)行實(shí)驗(yàn)的,開源項(xiàng)目很多也可在GitHub上找到。當(dāng)然在硬件方面,NVIDIA為其提供的多GPU加速也是選擇Caffe的原因。1.2卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計(jì)卷積神經(jīng)網(wǎng)絡(luò)同感知機(jī)、BP神經(jīng)網(wǎng)絡(luò)、遞歸神經(jīng)網(wǎng)絡(luò)以及自適應(yīng)共振理論一樣,也屬于人工神經(jīng)網(wǎng)絡(luò)的一種69。卷積神經(jīng)網(wǎng)絡(luò)經(jīng)歷了感受野和神經(jīng)認(rèn)知機(jī)兩大階段1011,它更加擬合于生物神經(jīng)網(wǎng)絡(luò),其權(quán)值共享和可多維圖片輸入的特點(diǎn),使其占領(lǐng)了

9、人工智能的大部分領(lǐng)域,避免了例如SVM等監(jiān)督學(xué)習(xí)模型的特征提取、特征選擇和數(shù)據(jù)重建過程12,其尺度不變性也為卷積神經(jīng)網(wǎng)絡(luò)的發(fā)展奠定了技術(shù)基礎(chǔ)。 訓(xùn)練網(wǎng)絡(luò)結(jié)構(gòu)輸入層即數(shù)據(jù)層,設(shè)置批處理大小scale為64,此參數(shù)可根據(jù)實(shí)驗(yàn)者的計(jì)算機(jī)處理能力進(jìn)行調(diào)整。因?yàn)楸疚氖腔贕PU訓(xùn)練的,所以設(shè)置批處理大小為64;對(duì)于數(shù)據(jù)導(dǎo)入文件,Caffe支持LMDB和LEVELDB兩種類型文件,它們都是鍵/值對(duì)(Key/Value Pair)嵌入式數(shù)據(jù)庫管理系統(tǒng)編程庫。雖然LMDB的內(nèi)存消耗是LEVELDB的1.1倍,但是LMDB的速度比LEVELDB快15%左右,所以本文選擇數(shù)據(jù)導(dǎo)入文件為L(zhǎng)MDB類型。為了把通道圖像

10、的像素值定在0,1區(qū)間內(nèi),設(shè)置scale為0.003 906 25。卷積層設(shè)置濾波器的權(quán)重學(xué)習(xí)率參數(shù)lr_mult為1,偏置學(xué)習(xí)率參數(shù)bias為2。一般bias為lr_mult的2倍,這樣,收斂速度會(huì)有一個(gè)很好的提升;卷積核的個(gè)數(shù)、大小、步長(zhǎng)以及是否有填充都對(duì)特征信息提取和最后的驗(yàn)證集預(yù)測(cè)產(chǎn)生較大影響,本文基于先驗(yàn)知識(shí)和經(jīng)驗(yàn)分別設(shè)置卷積核個(gè)數(shù)為32,步長(zhǎng)為1,卷積核大小為55,填充為1。因?yàn)榉母咚狗植?,可以將中心點(diǎn)作為原點(diǎn),從而在正態(tài)曲線上分配權(quán)重和偏置參數(shù),產(chǎn)生規(guī)整的特征映射圖且支持稀疏性。使用高斯分布隨機(jī)初始化卷積核,高斯分布標(biāo)準(zhǔn)差為0.001。對(duì)于池化層,因?yàn)榧?xì)胞的紋理特征對(duì)預(yù)測(cè)惡化程

11、度很重要,而最大值池化方法能夠更好地保留紋理特征,因此使用最大值池化方法,經(jīng)驗(yàn)性地設(shè)置池化窗口大小為33,窗口滑動(dòng)步長(zhǎng)為2。激活層使用RELU層,使用max(x,0)作為激活函數(shù),當(dāng)x0時(shí),輸出x,當(dāng)x0時(shí),輸出0。其具有稀疏性,并且可以很大程度地降低梯度。全連接層同卷積層一樣,但是設(shè)置高斯分布標(biāo)準(zhǔn)差為0.1,設(shè)置輸出類別數(shù)為5,輸入類別數(shù)是和惡化程度級(jí)別數(shù)相同的。核函數(shù)對(duì)于準(zhǔn)確度的提升也有一定的影響13,本文在第一個(gè)全連接層中使用sigmoid函數(shù),在第二個(gè)全連接層也就是輸出層中選擇徑向基函數(shù),定義如下:sigmoid函數(shù):(v)=tanhv2=1-exp-v1+exp(-v)(1)徑向基函

12、數(shù):yj=hi=1wijexp-122xp-ci2(2)以上網(wǎng)絡(luò)結(jié)構(gòu)參數(shù)和方法函數(shù)可隨需要進(jìn)行調(diào)節(jié),例如:如果用CPU預(yù)測(cè)模型,可以減小批處理大小,從而解決內(nèi)存溢出問題;如果計(jì)算機(jī)內(nèi)存不夠,可考慮把訓(xùn)練集和測(cè)試集轉(zhuǎn)化為L(zhǎng)EVELDB類型作為輸入文件,從而減小內(nèi)存消耗;如果要進(jìn)一步提高收斂速度和精度,可以制作均值文件。權(quán)重學(xué)習(xí)率參數(shù)、偏置學(xué)習(xí)率參數(shù)、卷積核個(gè)數(shù)、卷積核大小、步長(zhǎng)、填充大小以及池化窗口大小和步長(zhǎng),可根據(jù)損失值和精度進(jìn)行反饋調(diào)節(jié)。對(duì)于隨機(jī)初始化卷積核的方式,也可選擇常量初始化(constant)、均勻分布初始化(uniform)、xavier初始化、雙線性初始化(bilinear)等

13、方式;對(duì)于池化層,可選擇均值池化和隨機(jī)池化方法。均值池化有保留整體特征的特點(diǎn),隨機(jī)池化不會(huì)造成特征圖的過度失真,以上池化方式也可穿插在各池化層中使用,以保證特征提取的整體性;對(duì)于激活層,可以用sigmoid函數(shù)代替RELU函數(shù),但是sigmoid函數(shù)容易飽和,從而導(dǎo)致?lián)p失函數(shù)收斂較慢。具體訓(xùn)練網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示,預(yù)測(cè)模型結(jié)構(gòu)如圖2所示。1.3學(xué)習(xí)率策略隨著數(shù)據(jù)集增加及網(wǎng)絡(luò)結(jié)構(gòu)變得更深,深度模型的訓(xùn)練往往會(huì)花費(fèi)較長(zhǎng)時(shí)間,所以如何選擇或設(shè)計(jì)深度學(xué)習(xí)策略是提高收斂速度和減少訓(xùn)練時(shí)間的一個(gè)重要因素14。因?yàn)镾olver優(yōu)化方法包括多種學(xué)習(xí)策略15,所以在此介紹Slover方法。Slover方法是通過前

14、向推斷和反向梯度計(jì)算對(duì)參數(shù)進(jìn)行更新從而減小loss。其定義為L(zhǎng)(W)=1DDtfw(X(t)+r(W)(3)L(W)1NNtfw(X(t)+r(W)(4)式(3)、式(4)中,D是給定的數(shù)據(jù)集,N為隨機(jī)子集,N遠(yuǎn)遠(yuǎn)小于D,L(W)為平均損失,為權(quán)重,W為更新權(quán)重,fw(X(t)是數(shù)據(jù)中X(t)項(xiàng)的損失,r(W)是正則項(xiàng)。對(duì)于前向過程,計(jì)算fw即loss,對(duì)于反向過程,計(jì)算fw即梯度,然后根據(jù)梯度fw、正則項(xiàng)的梯度r(W)等計(jì)算參數(shù)更新W。學(xué)習(xí)率策略很多,例如隨機(jī)梯度下降SGD(Stochastic Gradient Descent)16、Adam(來源于adaptive moment esti

15、mation)17、AdaDelta18以及賀昱曜等14提出的組合型AdaMix學(xué)習(xí)率方法。利用Mnist數(shù)據(jù)集19進(jìn)行手寫數(shù)字識(shí)別模型訓(xùn)練,觀察迭代過程,Adam、AdaDelta與SGD的訓(xùn)練損失(Train loss)、測(cè)試準(zhǔn)確度(Test accuracy)和測(cè)試損失(Test loss)變化曲線如圖3所示。圖3基于Adam、AdaDelta與SGD學(xué)習(xí)策略的Loss下降過程和Accuracy上升過程從圖3可以看出,基于Adam學(xué)習(xí)策略的識(shí)別準(zhǔn)確度可達(dá)90%以上,但在迭代中會(huì)產(chǎn)生大的震蕩,這不利于精度的穩(wěn)定上升?;贏daDelta學(xué)習(xí)策略的識(shí)別準(zhǔn)確度也可達(dá)到90%以上,但其收斂速度過

16、慢,而且迭代后期準(zhǔn)確度難以提高?;赟GD學(xué)習(xí)策略的識(shí)別準(zhǔn)確度將近100%,而且收斂速度很快,大約在迭代1 000次左右就已達(dá)98%的準(zhǔn)確度。SGD雖然不像Adam和AdaGrad(Adaptive Gradient)學(xué)習(xí)率優(yōu)化方法一樣是自適應(yīng)優(yōu)化方法,但根據(jù)函數(shù)本身的特點(diǎn)調(diào)節(jié)學(xué)習(xí)率大小,在很多情況下也不失為一種簡(jiǎn)單有效的優(yōu)化方法14。本文沿用隨機(jī)梯度下降方法SGD,其定義如下:Vt+1=Vt-L(Wt)(5)Wt+1=Wt+Vt+1(6)式(5)、式(6)中,Vt+1為本次更新值,Wt+1為本次權(quán)重,Vt為上次計(jì)算的更新值,Wt為當(dāng)前權(quán)重,學(xué)習(xí)參數(shù)和分別是負(fù)梯度權(quán)重和一次更新值的權(quán)重,L(W

17、t)為負(fù)梯度。 1.4數(shù)據(jù)選擇本文應(yīng)用聚數(shù)力網(wǎng)絡(luò)平臺(tái)提供的細(xì)胞圖像數(shù)據(jù)集的165張圖片作為訓(xùn)練集和測(cè)試集原本(http:/Dataju/web/datasetInstanceDetail/242),通過數(shù)據(jù)增加(DATA Augmentation,DA)把訓(xùn)練集擴(kuò)展為4 950張,測(cè)試集為1 573張。數(shù)據(jù)增加通過旋轉(zhuǎn)、變形、扭曲、裁剪以及噪聲添加等功能增加數(shù)據(jù)集20,然后根據(jù)聚數(shù)力提供的惡化程度信息,分為良性健康、良性腺瘤、惡性中度分化、惡性中度至差分和惡性5類。訓(xùn)練集中包括21例良性健康、16例良性腺瘤、24例惡性中度分化、12例惡性中度至差分、12例惡性。測(cè)試集中包括21例良性健康、16

18、例良性腺瘤、23例惡性中度分化、8例惡性中度至差分、12例惡性。2實(shí)驗(yàn)結(jié)果本文基于深度學(xué)習(xí)的細(xì)胞癌惡化程度預(yù)測(cè)模型,設(shè)計(jì)了深度學(xué)習(xí)訓(xùn)練網(wǎng)絡(luò)結(jié)構(gòu)和預(yù)測(cè)網(wǎng)絡(luò)結(jié)構(gòu)。預(yù)測(cè)網(wǎng)絡(luò)結(jié)構(gòu)相比訓(xùn)練網(wǎng)絡(luò)結(jié)構(gòu)沒有訓(xùn)練和測(cè)試數(shù)據(jù)層,沒有損失層和精度層,增加了測(cè)試圖片的輸入層和輸出似然值的Softmax層。選擇SGD作為本文學(xué)習(xí)策略。迭代170 000次進(jìn)行模型訓(xùn)練,預(yù)測(cè)模型的最終訓(xùn)練損失值為0.016 889 6,測(cè)試損失值為0.035 688 9,預(yù)測(cè)準(zhǔn)確度為 87.38%。利用訓(xùn)練出的惡化程度預(yù)測(cè)模型對(duì)5張不同惡化程度的圖片進(jìn)行預(yù)測(cè),良性健康的預(yù)測(cè)準(zhǔn)確率為87.21%,良性腺瘤的預(yù)測(cè)準(zhǔn)確率為94.17%,惡性中度

19、分化預(yù)測(cè)準(zhǔn)確率為89.33%,惡性中度至差分預(yù)測(cè)準(zhǔn)確度為81.58%,惡性預(yù)測(cè)準(zhǔn)確度為90.91%,詳細(xì)數(shù)據(jù)見表1。本文訓(xùn)練預(yù)測(cè)模型的Loss下降和Accuracy上升曲線如圖4所示。3結(jié)語細(xì)胞圖像病理識(shí)別數(shù)據(jù)集中含有較少的無關(guān)信息,通過構(gòu)建深度訓(xùn)練網(wǎng)絡(luò)結(jié)構(gòu),從而訓(xùn)練出惡化程度預(yù)測(cè)模型,實(shí)驗(yàn)結(jié)果顯示基于深度學(xué)習(xí)的細(xì)胞癌惡化程度預(yù)測(cè)方法的預(yù)測(cè)準(zhǔn)確度達(dá)到87.38%。該模型可以輔助病理學(xué)家進(jìn)行相關(guān)研究。本文方法有深度模型化及高準(zhǔn)確預(yù)測(cè)的優(yōu)點(diǎn),可用于病理學(xué)家的臨床研究中。本文方法也可用于其它癌癥的預(yù)測(cè)和分析,但如果數(shù)據(jù)集中含有較多的無關(guān)信息,建議首先對(duì)病灶區(qū)域進(jìn)行分割,利用分割出來的病灶區(qū)域進(jìn)行預(yù)測(cè)

20、模型訓(xùn)練,這對(duì)提高預(yù)測(cè)準(zhǔn)確度和解決過擬合很重要,后續(xù)將對(duì)本文方法的普適性進(jìn)行分析和研究。隨著國內(nèi)外相關(guān)數(shù)據(jù)集的不斷公開,深度學(xué)習(xí)樣本會(huì)不斷增加,預(yù)測(cè)準(zhǔn)確率會(huì)相應(yīng)提高。ReferenceReference:1張利文,劉俠,王俊,等.基于定量影像組學(xué)的肺腫瘤良惡性預(yù)測(cè)方法J.自動(dòng)化學(xué)報(bào),2017,43(2):16.2REJINTAL A, ASWINI N. Image processing based leukemia cancer cell detectionC. Recent Trends in Electronics, Information & Communication Technol

21、ogy(RTEICT),2016.3VINCENTP, LAROCHELLEH, BENGIOY, et al. Extracting and composing robust features with denoising autoencodersC. Proc of the 25th International Conference on Machine Learning, New York:ACM Press, 2008:10961103.4JIFENG D, KAIMING H, JIAN S. Convolutional feature masking for joint objec

22、t and stuff segmentationC. Computer Vision and Pattern Recognition (CVPR),2015.5YANGQING J, SHELHAMER E, DONAHUE J, et al. Caffe:convolutional architecture for fast feature embeddingC. Proceedings of The 22nd ACM International Conference on Multimedia, Orlando:ACM, 2014:675678.6MCCULLOCH W S, PITTS

23、W A. Logical calculus of the ideas immanent in nervous activityJ. Journal of Symbolic Logic,1944,9(2):4950.7ROSENBLATT F. The perceptron: a probabilistic model for information storage and organization in the brainJ. Psychological Review,1958,65(6):386387.8CARPENTER G A, GROSSBERG S, ROSEN D B. Fuzzy

24、 art: fast stable learning and categorization of analog patterns by an adaptive resonance systemJ. Neural Networks,1991,4(6):759771.9BENGIO Y. Learning deep architectures for AIM. Fundations & Trends in Machine Learning,2009. 10HUBEL D H, WIESEL T N. Receptive fields of single neurones in the cats s

25、triate cortexJ. Journal of Physiology,1959,148(3):574591.11ALBERICO A. Analysis of the process of visual pattern recognition by the neocognitron: kunihiko fukushimaJ. Communications in Partial Differential Equations,2016(1):2223.12YIMING H, DI W, ZHIFEN Z, et al. Emdbased pulsed tig welding process porosity defect detection and defect diagnosis using GASVMJ. Journal of Materials Processing Technology,2017,239(1):92102.13KAI Y, WEI X, YIHONG G. Deep learning with kernel regularization for visual recognitionC. Proceedings of the TwentySecond Annual Conference on Neural Information Processin

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論