卷積網(wǎng)絡(luò)模型及其在遙感圖像目標(biāo)識(shí)別中的應(yīng)用的任務(wù)書_第1頁
卷積網(wǎng)絡(luò)模型及其在遙感圖像目標(biāo)識(shí)別中的應(yīng)用的任務(wù)書_第2頁
卷積網(wǎng)絡(luò)模型及其在遙感圖像目標(biāo)識(shí)別中的應(yīng)用的任務(wù)書_第3頁
全文預(yù)覽已結(jié)束

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

卷積網(wǎng)絡(luò)模型及其在遙感圖像目標(biāo)識(shí)別中的應(yīng)用的任務(wù)書任務(wù)書一、選題背景遙感技術(shù)是一種應(yīng)用廣泛的技術(shù),在資源調(diào)查、環(huán)境監(jiān)測(cè)、地形地貌等方面都有著重要的應(yīng)用。在遙感圖像中,目標(biāo)識(shí)別是其中一個(gè)非常重要的應(yīng)用,這對(duì)于植被監(jiān)測(cè)、農(nóng)田管理、水資源管理等具有非常重要的意義。目前,卷積神經(jīng)網(wǎng)絡(luò)(ConvolutionalNeuralNetwork,CNN)成為圖像處理領(lǐng)域中一種非常重要的技術(shù)。它具有層次化的結(jié)構(gòu)、自學(xué)習(xí)特點(diǎn)和較強(qiáng)的非線性擬合能力,在圖像識(shí)別中有非常廣泛的應(yīng)用。因此,本課題旨在應(yīng)用卷積神經(jīng)網(wǎng)絡(luò)技術(shù),對(duì)遙感圖像中的目標(biāo)進(jìn)行識(shí)別分類。二、任務(wù)要求1.綜合運(yùn)用計(jì)算機(jī)視覺、卷積網(wǎng)絡(luò)算法的相關(guān)知識(shí)與技術(shù),實(shí)現(xiàn)一種遙感圖像目標(biāo)識(shí)別的分類器模型;2.選取至少兩個(gè)開放數(shù)據(jù)集(如UCMercedLandUseDataset、NWPU-RESISC45等),進(jìn)行實(shí)驗(yàn)測(cè)試,并對(duì)實(shí)驗(yàn)結(jié)果進(jìn)行分析和評(píng)價(jià);3.要求模型具有自適應(yīng)學(xué)習(xí)能力,在樣本量較少的情況下仍能高效地進(jìn)行目標(biāo)分類;4.在設(shè)計(jì)模型時(shí)需要考慮到計(jì)算資源的消耗和運(yùn)行時(shí)間的限制,提高模型的運(yùn)行效率;5.寫出實(shí)驗(yàn)報(bào)告,包括設(shè)計(jì)模型的詳細(xì)思路、程序?qū)崿F(xiàn)的過程、實(shí)驗(yàn)結(jié)果的數(shù)據(jù)對(duì)比分析。三、實(shí)驗(yàn)環(huán)境1.深度學(xué)習(xí)框架需使用Keras、TensorFlow、Caffe、PyTorch等至少一種;2.代碼編寫軟件:無特定要求,建議使用Python相關(guān)的編程軟件(如Jupiter、PyCharm等);3.實(shí)驗(yàn)平臺(tái):自備計(jì)算機(jī)或使用云計(jì)算平臺(tái)(如GoogleColab、華為云等)。四、時(shí)間安排本課題時(shí)間為1個(gè)月,安排如下:第1周:熟悉卷積神經(jīng)網(wǎng)絡(luò)的基本知識(shí)第2-3周:設(shè)計(jì)并訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò)分類器第4周:對(duì)實(shí)驗(yàn)結(jié)果進(jìn)行分析和優(yōu)化,并完成實(shí)驗(yàn)報(bào)告五、參考文獻(xiàn)[1]KrizhevskyA,SutskeverI,HintonGE.Imagenetclassificationwithdeepconvolutionalneuralnetworks[C]//Advancesinneuralinformationprocessingsystems.2012:1097-1105.[2]SimonyanK,ZissermanA.Verydeepconvolutionalnetworksforlarge-scaleimagerecognition[J].arXivpreprintarXiv:1409.1556,2014.[3]HeK,ZhangX,RenS,etal.Deepresiduallearningforimagerecognition[C]//ProceedingsoftheIEEEconferenceoncomputervisionandpatternrecognition.2016:770-778.[4]KrizhevskyA.Learningmultiplelayersoffeaturesfromtinyimages[J].2009.[5]SuB,ZhangL,YangM,etal.Collaborativedeeplearningforremotesensingbigdataanalytics[J].IEEETransactionsonGeoscienceandRemoteSensing,2017,55(3):1333-1347.[6]WeiX,ZhangL,WuX,etal.Deepspatialpyramidensembleforremotesensingsceneclassification[J].RemoteSensing,2017,9(4):352.[7]ChenB,ZhangL,DuB,etal.Deepfeaturesforcropclassificationwithmultispectralremotelysensedimagery[J].RemoteSensing,2018,10(9):1324.六、其他注意事項(xiàng)1.在實(shí)

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論