基于深度流檢測的P2P網(wǎng)絡(luò)流量識別系統(tǒng)的中期報告_第1頁
基于深度流檢測的P2P網(wǎng)絡(luò)流量識別系統(tǒng)的中期報告_第2頁
基于深度流檢測的P2P網(wǎng)絡(luò)流量識別系統(tǒng)的中期報告_第3頁
全文預(yù)覽已結(jié)束

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

基于深度流檢測的P2P網(wǎng)絡(luò)流量識別系統(tǒng)的中期報告一、研究背景P2P(Peer-to-Peer)網(wǎng)絡(luò)已成為當今互聯(lián)網(wǎng)最重要的應(yīng)用之一,隨著P2P應(yīng)用迅速發(fā)展,其所占總流量的比例也不斷增加。P2P網(wǎng)絡(luò)是指一種直接連接到互聯(lián)網(wǎng)的互聯(lián)網(wǎng)應(yīng)用程序,因此其流量識別是網(wǎng)絡(luò)管理、網(wǎng)絡(luò)安全等領(lǐng)域的重要研究方向之一。傳統(tǒng)的流量監(jiān)測方法主要基于通信端口或協(xié)議識別,但這些方法已經(jīng)逐漸失效,因為現(xiàn)今的P2P應(yīng)用程序往往使用隨機或動態(tài)端口。因此,P2P網(wǎng)絡(luò)流量識別已經(jīng)成為一個重要的難題。近年來,深度學(xué)習(xí)在圖像識別、語音識別和自然語言處理等領(lǐng)域都取得了巨大成功,因此也開始在網(wǎng)絡(luò)流量識別領(lǐng)域得到廣泛應(yīng)用。本研究旨在基于深度流檢測方法,實現(xiàn)P2P網(wǎng)絡(luò)流量識別。二、研究內(nèi)容本研究基于深度學(xué)習(xí)技術(shù),采用深度流檢測方法對P2P流量進行識別。具體內(nèi)容包括以下幾個方面:1.數(shù)據(jù)集構(gòu)建:從公開數(shù)據(jù)集和采集的真實網(wǎng)絡(luò)數(shù)據(jù)中,選擇常見的P2P應(yīng)用作為訓(xùn)練數(shù)據(jù),并將其與其他非P2P流量混合,構(gòu)建混合流量數(shù)據(jù)集。2.特征提?。翰捎镁矸e神經(jīng)網(wǎng)絡(luò)(CNN)對網(wǎng)絡(luò)數(shù)據(jù)進行特征提取,提高網(wǎng)絡(luò)識別準確率。3.分類模型設(shè)計:根據(jù)提取的特征,設(shè)計分類模型對P2P流量和非P2P流量進行分類。4.模型優(yōu)化:對設(shè)計好的模型進行優(yōu)化,包括優(yōu)化超參數(shù)、網(wǎng)絡(luò)結(jié)構(gòu)和模型訓(xùn)練策略等。5.系統(tǒng)實現(xiàn):在Python平臺下實現(xiàn)基于深度流檢測的P2P網(wǎng)絡(luò)流量識別系統(tǒng),并進行實驗評估。三、預(yù)期目標本研究的預(yù)期目標如下:1.設(shè)計一套高效的P2P流量識別系統(tǒng),能夠準確識別P2P流量,并區(qū)分其他流量類型。2.通過實驗驗證,證明基于深度流檢測方法的P2P網(wǎng)絡(luò)流量識別系統(tǒng)的效果優(yōu)于傳統(tǒng)的端口和協(xié)議識別方法。3.探討深度學(xué)習(xí)在網(wǎng)絡(luò)流量識別領(lǐng)域的應(yīng)用,為進一步研究提供借鑒和參考。四、研究進展本項研究目前已完成數(shù)據(jù)集的構(gòu)建、特征提取、分類模型設(shè)計等工作。1.數(shù)據(jù)集構(gòu)建數(shù)據(jù)集的構(gòu)建主要分為數(shù)據(jù)源采集和數(shù)據(jù)集劃分兩個部分。數(shù)據(jù)源采集:采集公開數(shù)據(jù)集以及各個應(yīng)用的真實網(wǎng)絡(luò)數(shù)據(jù)。公開數(shù)據(jù)集包括CICIDS2017、ISCXVPN2016和CSE-CIC-IDS2018等。真實數(shù)據(jù)采集方式為抓包,抓取了各種類型的應(yīng)用流量。將所有數(shù)據(jù)混合為一份數(shù)據(jù)集。數(shù)據(jù)集劃分:將所有數(shù)據(jù)分為訓(xùn)練集、驗證集和測試集三部分。其中訓(xùn)練集占數(shù)據(jù)集的80%、驗證集占數(shù)據(jù)集的10%、測試集占數(shù)據(jù)集的10%。2.特征提取特征提取主要采用卷積神經(jīng)網(wǎng)絡(luò)(CNN)的方法,對數(shù)據(jù)進行深度特征提取。CNN網(wǎng)絡(luò)包括卷積層、池化層、全連接層和激活函數(shù)等。本項研究采用了三層的CNN網(wǎng)絡(luò),其中卷積層和池化層均采用了多尺度和多核方法,增加了網(wǎng)絡(luò)的泛化能力。經(jīng)過特征提取的輸出向量將作為分類模型的輸入。3.分類模型設(shè)計基于特征提取的結(jié)果,本項研究設(shè)計了一種P2P流量分類模型。分類模型采用了全連接神經(jīng)網(wǎng)絡(luò),并且設(shè)計了兩個隱藏層。為了避免模型過擬合,分類模型采用了Dropout以及L1和L2正則化方法進行優(yōu)化。本項研究在訓(xùn)練模型時采用了交叉熵誤差函數(shù),使用Adam優(yōu)化算法進行模型優(yōu)化。經(jīng)過模型訓(xùn)練和驗證,實現(xiàn)了對P2P流量和非P2P流量的分類。四、總結(jié)本項研究目前已完成數(shù)據(jù)集構(gòu)建、特征提取和分類模型

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論