水力旋流器神經(jīng)網(wǎng)絡性能預測_第1頁
水力旋流器神經(jīng)網(wǎng)絡性能預測_第2頁
水力旋流器神經(jīng)網(wǎng)絡性能預測_第3頁
水力旋流器神經(jīng)網(wǎng)絡性能預測_第4頁
水力旋流器神經(jīng)網(wǎng)絡性能預測_第5頁
已閱讀5頁,還剩19頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領

文檔簡介

基于神經(jīng)網(wǎng)絡的旋流過濾器

性能預測研究問題概述數(shù)學模型2BP神經(jīng)網(wǎng)絡模型3Matlab程序41目錄5結(jié)論2研究問題概述

旋流過濾器作為一種多機理、多功能化的新型固液分離設備,分離性能受到多種因素的影響,而有效地預測其性能對于工程實踐具有重要意義。以往旋流過濾器的性能預測方法主要是依賴傳統(tǒng)的數(shù)學模型。這些模型大都是在某些特定的簡化條件下得到的線性或近似線性模型。而實際生產(chǎn)中旋流器各項參數(shù)間多為復雜的非線性關(guān)系,若用傳統(tǒng)的線性模型對其性能進行預測,得到的結(jié)果往往不能令人滿意。所以需要新的手段和方法來解決這些問題。

1.1研究背景3研究問題概述人工神經(jīng)網(wǎng)絡模型2BP神經(jīng)網(wǎng)絡模型3Matlab程序41目錄5結(jié)論4人工神經(jīng)網(wǎng)絡模型圖1.神經(jīng)元信息處理過程示意圖生物神經(jīng)元的信息處理包括兩個階段,第一階段是神經(jīng)元接收信息流的加權(quán)過程,稱作聚合過程;第二階段是對聚合后信息流的處理過程,稱作活化過程。圖1模擬了單個生物神經(jīng)元的信息處理過程。5人工神經(jīng)網(wǎng)絡模型圖2.人工神經(jīng)元數(shù)學模型從生物神經(jīng)元的特性和功能可以知道,神經(jīng)元是一個多輸入單輸出的信息處理單元,它對信息的處理是非線性的。根據(jù)生物神經(jīng)元的特性和功能,可以把神經(jīng)元抽象為一個簡單的數(shù)學模型,如圖2所示。X1--Xn:神經(jīng)元輸入;Wij:神經(jīng)元i對各輸入的權(quán)系數(shù)(j=1~n);Yi:i神經(jīng)元的輸出;f(·):激發(fā)函數(shù)6研究問題概述人工神經(jīng)網(wǎng)絡模型2BP神經(jīng)網(wǎng)絡模型3Matlab程序41目錄5結(jié)論7BP神經(jīng)網(wǎng)絡模型BP神經(jīng)網(wǎng)絡是一種按誤差逆?zhèn)鞑ニ惴ǎɡ幂敵鰧拥恼`差來估計輸出層的直接前導層的誤差,再用這個誤差估計更前一層的誤差)訓練的多層前饋網(wǎng)絡,是目前應用最廣泛的神經(jīng)網(wǎng)絡模型之一。BP網(wǎng)絡能學習和存貯大量的輸入-輸出模式映射關(guān)系,而無需事前揭示描述這種映射關(guān)系的數(shù)學方程。它的學習規(guī)則是使用最速下降法,通過反向傳播來不斷調(diào)整網(wǎng)絡的權(quán)值和閾值,使網(wǎng)絡的誤差平方和最小。BP神經(jīng)網(wǎng)絡模型拓撲結(jié)構(gòu)包括輸入層(input)、隱層(hiddenlayer)和輸出層(outputlayer)。3.1BP神經(jīng)網(wǎng)絡模型簡介8BP神經(jīng)網(wǎng)絡模型圖3.BP網(wǎng)絡結(jié)構(gòu)BP算法的運算過程如下:1)計算隱層單元的輸入;2)計算隱層單元的輸出;3)計算輸出單元的輸入;4)計算輸出單元的輸出。9BP神經(jīng)網(wǎng)絡模型輸入層的輸出等于整個網(wǎng)絡的輸入信號,如式(1)所示:

隱含層第i個神經(jīng)元輸入等于的加權(quán)和,式(2):激活函數(shù)為Sigmoid函數(shù)則隱含層第i個神經(jīng)元的輸出表示為式(3):輸出層第j個神經(jīng)元的輸入等于的加權(quán)和如式(4)所示(1)(2)(3)(4)10BP神經(jīng)網(wǎng)絡模型輸出層第j個神經(jīng)元的誤差如式(6): 網(wǎng)絡的總的誤差如式(7):

輸出層第j個神經(jīng)元的輸出:(5)(6)(7)11BP神經(jīng)網(wǎng)絡模型

將120組實驗數(shù)據(jù)劃分為訓練集(114組)和測試集(6組)。其中訓練集數(shù)據(jù)用來訓練并建立神經(jīng)網(wǎng)絡模型,測試集用來驗證網(wǎng)絡預測性能的準確性。為了防止較小的數(shù)據(jù)被較大的數(shù)據(jù)淹沒,對各輸入樣本進行歸一化處理,使網(wǎng)絡的輸入和目標矢量取值范圍為[-1,1]。y--歸一化的輸入數(shù)據(jù);ymax--歸一化的數(shù)據(jù)最大值,即1;ymin--歸一化后數(shù)據(jù)最小值,即-1;x--輸入矢量;xmin--輸入矢量最小值;xmax--輸入矢量最大值12BP神經(jīng)網(wǎng)絡模型底流率流量分離效率壓降底流率流量分離效率壓降-0.8947-1-1-0.9544-0.68420.2-0.12450.03731-10.3193-1-0.57890.2-0.01070.0287-1-0.6-0.6844-0.6374-0.78950.6-0.04920.45070.6842-0.60.4835-0.7101-0.68420.60.06220.4410-0.5789-0.2-0.0602-0.3633-11-0.34651-0.4737-0.20.0748-0.3712-0.89471-0.22250.9773表3-1部分歸一化數(shù)據(jù)表3.2試驗數(shù)據(jù)預處理13BP神經(jīng)網(wǎng)絡模型

對于BP神經(jīng)網(wǎng)絡,最關(guān)鍵的網(wǎng)絡參數(shù)是隱含層節(jié)點數(shù)。隱含層節(jié)點數(shù)過少,導致網(wǎng)絡容錯性差、識別未經(jīng)學習的樣本能力低。隱含層節(jié)點數(shù)過多,又會降低收斂速度,降低泛化能力。

3.3網(wǎng)絡參數(shù)設置圖4不同隱含層節(jié)點數(shù)下各預測參數(shù)相對誤差曲線

綜合考慮分離效率和壓降的預報誤差,選擇隱含層節(jié)點數(shù)為9。3.3.1隱含層節(jié)點數(shù)n--輸入層節(jié)點數(shù);m--輸出層節(jié)點數(shù);a--0~10之間的常數(shù)。輸入層節(jié)點:旋流器的操作參數(shù),包括入口流量和底流率,n=2;輸出層節(jié)點:旋流器的分離參數(shù),包括分離效率和壓降,m=2。14BP神經(jīng)網(wǎng)絡模型圖5不同訓練方法下網(wǎng)絡訓練過程3.3.2訓練方法的選擇選擇trainlm作為訓練函數(shù)訓練方法訓練步長最小訓練誤差trainlm12010-5traingdm100010-1trainbr7510-2表3-2不同訓練方法比較trainlmtraingdmtrainbr15研究問題概述人工神經(jīng)網(wǎng)絡模型2BP神經(jīng)網(wǎng)絡模型3Matlab程序41目錄5結(jié)論16clear,clc[x]=textread(‘shujubianhua11.txt’);%讀取數(shù)據(jù)trainx=x(1:2,1:114);trainy=x(3:4,1:114);%定義訓練數(shù)據(jù)testx=x(1:2,115:120);testy=x(3:4,115:120);%定義測試數(shù)據(jù)[trainx1,s1]=mapminmax(trainx);%歸一化處理[trainy1,s2]=mapminmax(trainy);testx1=mapminmax('apply',testx,s1);testy1=mapminmax('apply',testy,s2);trainx11=trainx1(1:2,1:114);%預測參數(shù)trainy11=trainy1(1:2,1:114);net=newff(trainx1,trainy1,9);%建立可訓練的前饋數(shù)據(jù)網(wǎng)絡net.trainparam.epochs=1000;%最大訓練次數(shù)net.trainparam.goal=1e-8;%最小均方誤差net.trainparam.min_grad=1e-20;%最小梯度Matlab程序17Matlab程序net.trainparam.show=200;%訓練顯示間隔net.trainparam.time=inf;%最大訓練時間ticnet=train(net,trainx11,trainy11);%訓練toctestty2=sim(net,testx1);%對測試樣本進行仿真testtty=mapminmax(‘reverse’,testty2,s2)%反歸一化處理e=(testy-testtty)./testy%計算與實驗值的相對誤差

figure(1)%作圖x=1:length(testtty);plot(x,testy(1,:),'b-');%分離效率真實值holdonplot(x,testtty(1,:),'r--');%分離效率預測值legend('真實值','預測值')18Matlab程序title('分離效率的測試結(jié)果')figure(2)plot(x,testy(2,:),'b-');%壓降真實值holdonplot(x,testtty(2,:),'r--');%壓降預測值legend('真實值','預測值')title('壓降的測試結(jié)果')19研究問題概述人工神經(jīng)網(wǎng)絡模型2BP神經(jīng)網(wǎng)絡模型3Matlab程序41目錄5結(jié)論20結(jié)論5.1BP網(wǎng)絡預測結(jié)果分析5.1.1樣本組數(shù)對網(wǎng)絡性能影響43組56組85組114組訓練樣本數(shù)分離效率Er/%壓降Er/%訓練次數(shù)性能驗證最佳值/×10-3436.466.241091.47567.012.161360.43852.040.54430.041140.650.71770.13表5-1不同訓練樣本數(shù)下的BP網(wǎng)絡預測結(jié)果網(wǎng)絡預測精度與訓練樣本數(shù)成正相關(guān)圖7BP網(wǎng)絡訓練過程21BP神經(jīng)網(wǎng)絡模型

表5-2不同樣本順序下BP網(wǎng)絡預測結(jié)果5.1.2樣本順序?qū)W(wǎng)絡性能影響組別分離效率預測值1/%分離效率預測值2/%Er1/%Er2/%壓降預測值1/KPa壓降預測值2/KPaEr1/%Er2/%110.26799.86883.073.8953.469952.8358-0.131.19228.606829.0501-0.31-1.1578.621178.29610.3630.41336.190035.5932-1.011.65104.0784104.15680.27-0.08440.029440.0702-0.18-0.10138.7584138.5982-0.100.12545.975146.02671.27-0.11172.1850171.88080.820.18648.224048.2026-0.060.04215.0538215.26500.68-0.10

訓練樣本的輸入順序?qū)P神經(jīng)網(wǎng)絡的預測性能影響并不大。22

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論