MATLAB程序代碼--神經(jīng)網(wǎng)絡(luò)基礎(chǔ)問題整理(共10頁)_第1頁
MATLAB程序代碼--神經(jīng)網(wǎng)絡(luò)基礎(chǔ)問題整理(共10頁)_第2頁
MATLAB程序代碼--神經(jīng)網(wǎng)絡(luò)基礎(chǔ)問題整理(共10頁)_第3頁
MATLAB程序代碼--神經(jīng)網(wǎng)絡(luò)基礎(chǔ)問題整理(共10頁)_第4頁
MATLAB程序代碼--神經(jīng)網(wǎng)絡(luò)基礎(chǔ)問題整理(共10頁)_第5頁
已閱讀5頁,還剩5頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)

文檔簡介

1、MATLAB程序代碼-神經(jīng)網(wǎng)絡(luò)基礎(chǔ)問題整理所選問題及解答大部分來源于 資料大部分為江南一紀(jì)收集整理 對其他參與整理的版友(不一一列舉)及 資料的原創(chuàng)者一并表示感謝因江南對神經(jīng)網(wǎng)絡(luò)的理解也不是很多 錯誤之處難勉 請諒解有什么問題可以來 的交流*1神經(jīng)網(wǎng)絡(luò)的教材哪本比較經(jīng)典神經(jīng)網(wǎng)絡(luò)原理Simon Haykin ? 葉世?史忠植譯神經(jīng)網(wǎng)絡(luò)設(shè)計(jì)神經(jīng)網(wǎng)絡(luò)書籍神經(jīng)網(wǎng)絡(luò)模型及其matlab仿真程序設(shè)計(jì) 周開利(對神經(jīng)網(wǎng)絡(luò)工具箱函數(shù)及里面神經(jīng)網(wǎng)絡(luò)工具箱的神經(jīng)網(wǎng)絡(luò)模型的網(wǎng)絡(luò)對象及其屬性做了詳細(xì)的論述,后者在神經(jīng)網(wǎng)絡(luò)理論與matlab7實(shí)現(xiàn)那本書里面是沒有的)神經(jīng)網(wǎng)絡(luò)理論與matlab7實(shí)現(xiàn)(這本書對初學(xué)這入門還

2、是挺不錯的,看過了,就對matlab神經(jīng)網(wǎng)絡(luò)工具箱有教好的了解)神經(jīng)網(wǎng)絡(luò)設(shè)計(jì)(我認(rèn)為這是一本很好的書,講理論不是很多,看過之后就會對神經(jīng)網(wǎng)絡(luò)的原理有更好的了解)神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計(jì)的理論與方法(這本書對提高網(wǎng)絡(luò)的泛化能力的一些方法做了講述,并且書后有程序,對網(wǎng)絡(luò)結(jié)構(gòu)的設(shè)計(jì)應(yīng)該是挺有幫助的)摘自給初學(xué)matlab神經(jīng)網(wǎng)絡(luò)的一點(diǎn)建議2 神經(jīng)網(wǎng)絡(luò)理論的發(fā)展與前沿問題神經(jīng)網(wǎng)絡(luò)理論的發(fā)展與前沿問題劉永?摘要系統(tǒng)地論述了神經(jīng)網(wǎng)絡(luò)理論發(fā)展的歷史和現(xiàn)狀,在此基礎(chǔ)上,對其主要發(fā)展趨向和所涉及的前沿問題進(jìn)行了闡述文中還作了一定的評論,并提出了新的觀點(diǎn) 關(guān)鍵詞神經(jīng)網(wǎng)絡(luò)理論,神經(jīng)計(jì)算,進(jìn)化計(jì)算,基于神經(jīng)科學(xué)和數(shù)學(xué)的研?查

3、看原文3 神經(jīng)網(wǎng)絡(luò)的權(quán)值和閾值分別是個什么概念?權(quán)值和閾值是神經(jīng)元之間的連接,將數(shù)據(jù)輸入計(jì)算出一個輸出,然后與實(shí)際輸出比較,誤差反傳,不斷調(diào)整權(quán)值和閾值假如p1=1 1 -1;p2=1 -1 -1;屬于不同的類須設(shè)計(jì)分類器將他們分開這里用單層神經(jīng)元感知器初始權(quán)值 w=0.2 0.2 0.3 b=-0.3輸出 a1 a2a1=hardlims(w*p1+b)a2=hardlims(w*p2+b)如果不能分開,還須不斷調(diào)整w,b 這里說明一下權(quán)值w 閾值b 而已簡單地說,閾值也可以看作一維權(quán)值,只不過它所對應(yīng)的那一維樣本永遠(yuǎn)是 -1(也有的書上說是 1),這樣就把輸入樣本增加了一維,更有利于解決問

4、題.4 神經(jīng)網(wǎng)絡(luò)歸一化看了研學(xué)和ai創(chuàng)業(yè)研發(fā)俱樂部神經(jīng)網(wǎng)絡(luò)版及振動論壇部分帖子內(nèi)容,對歸一化做一下整理,冒昧引用了一些他人的觀點(diǎn),有的未列出其名,請諒解-關(guān)于神經(jīng)網(wǎng)絡(luò)歸一化方法的整理由于采集的各數(shù)據(jù)單位不一致,因而須對數(shù)據(jù)進(jìn)行-1,1歸一化處理,歸一化方法主要有如下幾種,供大家參考:(by james)1、線性函數(shù)轉(zhuǎn)換,表達(dá)式如下:y=(x-MinValue)/(MaxValue-MinValue)說明:x、y分別為轉(zhuǎn)換前、后的值,MaxValue、MinValue分別為樣本的最大值和最小值。2、對數(shù)函數(shù)轉(zhuǎn)換,表達(dá)式如下:y=log10(x)說明:以10為底的對數(shù)函數(shù)轉(zhuǎn)換。3、反余切函數(shù)轉(zhuǎn)換,

5、表達(dá)式如下:y=atan(x)*2/PI-歸一化是為了加快訓(xùn)練網(wǎng)絡(luò)的收斂性,可以不進(jìn)行歸一化處理 歸一化的具體作用是歸納統(tǒng)一樣本的統(tǒng)計(jì)分布性。歸一化在0-1之間是統(tǒng)計(jì)的概率分布,歸一化在-1-+1之間是統(tǒng)計(jì)的坐標(biāo)分布。歸一化有同一、統(tǒng)一和合一的意思。無論是為了建模還是為了計(jì)算,首先基本度量單位要同一,神經(jīng)網(wǎng)絡(luò)是以樣本在事件中的統(tǒng)計(jì)分別幾率來進(jìn)行訓(xùn)練(概率計(jì)算)和預(yù)測的,歸一化是同一在0-1之間的統(tǒng)計(jì)概率分布; 當(dāng)所有樣本的輸入信號都為正值時,與第一隱含層神經(jīng)元相連的權(quán)值只能同時增加或減小,從而導(dǎo)致學(xué)習(xí)速度很慢。為了避免出現(xiàn)這種情況,加快網(wǎng)絡(luò)學(xué)習(xí)速度,可以對輸入信號進(jìn)行歸一化,使得所有樣本的輸入

6、信號其均值接近于0或與其均方差相比很小。歸一化是因?yàn)閟igmoid函數(shù)的取值是0到1之間的,網(wǎng)絡(luò)最后一個節(jié)點(diǎn)的輸出也是如此,所以經(jīng)常要對樣本的輸出歸一化處理。所以這樣做分類的問題時用0.9 0.1 0.1就要比用1 0 0要好。但是歸一化處理并不總是合適的,根據(jù)輸出值的分布情況,標(biāo)準(zhǔn)化等其它統(tǒng)計(jì)變換方法有時可能更好。-關(guān)于用premnmx語句進(jìn)行歸一化:premnmx語句的語法格式是:Pn,minp,maxp,Tn,mint,maxt=premnmx(P,T)其中P,T分別為原始輸入和輸出數(shù)據(jù),minp和maxp分別為P中的最小值和最大值。mint和maxt分別為T的最小值和最大值。premn

7、mx函數(shù)用于將網(wǎng)絡(luò)的輸入數(shù)據(jù)或輸出數(shù)據(jù)進(jìn)行歸一化,歸一化后的數(shù)據(jù)將分布在-1,1區(qū)間內(nèi)。我們在訓(xùn)練網(wǎng)絡(luò)時如果所用的是經(jīng)過歸一化的樣本數(shù)據(jù),那么以后使用網(wǎng)絡(luò)時所用的新數(shù)據(jù)也應(yīng)該和樣本數(shù)據(jù)接受相同的預(yù)處理,這就要用到tramnmx。下面介紹tramnmx函數(shù):Pn=tramnmx(P,minp,maxp)其中P和Pn分別為變換前、后的輸入數(shù)據(jù),maxp和minp分別為premnmx函數(shù)找到的最大值和最小值。(by terry2008)matlab中的歸一化處理有三種方法1. premnmx、postmnmx、tramnmx2. restd、poststd、trastd3. 自己編程具體用那種方法就

8、和你的具體問題有關(guān)了 (by happy)pm=max(abs(p(i,:); p(i,:)=p(i,:)/pm;和for i=1:27p(i,:)=(p(i,:)-min(p(i,:)/(max(p(i,:)-min(p(i,:);end 可以歸一到0 1 之間0.1+(x-min)/(max-min)*(0.9-0.1)其中max和min分別表示樣本最大值和最小值。這個可以歸一到0.1-0.95 如何查看BP神經(jīng)網(wǎng)絡(luò)訓(xùn)練后的權(quán)值和閾值呀!訓(xùn)練好的權(quán)值、閾值的輸出方法是:輸入到隱層權(quán)值:w1=net.iw1,1隱層閾值:theta1=net.b1隱層到輸出層權(quán)值:w2=net.lw2,1;輸

9、出層閾值:theta2=net.b26 訓(xùn)練好的BP神經(jīng)網(wǎng)絡(luò)如何保存呀用命令save filename net;保存網(wǎng)絡(luò),調(diào)用時用命令load filename net;7 用BP逼近非線性函數(shù),如何提高訓(xùn)練精度啊 (1)調(diào)整網(wǎng)絡(luò)結(jié)構(gòu) 增加網(wǎng)絡(luò)的層數(shù)可以進(jìn)一步降低誤差 ,提高精度但會使網(wǎng)絡(luò)復(fù)雜化 ,從而增加網(wǎng)絡(luò)的訓(xùn)練時間 。精度的提高實(shí)際上也可以通過增加隱層神經(jīng) 元的數(shù)目來獲得 ,其效果更容易觀察和掌握 ,所以應(yīng)優(yōu)先考慮 。 (2)初始值選取 為了使誤差盡可能小 ,需要合理選擇初始權(quán)重和偏置,如果太大就容易陷入飽和區(qū),導(dǎo)致停頓 。一般應(yīng)選為均勻分布的小數(shù),介于 (一1,1) 。 (3)學(xué)習(xí)速率

10、調(diào)整 學(xué)習(xí)速率的選取很重要 ,大了可能導(dǎo)致系統(tǒng)不穩(wěn)定 ,小了會導(dǎo)致訓(xùn)練周期過長、收斂慢 ,達(dá)不到要求的誤差 。一般傾向于選取較小的學(xué)習(xí) 速率以保持系統(tǒng)穩(wěn)定,通過觀察誤差下降曲線來判斷 。下降較快說明學(xué)習(xí)率比較合適 ,若有較大振蕩則說明學(xué)習(xí)率偏大。同時 ,由于網(wǎng)絡(luò)規(guī) 模大小的不同,學(xué)習(xí)率選擇應(yīng)當(dāng)針對其進(jìn)行調(diào)整 。 (4)期望誤差 期望誤差當(dāng)然希望越小越好 ,但是也要有合適值。8 關(guān)于BP網(wǎng)絡(luò)優(yōu)缺點(diǎn)的討論9 對初學(xué)神經(jīng)網(wǎng)絡(luò)者的小提示10 神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)的討論11 權(quán)威!BP網(wǎng)絡(luò)中隱層結(jié)點(diǎn)個數(shù)的確定!12 神經(jīng)網(wǎng)絡(luò)混合編程VB6.0中調(diào)用nnToolKit工具包程序在VC中使用nntoolkit工具箱

11、cb6.0中調(diào)用nnToolKit工具包程序13 用遺傳算法優(yōu)化BP神經(jīng)網(wǎng)絡(luò)的Matlab編程 由于BP網(wǎng)絡(luò)的權(quán)值優(yōu)化是一個無約束優(yōu)化問題,而且權(quán)值要采用實(shí)數(shù)編碼,所以直接利用Matlab遺傳算法工具箱。以下貼出的代碼是為一個19輸入變量,1個輸出變量情況下的非線性回歸而設(shè)計(jì)的,如果要應(yīng)用于其它情況,只需改動編解碼函數(shù)即可。具體請查看14 幫我看一下BP神經(jīng)網(wǎng)絡(luò)程序出錯在哪里,愁死我了p=1,15,25;2,15,25;3,15,25;4,15,25;1,15,25;2,5,25;2,7.5,25;2,10,25;2,15,25;t=0.6169;0.7068;0.7998;0.9052;1.

12、0881;3.4255;1.0509;0.8835;0.7068;pn,minp,maxp=premnmx(p);net=newff(minmax(pn),9,12,1,tansig,tansig,purelin,traingdm);net.trainparam.show=25;net.trainparam.mc=0.9;net.trainparam.lr=0.05;net.trainparam.epochs=1000;net.trainparam.goal=0.00001;net=init(net);net,tr=train(net,p,t);出錯的原因是 Error using = net

13、work/trainTargets are incorrectly sized for network.Matrix must have 1 rows.-p t 的列數(shù)要相等在pn,minp,maxp=premnmx(p);前面加入:p=p;t=t。在使用工具箱進(jìn)行網(wǎng)絡(luò)訓(xùn)練時,要求訓(xùn)練樣本的個體是列向量。15 問各位一個問題,我用一個前向神經(jīng)網(wǎng)絡(luò)作分類,希望輸出1 ;0;0表示一類;但是輸出的是0.9997;0.0001;0諸如此類,我該怎么判斷分類的成功與否?判斷一下:如果三個數(shù)中最大的一個在第一位置,就用1 ;0;0表示表示分類正確16 能不能給解釋一下這些分別是設(shè)定一個網(wǎng)絡(luò)的什么參數(shù)?n

14、et.trainParam.show = 50;net.trainParam.lr = 0.05;net.trainParam.epochs = 10000;net.trainParam.goal = 1e-5;-net.trainParam.show = 50;/訓(xùn)練50次刷新一下訓(xùn)練圖net.trainParam.lr = 0.05;/學(xué)習(xí)率net.trainParam.epochs = 10000;/訓(xùn)練次數(shù)net.trainParam.goal = 1e-5;/訓(xùn)練結(jié)束的目標(biāo)17 神經(jīng)網(wǎng)絡(luò)的文件 如何轉(zhuǎn)為simulinkhelp gensim- help for network/gen

15、sim.m -GENSIM Generate a SIMULINK block to simulate a neural network.Syntaxgensim(net,st)18 ann如何做 預(yù)測一個不錯的例子19 小波神經(jīng)網(wǎng)絡(luò)小波神經(jīng)網(wǎng)絡(luò)就是小波分析理論與神經(jīng)網(wǎng)絡(luò)理論相結(jié)合的產(chǎn)物。從結(jié)構(gòu)形式分有兩大類:1、小波分析與神經(jīng)網(wǎng)絡(luò)的松散型結(jié)合;2、小波分析與神經(jīng)網(wǎng)絡(luò)的嵌入式結(jié)合。前者是指彼此雖緊密結(jié)合但卻又相對獨(dú)立,采集到的信號先經(jīng)過小波變換后輸入到常規(guī)神經(jīng)網(wǎng)絡(luò)以完成分類、函數(shù)逼近等。后者是指將常規(guī)單隱層的神經(jīng)網(wǎng)絡(luò)的隱節(jié)點(diǎn)激勵函數(shù)用小波函數(shù)代替,相應(yīng)的輸入到隱層的圈值及閾值分別由小波函數(shù)的伸

16、縮因子和平移因子代替,這也是我們通常所說的小波網(wǎng)絡(luò)。小波網(wǎng)絡(luò)在訓(xùn)練的過程中同樣采用普通BP算法,但是它對參數(shù)的初始化表現(xiàn)敏感,所以參數(shù)的初始在小波網(wǎng)絡(luò)的訓(xùn)練中也是很重要的。20 那位有人工神經(jīng)網(wǎng)絡(luò)導(dǎo)論高教出版社出版的蔣宗禮編的電子版書??? 21:網(wǎng)絡(luò)的結(jié)構(gòu)選擇輸入層和輸出層節(jié)點(diǎn)數(shù)選擇由應(yīng)用要求決定。輸入節(jié)點(diǎn)數(shù)一般等于要訓(xùn)練的樣本矢量維數(shù),可以是原始數(shù)據(jù)的維數(shù)或提取的特征維數(shù);輸出單元數(shù)在分類網(wǎng)絡(luò)中取類別數(shù)m或log2m,在逼近網(wǎng)絡(luò)中取要逼近的函數(shù)輸出空間維數(shù)。當(dāng)網(wǎng)絡(luò)用于工業(yè)過程辨識或時間序列預(yù)測建模時,輸入節(jié)點(diǎn)數(shù)的選擇應(yīng)由非線性系統(tǒng)定階的結(jié)果確定。 網(wǎng)絡(luò)的隱層數(shù)和隱節(jié)點(diǎn)數(shù)決定了網(wǎng)絡(luò)的規(guī)模,而網(wǎng)

17、絡(luò)的規(guī)模與其性能密切相關(guān)。神經(jīng)網(wǎng)絡(luò)的規(guī)模越大,網(wǎng)絡(luò)中的自由參數(shù)就越多;反之,網(wǎng)絡(luò)中的自由參數(shù)就越少。如果神經(jīng)網(wǎng)絡(luò)用于逼近一個目標(biāo)函數(shù)(分類可以看成函數(shù)逼近的特殊情況),則當(dāng)網(wǎng)絡(luò)規(guī)模過小,神經(jīng)網(wǎng)絡(luò)逼近能力不足,容易導(dǎo)致欠擬合;網(wǎng)絡(luò)規(guī)模過大,神經(jīng)網(wǎng)絡(luò)逼近能力過剩,則容易導(dǎo)致過擬合;因此,確定網(wǎng)絡(luò)規(guī)模是神經(jīng)網(wǎng)絡(luò)設(shè)計(jì)的一項(xiàng)重要內(nèi)容。22 網(wǎng)絡(luò)不穩(wěn)定性問題我對次發(fā)表點(diǎn)個人看法吧,我覺的網(wǎng)絡(luò)不穩(wěn)定屬于正?,F(xiàn)象,我以大家用的最多的BP網(wǎng)絡(luò)為例,比如網(wǎng)絡(luò)隱含層節(jié)點(diǎn)的數(shù)目和網(wǎng)絡(luò)訓(xùn)練算法選取的不同,都也可能導(dǎo)致同一網(wǎng)絡(luò)結(jié)構(gòu)針對同一測試樣本的數(shù)據(jù)有著截然不同的解,原因是多方面的,與樣本有關(guān),與BP算法自身也有關(guān)系,

18、在網(wǎng)絡(luò)初始化時,BP采用rand函數(shù)初始化權(quán)值,這樣不同時間訓(xùn)練對于rand當(dāng)然會有不同的取值,BP是按照梯度最大方向修正誤差平方和的,網(wǎng)絡(luò)自身算法就有一定的局限性。如果要保留現(xiàn)有的節(jié)點(diǎn)之間的值可以用net.iw,net.b,net.lw保留,這樣網(wǎng)絡(luò)的值就可以保留下來了。不過有時與樣本特征,數(shù)目也有關(guān)系,樣本太少訓(xùn)練的結(jié)果也不會令人滿意。個人觀點(diǎn),僅供參考。23 網(wǎng)絡(luò)和多層感知器的區(qū)別什么最好詳細(xì)描述一下兩者的區(qū)別?br剛剛學(xué)神經(jīng)網(wǎng)絡(luò)。謝謝-RBF網(wǎng)絡(luò)與多層感知器都是非線性多層前向網(wǎng)?它們都是通用逼近?對于任一個多層感知器,總存在一個RBF網(wǎng)絡(luò)可以代替?反之亦然.但是,這兩個網(wǎng)絡(luò)也存在著很多

19、不同?1.RBF網(wǎng)絡(luò)只有一個隱?而多層感知器的隱層可以是一層也可以是多層的.2多層感知器的隱層和輸出層其神經(jīng)元模型是一樣的.而RBF網(wǎng)絡(luò)的隱層神經(jīng)元和輸出層神經(jīng)元不僅模型不?而且在網(wǎng)絡(luò)中起到的作用也不一?3,RBF網(wǎng)絡(luò)的隱層是非線性的,輸出層是線性的.然?當(dāng)用多層感知器解決模式分類問題時,它的隱層和輸出層通常先為非線性的.當(dāng)用多層感知器解決非線性回歸問題時,通常選擇線性輸出層.4,RBF網(wǎng)絡(luò)的基函數(shù)計(jì)算的是輸入向量和中心的歐氏距離,而多層感知器隱單元的激勵函數(shù)計(jì)算的是輸入單元和連接權(quán)值間的內(nèi)?1.RBF網(wǎng)絡(luò)與多層感知器都是非線性多層前向網(wǎng),都可以用于逼近。2.相互代替的問題應(yīng)該是不能,我不太清

20、楚,一般是根據(jù)具體問題選擇相應(yīng)的網(wǎng)絡(luò)。3.RBF網(wǎng)絡(luò)本質(zhì)上只有一層,只有一層的權(quán)值需要調(diào)整。4.在用多層感知器解決問題時,選擇線性輸出層還是非線性輸出層主要取決于理想輸出值是有限個還是無限個,因?yàn)榉蔷€性輸出的值是2個值,而線性輸出的值是連續(xù)的。5.在做模式分類問題時,RBF網(wǎng)絡(luò)的基函數(shù)計(jì)算的是輸入向量和中心的歐氏距離,而多層感知器隱單元的激勵函數(shù)計(jì)算的是輸入單元和連接權(quán)值間的內(nèi)積。沒錯,簡單地說,就是RBF網(wǎng)絡(luò)是靠畫圈分類,而多層感知器是靠畫直線分類。查看原文討論24 加入神經(jīng)網(wǎng)絡(luò)技術(shù)興趣小組qq 群25 神經(jīng)網(wǎng)絡(luò)哪些資料比較好神經(jīng)網(wǎng)絡(luò)資料整理帖(為方便會員,切記別無目的的下載)將一些熱門的下

21、載資料做了下整理,但請注意,下載一些資料要好好研究,別盲目下載,成為一個收藏家仔細(xì)學(xué)習(xí)才是硬道路,資料不在多,在于領(lǐng)悟透一些經(jīng)典的資料 26 神經(jīng)網(wǎng)絡(luò)泛化問題相關(guān)資料初學(xué)神經(jīng)網(wǎng)絡(luò),關(guān)于如何提高神經(jīng)網(wǎng)絡(luò)的泛化能力及采用什么方法較有效,還請高手指點(diǎn)!找到幾篇關(guān)于泛化的論文前饋神經(jīng)網(wǎng)絡(luò)泛化性能力的系統(tǒng)分析提高前饋神經(jīng)網(wǎng)絡(luò)泛化能力的新算法神經(jīng)網(wǎng)絡(luò)的泛化理論和泛化方法與大家分享大家也可以就神經(jīng)泛化這一問題討論一下,共同學(xué)習(xí),共同進(jìn)步!27 以下鏈接上有神經(jīng)網(wǎng)絡(luò)FAQ,共7個html文檔,英文經(jīng)典27推薦:一份很好的神經(jīng)網(wǎng)絡(luò)資料!給初學(xué)者這是一份在很好的學(xué)習(xí)資料,我也不記得在什么地方找到的了。首先感謝作者

22、的貢獻(xiàn)!29 神經(jīng)網(wǎng)絡(luò)matlab程序每次運(yùn)行結(jié)果不同的一點(diǎn)看法因?yàn)槊看蔚慕Y(jié)果不一樣,才有可能找到比較理想的結(jié)果啊找到比較好的結(jié)果后,用命令save filename net;保存網(wǎng)絡(luò),可使預(yù)測的結(jié)果不會變化,調(diào)用時用命令load filename net;30 在用MATLAB實(shí)現(xiàn)BP反向?qū)W習(xí)時需要不需要用deltalin() 、 learnbp() 、 sumsqr()這樣的函數(shù)啊?deltalin() 、 learnbp() 是比較舊的版本函數(shù).如果不是做神經(jīng)網(wǎng)絡(luò)函數(shù),直接應(yīng)用newff,bptrain等工具箱函數(shù)就可以了.32 人工神經(jīng)網(wǎng)絡(luò)的特點(diǎn) 人工神經(jīng)網(wǎng)絡(luò)的以下幾個突出的優(yōu)點(diǎn)使它近

23、年來引起人們的極大關(guān)注: (1)可以充分逼近任意復(fù)雜的非線性關(guān)系; (2)所有定量或定性的信息都等勢分布貯存于網(wǎng)絡(luò)內(nèi)的各神經(jīng)元,故有很強(qiáng)的魯棒性和容錯性; (3)采用并行分布處理方法,使得快速進(jìn)行大量運(yùn)算成為可能; (4)可學(xué)習(xí)和自適應(yīng)不知道或不確定的系統(tǒng); (5)能夠同時處理定量、定性知識。 人工神經(jīng)網(wǎng)絡(luò)的特點(diǎn)和優(yōu)越性,主要表現(xiàn)在三個方面:第一,具有自學(xué)習(xí)功能。例如實(shí)現(xiàn)圖像識別時,只在先把許多不同的圖像樣板和對應(yīng)的應(yīng)識別的結(jié)果輸入人工神經(jīng)網(wǎng)絡(luò),網(wǎng)絡(luò)就 會通過自學(xué)習(xí)功能,慢慢學(xué)會識別類似的圖像。自學(xué)習(xí)功能對于預(yù)測有特別重要的意義。預(yù)期未來的人工神經(jīng)網(wǎng)絡(luò)計(jì)算機(jī)將為人類提 供經(jīng)濟(jì)預(yù)測、市場預(yù)測、效

24、益預(yù)測,其應(yīng)用前途是很遠(yuǎn)大的。 第二,具有聯(lián)想存儲功能。用人工神經(jīng)網(wǎng)絡(luò)的反饋網(wǎng)絡(luò)就可以實(shí)現(xiàn)這種聯(lián)想。 第三,具有高速尋找優(yōu)化解的能力。尋找一個復(fù)雜問題的優(yōu)化解,往往需要很大的計(jì)算量,利用一個針對某問題而設(shè)計(jì)的反饋型 人工神經(jīng)網(wǎng)絡(luò),發(fā)揮計(jì)算機(jī)的高速運(yùn)算能力,可能很快找到優(yōu)化解。33 人工神經(jīng)網(wǎng)絡(luò)的主要方向 神經(jīng)網(wǎng)絡(luò)的研究可以分為理論研究和應(yīng)用研究兩大方面。 理論研究可分為以下兩類: 1)利用神經(jīng)生理與認(rèn)知科學(xué)研究人類思維以及智能機(jī)理。 2)利用神經(jīng)基礎(chǔ)理論的研究成果,用數(shù)理方法探索功能更加完善、性能更加優(yōu)越的神經(jīng)網(wǎng)絡(luò)模型,深入研究網(wǎng)絡(luò)算法和性能, 如:穩(wěn)定性、收斂性、容錯性、魯棒性等;開發(fā)新的網(wǎng)

25、絡(luò)數(shù)理理論,如:神經(jīng)網(wǎng)絡(luò)動力學(xué)、非線性神經(jīng)場等。 應(yīng)用研究可分為以下兩類: 1)神經(jīng)網(wǎng)絡(luò)的軟件模擬和硬件實(shí)現(xiàn)的研究。 2)神經(jīng)網(wǎng)絡(luò)在各個領(lǐng)域中應(yīng)用的研究。這些領(lǐng)域主要包括: 模式識別、信號處理、知識工程、專家系統(tǒng)、優(yōu)化組合、機(jī)器人控制等。 隨著神經(jīng)網(wǎng)絡(luò)理論本身以及相關(guān)理論、相關(guān)技術(shù)的不斷 發(fā)展,神經(jīng)網(wǎng)絡(luò)的應(yīng)用定將更加深入。34 如何選擇訓(xùn)練集和測試集數(shù)據(jù)?一般需要將樣本分成獨(dú)立的三部分訓(xùn)練集(train set),驗(yàn)證集(validation set)和測試集(test set)。其中訓(xùn)練集用來估計(jì)模型,驗(yàn)證集用來確定網(wǎng)絡(luò)結(jié)構(gòu)或者控制模型復(fù)雜程度的參數(shù),而測試集則檢驗(yàn)最終選擇最優(yōu)的模型的性能如

26、何。一個典型的劃分是訓(xùn)練集占總樣本的50,而其它各占25,三部分都是從樣本中隨機(jī)抽取。樣本少的時候,上面的劃分就不合適了。常用的是留少部分做測試集。然后對其余N個樣本采用K折交叉驗(yàn)證法。就是將樣本打亂,然后均勻分成K份,輪流選擇其中K1份訓(xùn)練,剩余的一份做驗(yàn)證,計(jì)算預(yù)測誤差平方和,最后把K次的預(yù)測誤差平方和再做平均作為選擇最優(yōu)模型結(jié)構(gòu)的依據(jù)。特別的K取N,就是留一法(leave one out)。35 神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)神經(jīng)網(wǎng)絡(luò)(七種C實(shí)現(xiàn)).36 SOM的優(yōu)點(diǎn)請問與神經(jīng)網(wǎng)絡(luò)的其他分類方法,比如Hamming,MLP相比,SOM有什么優(yōu)點(diǎn)?.快速性(無隱含層).無監(jiān)督性.可視化效果.37神經(jīng)網(wǎng)絡(luò)的應(yīng)

27、用我想問一下要應(yīng)用實(shí)際中,神經(jīng)網(wǎng)絡(luò)技術(shù)最關(guān)鍵的地方在哪?我個人認(rèn)為首先是對實(shí)際問題分析,看傳統(tǒng)的方法行不行,如果行就用傳統(tǒng)方法解決,如果傳統(tǒng)方法解決的不理想,然后嘗試用神經(jīng)網(wǎng)絡(luò),神經(jīng)網(wǎng)絡(luò)用于求解問題是因?yàn)樗哂小皩W(xué)習(xí)”能力,對于非線性、有噪、模式識別等問題有著得天獨(dú)厚的優(yōu)勢,對于問題分析以后,重在選擇相應(yīng)的模型求解,嘗試模型的求解過程同時也涉及到模型的優(yōu)化等問題,最后編制程序運(yùn)行。我個人認(rèn)為選擇什么樣的模型求解實(shí)際問題是最關(guān)鍵的,用什么語言編程實(shí)現(xiàn)或者怎么實(shí)現(xiàn)好象都不是那么難。個人觀點(diǎn),歡迎補(bǔ)充。我眼中的神經(jīng)網(wǎng)絡(luò)-給初學(xué)者我覺得目前論壇里的新手很多,呵呵,問的問題很多都是重復(fù)的,首先希望你們能先找找時不時有人問過了,是不是有人已經(jīng)回答過了。下面我把我的一點(diǎn)體會和看法說出來,可能有很多是不正確或者不深刻的,希望各位指出來,謝謝1、我知道的目前一般的神經(jīng)網(wǎng)

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論