《智能優(yōu)化算法解析》 課件 第5章-基于人類行為的智能優(yōu)化算法_第1頁
《智能優(yōu)化算法解析》 課件 第5章-基于人類行為的智能優(yōu)化算法_第2頁
《智能優(yōu)化算法解析》 課件 第5章-基于人類行為的智能優(yōu)化算法_第3頁
《智能優(yōu)化算法解析》 課件 第5章-基于人類行為的智能優(yōu)化算法_第4頁
《智能優(yōu)化算法解析》 課件 第5章-基于人類行為的智能優(yōu)化算法_第5頁
已閱讀5頁,還剩61頁未讀 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)

文檔簡介

智能優(yōu)化算法解析第5章

基于人類行為的智能優(yōu)化算法5.1人工神經(jīng)網(wǎng)絡(luò)算法5.2禁忌搜索算法5.3頭腦風(fēng)暴優(yōu)化算法主要內(nèi)容CONTENTS3基于人類行為的智能優(yōu)化算法在人工智能和信息科學(xué)領(lǐng)域,對人類行為的借鑒與模擬已成為推動智能優(yōu)化方法發(fā)展的重要動力。導(dǎo)讀人工神經(jīng)網(wǎng)絡(luò)算法:模擬大腦神經(jīng)元的交互、學(xué)習(xí)與記憶過程禁忌搜索算法:避免重復(fù)錯誤,基于“試錯”行為搜索全局最優(yōu)解頭腦風(fēng)暴優(yōu)化算法:模擬集體討論,激發(fā)創(chuàng)新解決方案5.1人工神經(jīng)網(wǎng)絡(luò)算法55.1.1

算法原理人工神經(jīng)網(wǎng)絡(luò)的基本概念人工神經(jīng)網(wǎng)絡(luò)(簡稱神經(jīng)網(wǎng)絡(luò))是由一些簡單處理單元構(gòu)成的大規(guī)模分布式處理器,具有存儲和復(fù)用經(jīng)驗知識的特性,是對人腦神經(jīng)網(wǎng)絡(luò)的某種簡化、抽象和模擬。神經(jīng)網(wǎng)絡(luò)與人腦的相似性:通過學(xué)習(xí)過程從外界環(huán)境中獲取知識利用互連神經(jīng)元的連接強度(突觸權(quán)值)存儲獲取的知識神經(jīng)網(wǎng)絡(luò)的主要目標(biāo)是設(shè)計一個學(xué)習(xí)算法,通過調(diào)整網(wǎng)絡(luò)中突觸權(quán)值,實現(xiàn)既定任務(wù)。65.1.1

算法原理神經(jīng)網(wǎng)絡(luò)的優(yōu)勢及發(fā)展神經(jīng)網(wǎng)絡(luò)算法的主要優(yōu)勢:擁有能夠存儲信息的大規(guī)模并行分布式結(jié)構(gòu)具有學(xué)習(xí)能力和泛化能力(對不曾學(xué)習(xí)過的數(shù)據(jù)進(jìn)行預(yù)測并得到合理輸出)這些優(yōu)勢讓神經(jīng)網(wǎng)絡(luò)具有學(xué)習(xí)更新并獲得復(fù)雜問題近似解的能力。75.1.1

算法原理神經(jīng)網(wǎng)絡(luò)的優(yōu)勢及發(fā)展歷史發(fā)展:1943年:McCulloch和Pitts提出了神經(jīng)元的數(shù)學(xué)模型,開創(chuàng)了神經(jīng)科學(xué)理論研究的時代1957年:Rosenblatt提出了感知機模型,模擬動物和人腦的感知和學(xué)習(xí)能力1982年:Hopfield提出了具有聯(lián)想記憶功能的Hopfield神經(jīng)網(wǎng)絡(luò),引入了能量函數(shù),給出了網(wǎng)絡(luò)的穩(wěn)定性判據(jù)。85.1.1

算法原理人工神經(jīng)元人腦神經(jīng)元由細(xì)胞體、軸突、突觸和樹突組成信息傳遞通過電信號和神經(jīng)遞質(zhì)完成人工神經(jīng)元結(jié)構(gòu)模擬人腦神經(jīng)元輸入信號、權(quán)值、觸發(fā)閾值、總輸入、激活函數(shù)、輸出根據(jù)人腦神經(jīng)細(xì)胞的基本結(jié)構(gòu),人工神經(jīng)網(wǎng)絡(luò)由人工神經(jīng)元、對應(yīng)的連接權(quán)值和實現(xiàn)信號轉(zhuǎn)換的激活函數(shù)組成。95.1.1

算法原理激活函數(shù)激活函數(shù)限制神經(jīng)元輸出的振幅模擬人腦神經(jīng)元的線性或非線性特性構(gòu)建神經(jīng)網(wǎng)絡(luò)的重要環(huán)節(jié)激活函數(shù)的選擇激活函數(shù)的選擇對神經(jīng)網(wǎng)絡(luò)的性能有重要影響不同任務(wù)和網(wǎng)絡(luò)結(jié)構(gòu)可能需要不同的激活函數(shù)多層感知機具有一個或多個隱含層的神經(jīng)網(wǎng)絡(luò)每層的輸入是上一層的輸出105.1.1

算法原理感知機模型單層感知機前饋神經(jīng)網(wǎng)絡(luò)的一種簡單形式僅由輸入層和一個神經(jīng)元層構(gòu)成人工神經(jīng)網(wǎng)絡(luò)是將神經(jīng)元模型以某種方式組合起來的網(wǎng)絡(luò)結(jié)構(gòu),通過學(xué)習(xí)的方式來模擬人腦的某些功能,用以解決不同的實際問題。115.1.2反向傳播神經(jīng)網(wǎng)絡(luò)算法反向傳播神經(jīng)網(wǎng)絡(luò)算法神經(jīng)網(wǎng)絡(luò)設(shè)計結(jié)構(gòu)設(shè)計:選擇適合的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),如多層感知機參數(shù)學(xué)習(xí):確定網(wǎng)絡(luò)權(quán)值和閾值重點解決問題:通過調(diào)整權(quán)值使網(wǎng)絡(luò)輸出盡可能接近預(yù)期值BP(BackPropagation,簡稱BP)算法:Rumelhart于1985年提出,解決了多層感知機中隱含層神經(jīng)元連接權(quán)值的學(xué)習(xí)問題,廣泛用于函數(shù)擬合、信息處理、模式識別和智能控制。125.1.2反向傳播神經(jīng)網(wǎng)絡(luò)算法BP神經(jīng)網(wǎng)絡(luò)參數(shù)學(xué)習(xí)方法訓(xùn)練多層感知機的一個經(jīng)典方法是BP算法,其訓(xùn)練過程主要分為兩個階段前向階段:輸入信號在網(wǎng)絡(luò)中逐層傳播信號流動直到抵達(dá)輸出端網(wǎng)絡(luò)中的權(quán)值在此階段保持不變反向階段:比較網(wǎng)絡(luò)輸出與預(yù)期輸出,生成誤差信號誤差信號從輸出端向輸入端逐層反向傳播調(diào)整網(wǎng)絡(luò)權(quán)值以減小誤差135.1.2反向傳播神經(jīng)網(wǎng)絡(luò)算法BP神經(jīng)網(wǎng)絡(luò)參數(shù)學(xué)習(xí)方法選擇具有一個隱含層的多層感知機為例,說明BP算法權(quán)值學(xué)習(xí)過程。首先,將神經(jīng)網(wǎng)絡(luò)的輸入層變量表示為輸出層的變量表示為隱含層的權(quán)值矩陣可表示為145.1.2反向傳播神經(jīng)網(wǎng)絡(luò)算法BP神經(jīng)網(wǎng)絡(luò)參數(shù)學(xué)習(xí)方法若選取所有神經(jīng)元激活函數(shù)均為f(.),且觸發(fā)閾值為零,則隱含層第l個神經(jīng)元的輸出可表示為輸出層的權(quán)值矩陣可表示為神經(jīng)網(wǎng)絡(luò)輸出層第j個神經(jīng)元的輸出表示為155.1.2反向傳播神經(jīng)網(wǎng)絡(luò)算法BP神經(jīng)網(wǎng)絡(luò)參數(shù)學(xué)習(xí)方法對于給定的預(yù)期輸出

,根據(jù)神經(jīng)網(wǎng)絡(luò)的實際輸出可定義第

j個神經(jīng)元誤差信號進(jìn)一步地,總誤差信號為神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)過程是通過修改各層神經(jīng)元的連接權(quán)值,使得誤差信號e趨向最小。165.1.2反向傳播神經(jīng)網(wǎng)絡(luò)算法BP神經(jīng)網(wǎng)絡(luò)參數(shù)學(xué)習(xí)方法在BP算法中,采用誤差信號反向傳播,故先考慮輸出層的權(quán)值調(diào)整。根據(jù)梯度下降方法,取誤差函數(shù)的負(fù)梯度方向作為權(quán)值的調(diào)整方向,即對于輸出層權(quán)值系數(shù),可按照如下方向調(diào)整輸出層權(quán)值系數(shù)迭代公式為按照上式經(jīng)過多次調(diào)整,直至尋找到滿意的權(quán)值。175.1.2反向傳播神經(jīng)網(wǎng)絡(luò)算法BP神經(jīng)網(wǎng)絡(luò)參數(shù)學(xué)習(xí)方法當(dāng)神經(jīng)元位于隱含層時,沒有與該神經(jīng)元層直接對應(yīng)的預(yù)期輸出。因此,隱含層神經(jīng)元的誤差信號要根據(jù)與隱含層相連的神經(jīng)元向后反傳決定。對于隱含層的權(quán)值系數(shù)需按照如下方向調(diào)整由于隱含層第u個神經(jīng)元與輸出層的神經(jīng)元都有連接,因此綜上,隱含層權(quán)值系數(shù)的迭代公式為對于具有多個隱含層的BP網(wǎng)絡(luò),其他的隱含層權(quán)值調(diào)整可通過類似方法給出。185.1.2反向傳播神經(jīng)網(wǎng)絡(luò)算法BP神經(jīng)網(wǎng)絡(luò)參數(shù)學(xué)習(xí)流程前向傳播輸入信號逐層傳遞至輸出端,計算每層神經(jīng)元的輸出誤差計算比較網(wǎng)絡(luò)輸出與預(yù)期輸出,計算誤差信號反向傳播誤差信號從輸出層反向傳播,逐層調(diào)整權(quán)值以減小誤差取誤差函數(shù)的負(fù)梯度方向作為權(quán)值的調(diào)整方向,逐步逼近最優(yōu)解195.1.2反向傳播神經(jīng)網(wǎng)絡(luò)算法BP神經(jīng)網(wǎng)絡(luò)的不足及改進(jìn)收斂緩慢及改進(jìn)原因:學(xué)習(xí)率設(shè)置不當(dāng)、網(wǎng)絡(luò)結(jié)構(gòu)簡單、數(shù)據(jù)質(zhì)量差改進(jìn):調(diào)整學(xué)習(xí)率、優(yōu)化結(jié)構(gòu)、數(shù)據(jù)預(yù)處理局部最優(yōu)問題及改進(jìn)原因:誤差曲面復(fù)雜,多個局部最優(yōu)點改進(jìn):多組初始值訓(xùn)練、采用隨機梯度下降泛化性能差及改進(jìn)原因:過擬合、數(shù)據(jù)質(zhì)量問題改進(jìn):增加數(shù)據(jù)量、數(shù)據(jù)預(yù)處理、優(yōu)化超參數(shù)選擇205.1.3徑向基函數(shù)神經(jīng)網(wǎng)絡(luò)算法網(wǎng)絡(luò)概述定義與結(jié)構(gòu):徑向基函數(shù)(RadialBasisFunction,RBF)神經(jīng)網(wǎng)絡(luò)是一種基于核函數(shù)的神經(jīng)網(wǎng)絡(luò)算法。組成:輸入層:連接外部輸入隱含層:利用非線性激活函數(shù)對輸入空間進(jìn)行非線性變換輸出層:進(jìn)行線性變換,提供網(wǎng)絡(luò)的輸出響應(yīng)特點:隱含層通常為一層,區(qū)別于多層感知機模型應(yīng)用領(lǐng)域:非線性函數(shù)逼近時間序列分析系統(tǒng)建??刂坪凸收显\斷215.1.3徑向基函數(shù)神經(jīng)網(wǎng)絡(luò)算法參數(shù)學(xué)習(xí)方法RBF是一種沿著徑向?qū)ΨQ的標(biāo)量函數(shù)。定義RBF為徑向基函數(shù)中心徑向基函數(shù)半徑輸入信號利用RBF作為激活函數(shù),構(gòu)建隱含層具有個

神經(jīng)元和

m個輸出節(jié)點的RBF神經(jīng)網(wǎng)絡(luò)。為了簡單說明,本節(jié)輸入層到隱含層的權(quán)值系數(shù)均取1,則第

j個神經(jīng)元的輸出可表示為輸出層的權(quán)值矩陣可表示為225.1.3徑向基函數(shù)神經(jīng)網(wǎng)絡(luò)算法參數(shù)學(xué)習(xí)方法RBF神經(jīng)網(wǎng)絡(luò)輸出層采用線性累加,網(wǎng)絡(luò)的第l個輸出可表示為RBF神經(jīng)網(wǎng)絡(luò)需要學(xué)習(xí)的參數(shù):徑向基函數(shù)的中心,半徑,以及輸出層權(quán)值W。學(xué)習(xí)過程:無監(jiān)督自學(xué)習(xí):確定樣本中心和半徑方法:K-means法、自組織選取法有監(jiān)督學(xué)習(xí):計算輸出層權(quán)值方法:最小二乘法235.1.4典型問題求解案例例題例題5-1利用BP和RBF神經(jīng)網(wǎng)絡(luò)分別擬合如下非線性函數(shù)這里選取63個樣本,輸入變量為,預(yù)期的輸出由如下命令生成:245.1.4典型問題求解案例求解過程其中,y_gd為BP神經(jīng)網(wǎng)絡(luò)的輸出,netgd為訓(xùn)練后的BP神經(jīng)網(wǎng)絡(luò)。(1)利用Matlab工具箱,實現(xiàn)BP神經(jīng)網(wǎng)絡(luò)擬合非線性函數(shù)255.1.4典型問題求解案例求解過程其中,y_rbf為RBF神經(jīng)網(wǎng)絡(luò)的輸出,netrbf為訓(xùn)練后的RBF神經(jīng)網(wǎng)絡(luò)。(2)利用Matlab工具箱,實現(xiàn)RBF神經(jīng)網(wǎng)絡(luò)擬合非線性函數(shù)(3)通過繪制兩個神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)曲線,觀察擬合結(jié)果265.1.4典型問題求解案例求解過程RBF神經(jīng)網(wǎng)絡(luò)和BP神經(jīng)網(wǎng)絡(luò)輸出結(jié)果275.1.5前沿進(jìn)展進(jìn)展概述人工神經(jīng)網(wǎng)絡(luò)領(lǐng)域迎來黃金時代,深度學(xué)習(xí)框架的飛躍性突破,引領(lǐng)復(fù)雜任務(wù)處理邁向高效精準(zhǔn)新紀(jì)元構(gòu)建復(fù)雜網(wǎng)絡(luò)結(jié)構(gòu),融合先進(jìn)優(yōu)化算法,訓(xùn)練高性能神經(jīng)網(wǎng)絡(luò)從AlphaGo到ChatGPT,見證神經(jīng)網(wǎng)絡(luò)領(lǐng)域的飛速發(fā)展285.1.5前沿進(jìn)展案例分析:長短期記憶網(wǎng)絡(luò)長短期記憶(Longshort-termmemory,LSTM)網(wǎng)絡(luò)是一種特殊的遞歸神經(jīng)網(wǎng)絡(luò),通過其特有的門控機制,能夠有效地捕獲和存儲序列中的依賴關(guān)系。遺忘門:基于歷史信息,篩選舊狀態(tài),控制信息保留與遺忘輸入門:綜合多種輸入,通過非線性映射,精準(zhǔn)選擇信息更新輸出門:調(diào)控記憶信息輸出比例,平衡新舊信息貢獻(xiàn),優(yōu)化長序列處理295.1.5前沿進(jìn)展LSTM前沿LSTM神經(jīng)網(wǎng)絡(luò)具有強大的自學(xué)習(xí)能力、魯棒性和容錯性、并行處理能力、逼近非線性關(guān)系的能力,使其能靈活應(yīng)對多種實際問題,展現(xiàn)出卓越的應(yīng)用性能。在自然語言處理任務(wù)中,捕捉上下文信息、對語言序列的理解能力增強在長時間依賴的復(fù)雜模型中,模型的收斂速度和穩(wěn)定性顯著提高在視頻分析、動作識別、天氣預(yù)測等涉及時空序列問題的領(lǐng)域中,對時空信息的捕捉能力有所提升5.2禁忌搜索算法315.2.1典型搜索算法概述禁忌搜索算法禁忌搜索(TabuSearch,TS)算法基本思想:模擬人類的智力過程,避免重復(fù)錯誤可行解向目標(biāo)函數(shù)變化最多的方向移動,通過靈活的“記憶”技術(shù)更新目標(biāo)是找到使適應(yīng)度函數(shù)值最優(yōu)的解禁忌搜索算法在組合優(yōu)化等領(lǐng)域取得了顯著進(jìn)展,并應(yīng)用到調(diào)度和規(guī)劃等問題中局部鄰域搜索算法(非梯度法)算法選定一個可行解,并產(chǎn)生鄰域解,逐一比較其目標(biāo)函數(shù)值,不斷選擇最優(yōu)解進(jìn)行更新325.2.1典型搜索算法概述典型搜索算法梯度下降法從當(dāng)前解出發(fā),沿著目標(biāo)函數(shù)變化最大方向前進(jìn),直到達(dá)到局部最優(yōu)解梯度下降算法易陷入局部最優(yōu),且不適用于梯度信息未知的目標(biāo)函數(shù)局部鄰域搜索算法搜索性能依賴于初始解和鄰域結(jié)構(gòu)。若初始解不合適或鄰域結(jié)構(gòu)設(shè)置不當(dāng),依然可能導(dǎo)致陷入局部最優(yōu)335.2.1典型搜索算法概述禁忌搜索算法原理禁忌搜索算法由于引入接受劣質(zhì)解的機制,禁忌算法能夠向其他方向?qū)?yōu),實現(xiàn)目標(biāo)函數(shù)值先降后升,最終搜索到全局最優(yōu)局部鄰域搜索算法算法在鄰域?qū)?yōu)使目標(biāo)函數(shù)最終走向x(1),導(dǎo)致求解陷入局部最優(yōu),且無法跳出,無法到全局最優(yōu)禁忌搜索算法核心思想通過設(shè)立禁忌表來避免算法陷入局部最優(yōu)解利用記憶功能在搜索過程中接受劣解以擴(kuò)大搜索范圍通過特赦準(zhǔn)則避免錯過優(yōu)質(zhì)解通過不斷迭代和優(yōu)化搜索策略,禁忌搜索算法結(jié)合了局部鄰域搜索和全局優(yōu)化的思想345.2.2基本概念禁忌搜索基本概念禁忌搜索算法是一種迭代啟發(fā)式搜索算法,靠“記憶”引導(dǎo)算法的搜索過程,其中很多構(gòu)成要素極大地影響搜索的速度與效果。禁忌對象和禁忌長度禁忌對象是指禁忌表中被禁止的某些變化元素。禁忌長度是禁忌對象不能被選取的周期。鄰域移動鄰域移動是解更新的關(guān)鍵,本質(zhì)是一個函數(shù),根據(jù)當(dāng)前解的移動產(chǎn)生其相應(yīng)的鄰居解集合,進(jìn)而產(chǎn)生合適的候選解集合。目標(biāo)函數(shù)目標(biāo)函數(shù)用于評價鄰域中的鄰居,是判斷解優(yōu)劣的衡量指標(biāo)。禁忌表禁忌表用于記錄被禁止的變化元素,以防出現(xiàn)搜索循環(huán)、陷入局部最優(yōu)。35禁忌搜索基本概念禁忌搜索算法是一種迭代啟發(fā)式搜索算法,靠“記憶”引導(dǎo)算法的搜索過程,其中很多構(gòu)成要素極大地影響搜索的速度與效果。解的初始化禁忌搜索算法可以隨機給出初始解,也可以使用其它啟發(fā)式算法給出一個較好的初始解。但針對復(fù)雜約束的優(yōu)化問題,如果隨機選取初始解,可能經(jīng)過多次搜索也無法確定一個可行解。特赦準(zhǔn)則在禁忌搜索算法中,可能會出現(xiàn)候選解全部被禁忌,或者存在一個優(yōu)于當(dāng)前最優(yōu)目標(biāo)值的禁忌候選解,此時特赦準(zhǔn)則將某些可行解進(jìn)行解禁,以實現(xiàn)更高效的優(yōu)化。終止規(guī)則禁忌搜索算法中常用的終止規(guī)則有:最大迭代次數(shù)原則、禁忌頻率控制原則、目標(biāo)值變化控制原則。5.2.2基本概念36禁忌搜索算法流程禁忌對象、最大迭代數(shù)領(lǐng)域解不優(yōu)于當(dāng)前最優(yōu)解達(dá)到最大迭代數(shù)領(lǐng)域解優(yōu)于當(dāng)前最優(yōu)解5.2.3算法流程37禁忌搜索算法不足及改進(jìn)算法對初始解有較強依賴性好的初始解可使禁忌搜索算法在解空間中搜索到優(yōu)質(zhì)的解,而較差的初始解則會降低禁忌搜索的收斂速度改進(jìn):可以與遺傳算法、模擬退火算法等優(yōu)化算法形成組合算法迭代搜索過程是串行的僅是單個解層面的移動,而非并行搜索改進(jìn):可以針對算法的初始化、參數(shù)設(shè)置等方面實施并行策略,向群體智能方向改善禁忌搜索5.2.3算法流程38例題例題5-2利用禁忌搜索算法,求解如下目標(biāo)函數(shù)的最大值,其中且圖中藍(lán)色標(biāo)記為當(dāng)前解的搜索過程,紅色標(biāo)記為迭代過程最優(yōu)解目標(biāo)函數(shù)圖像解空間搜索過程5.2.4典型問題求解案例39例題優(yōu)化后最終結(jié)果為和,函數(shù)的最大值為3.9000,得到全局最優(yōu)。當(dāng)前解迭代變化曲線當(dāng)前最優(yōu)解迭代變化曲線由圖可知,禁忌搜索的過程中當(dāng)前解可接受劣解,存在暫時降低目標(biāo)函數(shù)的情況,以增強算法搜索能力,保證當(dāng)前最優(yōu)解不斷優(yōu)化。5.2.4典型問題求解案例40求解過程(1)初始化各個參數(shù)和各類解變量,并置空禁忌表5.2.4典型問題求解案例41求解過程5.2.4典型問題求解案例(2)定義算法主循環(huán)中核心功能函數(shù)。定義生成函數(shù),用于產(chǎn)生鄰域解作為候選解42求解過程5.2.4典型問題求解案例定義目標(biāo)函數(shù)定義更新函數(shù),用于更新禁忌表定義判斷函數(shù),用于判斷候選解是否在禁忌表中43求解過程5.2.4典型問題求解案例(3)實施禁忌搜索算法程序主循環(huán),包含產(chǎn)生鄰域解和候選解,對其判斷藐視準(zhǔn)則,以進(jìn)行當(dāng)前解和當(dāng)前最優(yōu)解的更新44求解過程5.2.4典型問題求解案例(4)繪制算法運行圖形455.2.5前沿進(jìn)展案例分析:禁忌搜索算法優(yōu)化BP神經(jīng)網(wǎng)絡(luò)BP神經(jīng)網(wǎng)絡(luò)存在收斂速度慢和易陷入局部最優(yōu)的問題,導(dǎo)致網(wǎng)絡(luò)參數(shù)優(yōu)化困難。因此,可以通過結(jié)合禁忌算法的全局優(yōu)化能力,實現(xiàn)BP神經(jīng)網(wǎng)絡(luò)參數(shù)的全局優(yōu)化。初始化BP神經(jīng)網(wǎng)絡(luò)初始化禁忌算法進(jìn)行網(wǎng)絡(luò)訓(xùn)練禁忌算法尋優(yōu),通過藐視準(zhǔn)則和禁忌表,更新當(dāng)前解和當(dāng)前最優(yōu)解判斷停止準(zhǔn)則5.3頭腦風(fēng)暴優(yōu)化算法475.3.1

頭腦風(fēng)暴法概述頭腦風(fēng)暴優(yōu)化算法的起源受人類開會過程集思廣益的啟發(fā),2011年史玉回教授在第二屆AdvancesinSwarmIntelligence國際會議中提出了一種新的頭腦風(fēng)暴優(yōu)化(BrainStormOptimization,BSO)算法。該算法采用聚類思想搜索局部最優(yōu),再通過比較局部最優(yōu)得到全局最優(yōu)。首次發(fā)表在TheSecondInternationalConferenceonSwarmIntelligence485.3.1

頭腦風(fēng)暴法概述頭腦風(fēng)暴法的基本概念頭腦風(fēng)暴法是一種激發(fā)人類思維,以尋找問題最優(yōu)解的方法。頭腦風(fēng)暴法的核心是,讓參會人員圍繞中心話題暢所欲言,通過思想碰撞、觀念融合,得到問題的最優(yōu)解。頭腦風(fēng)暴法所蘊含的開放性和協(xié)作精神為BSO算法的設(shè)計提供了寶貴的啟示,有助于在算法研究中實現(xiàn)高效的優(yōu)化和創(chuàng)新495.3.1頭腦風(fēng)暴法概述頭腦風(fēng)暴法的組成從明確問題到會后評價,頭腦風(fēng)暴法一般分為三個階段。第一階段為明確闡述問題,主持人介紹問題。如果專家對問題感到困惑,主持人應(yīng)該利用案例形式對問題進(jìn)行分析。第二階段為主持人記錄專家提出的所有見解,并積極鼓勵專家自由提出見解。第三階段為專家以鑒別眼光討論所有列出的見解,也可以讓另一組專家來進(jìn)行評價。頭腦風(fēng)暴法遵循的四個原則:庭外判決原則(延遲評判原則),對各種意見的評判必須放到最后階段自由暢想原則,鼓勵各抒己見,創(chuàng)造一種自由、活躍的氣氛以量求質(zhì),意見越多,產(chǎn)生好意見的可能性越大綜合改善原則,強調(diào)相互啟發(fā)、相互補充和相互完善505.3.2

算法原理頭腦風(fēng)暴優(yōu)化算法的主要構(gòu)成BSO算法中的每一個體都代表一個問題的解,利用個體的演化和融合進(jìn)行更新,通過反復(fù)迭代求得問題的最優(yōu)值。BSO算法主要由聚類和變異兩部分組成,利用聚與散相輔相承的搜索機制來搜索最優(yōu)解。聚類BSO算法采用K-means聚類機制,將相同領(lǐng)域或者相似領(lǐng)域的成員分為一組。所有個體可以聚集成幾個集群,每個集群的中心可以是該集群中目標(biāo)函數(shù)最優(yōu)的個體,也可以是距離空間的中間個體515.3.2

算法原理頭腦風(fēng)暴優(yōu)化算法的主要構(gòu)成K-means聚類K-means聚類是一種經(jīng)典的無監(jiān)督聚類算法,用于將數(shù)據(jù)集劃分為K類。該算法的目標(biāo)是使得數(shù)據(jù)點與其所屬聚類中心之間距離的平方和達(dá)到最小。K-means聚類算法具體操作步驟如下:初始化。隨機選擇K個初始聚類中心點分配數(shù)據(jù)點。對于每個數(shù)據(jù)點,計算其與各個聚類中心的距離,并將其分配到距離最近的聚類中心所對應(yīng)的類更新聚類中心。對于每個類,計算所有屬于該類的數(shù)據(jù)點的均值,將該均值作為新的聚類中心重復(fù)步驟2和3,直到聚類中心滿足停止誤差準(zhǔn)則,或達(dá)到預(yù)定的迭代次數(shù)輸出結(jié)果。最終得到K個聚類中心,以及每個數(shù)據(jù)點所屬的類525.3.2

算法原理頭腦風(fēng)暴優(yōu)化算法的主要構(gòu)成變異為了避免BSO算法陷入局部最優(yōu),采用變異思想增加算法解的多樣性,從而有助于得到全局最優(yōu)解。變異過程主要由個體生成、個體變異構(gòu)成個體生成個體生成用于從集群中選擇臨時個體,定義生成的臨時解個體為: 。根據(jù)概率選擇如下方式生成臨時個體A,即:隨機選中一個類,選擇此類的聚類中心隨機選中一個類,選擇此類中的一個隨機個體隨機選中兩個類,把這兩個類的聚類中心進(jìn)行生成融合隨機選中兩個類,分別從這兩個類中隨機選出一個個體進(jìn)行生成融合535.3.2

算法原理頭腦風(fēng)暴優(yōu)化算法的主要構(gòu)成個體變異個體變異是對選擇的臨時解個體疊加隨機擾動,以增強算法的全局尋優(yōu)能力通過疊加隨機擾動,對生成的臨時個體A進(jìn)行更新,更新過程為:其中,為疊加隨機擾動后產(chǎn)生的新個體,是均值為且方差為的高斯隨機函數(shù),為對數(shù)傳遞函數(shù),用于改變函數(shù)的斜率,為最大的進(jìn)化代數(shù),為在上的隨機數(shù)。545.3.2

算法原理頭腦風(fēng)暴優(yōu)化算法策略優(yōu)化過程通過聚類與變異這兩個過程的有機結(jié)合,BSO算法能夠在保持種群多樣性的同時,實現(xiàn)高效的局部和全局搜索。BSO算法詳細(xì)的實現(xiàn)過程如下在可行解空間內(nèi)產(chǎn)生潛在問題的L個解個體確定適應(yīng)度函數(shù)并計算L個解個體的適應(yīng)度值利用K-means聚類算法將L解個體劃分成K類,選中每一類的概率大小與類內(nèi)個體數(shù)量成正比對每個類內(nèi)個體的適應(yīng)度值大小進(jìn)行排序,將適應(yīng)度值最優(yōu)的個體視為此類的類中心按照概率進(jìn)行變異更新將新個體適應(yīng)度值與原個體進(jìn)行比較,若新個體較優(yōu),替換原個體對所有個體逐一進(jìn)行更新,若達(dá)到停止條件,則迭代停止;否則返回步驟3,直到迭代停止555.3.3典型問題求解案例例題例題5-3

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論