版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領
文檔簡介
強化學習入門第二講郭憲2017.3.4強化學習入門第二講郭憲1強化學習的形式化強化學習目標:
環(huán)境機器人觀測回報r動作
新的狀態(tài)S狀態(tài)轉移概率
馬爾科夫決策問題(MDP):四元組
策略:常采用隨機策略:
累積回報:
折扣回報:
值函數(shù)最優(yōu)策略:
序貫決策問題強化學習的形式化強化學習目標:
環(huán)境機器人觀測動作
新的狀態(tài)2強化學習方法分類序貫決策問題馬爾科夫決策過程MDP
基于模型的動態(tài)規(guī)劃方法無模型的強化學習方法
策略迭代值迭代策略搜索本節(jié)講基于模型的策略迭代算法和值迭代算法策略搜索offlineonline策略迭代offlineonline值迭代offlineonline強化學習方法分類序貫決策問題馬爾科夫決策過程MDP
基于模3動態(tài)規(guī)劃動態(tài)規(guī)劃是一類算法:包括離散和連續(xù)。動態(tài):蘊含著序列決策規(guī)劃:蘊含著優(yōu)化,如線性優(yōu)化,二次優(yōu)化或者非線性優(yōu)化。動態(tài)規(guī)劃可以解決的問題:1.整個優(yōu)化問題可以分解成多個子優(yōu)化問題2.子優(yōu)化問題的解可以被存儲和重復利用馬爾科夫決策過程(MDP),貝爾曼最優(yōu)性原理,得到貝爾曼最優(yōu)化方程:
動態(tài)規(guī)劃可以解決MDP的問題核心:動態(tài)規(guī)劃通過值函數(shù)來迭代構造最優(yōu)解動態(tài)規(guī)劃動態(tài)規(guī)劃是一類算法:包括離散和連續(xù)。動態(tài):蘊含著序列4策略評估(policyevaluation)給定策略構造值函數(shù):
模型已知,方程組中只有值函數(shù)是未知數(shù),方程組是線性方程組。未知數(shù)的數(shù)目等于狀態(tài)的數(shù)目。采用數(shù)值迭代算法策略評估(policyevaluation)給定策略構5策略評估(policyevaluation)
高斯-賽德爾迭代策略評估算法輸入:需要評估的策略狀態(tài)轉移概率回報函數(shù),折扣因子
初始化值函數(shù):
Repeatk=0,1,…
foreverysdo
Until
輸出:
一次狀態(tài)掃描[1][2][3][5][4][6][7][8]策略評估(policyevaluation)
高斯-賽德6策略評估(policyevaluation)策略評估算法輸入:需要評估的策略狀態(tài)轉移概率回報函數(shù),折扣因子
初始化值函數(shù):
Repeatk=0,1,…
foreverysdo
Until
輸出:
一次狀態(tài)掃描狀態(tài)空間:S={1,2..14}動作空間:{東,南,西,北}回報函數(shù):-1,直到終止狀態(tài)均勻隨機策略:
1234567810911121314動作MDP策略評估(policyevaluation)策略評估算法輸7策略評估算法輸入:需要評估的策略狀態(tài)轉移概率回報函數(shù),折扣因子
初始化值函數(shù):
Repeatk=0,1,…
foreverysdo
Until
輸出:
一次狀態(tài)掃描策略評估(policyevaluation)-1.0-1.0-1.0-1.0-1.0-1.0-1.0-1.0-1.0-1.0-1.0-1.0-1.0-1.0K=10.00.00.00.00.00.00.00.00.00.00.00.00.00.00.00.00.0K=00.0-1.7-2.0-2.0-2.0-2.0-2.0-2.0-1.7-2.0-2.0-1.7-2.0-2.0-1.7K=20.00.0-2.4-2.9-3.0-2.9-2.9-3.0-2.9-2.4-2.9-3.0-2.4-3.0-2.9-2.4K=30.00.0策略評估算法輸入:需要評估的策略狀態(tài)轉移概率回報函8策略改進(policyimprovement)計算策略值的目的是為了幫助找到更好的策略,在每個狀態(tài)采用貪婪策略。
-14-20-22-20-18-20-18-14-20-20-14-22-20-140.00.0
0.00.0-6.1-8.4-9.0-8.4-7.7-8.4-7.7-6.1-8.4-8.4-6.1-9.0-8.4-6.1K=100.00.00.00.0
max
策略改進(policyimprovement)計算策略值的9策略迭代(policyiteration)策略評估策略改進
Policyimprovement策略迭代算法輸入:狀態(tài)轉移概率回報函數(shù),折扣因子
初始化值函數(shù):初始化策略
輸出:Repeatl=0,1,…
find
Policyevaluation
Until
[1][2][3][5][4][6]策略迭代(policyiteration)策略評估策略改進10值函數(shù)迭代策略改進一定要等到值函數(shù)收斂嗎?當K=1時便進行策略改進,得到值函數(shù)迭代算法
-6.1-8.4-9.0-8.4-7.7-8.4-7.7-6.1-8.4-8.4-6.1-9.0-8.4-6.1K=100.00.00.00.0
0.00.0-14-20-22-20-18-20-18-14-20-20-14-22-20-140.00.0
輸入:狀態(tài)轉移概率回報函數(shù),折扣因子
初始化值函數(shù):初始化策略
輸出:
UntilRepeatl=0,1,…
foreverysdo
[1][2][3][5][4][6]值函數(shù)迭代策略改進一定要等到值函數(shù)收斂嗎?當K=1時便進行策11值函數(shù)迭代與最優(yōu)控制輸入:狀態(tài)轉移概率回報函數(shù),折扣因子
初始化值函數(shù):初始化策略
輸出:
UntilRepeatl=0,1,…
foreverysdo
值函數(shù)迭代算法狀態(tài)方程:性能指標函數(shù):最優(yōu)控制問題:Bellman最優(yōu)性原理:2.利用變分法,將微分方程轉化成變分代數(shù)方程,在標稱軌跡展開,得到微分動態(tài)規(guī)劃DDP1.將值函數(shù)進行離散,進行數(shù)值求解。值函數(shù)迭代與最優(yōu)控制輸入:狀態(tài)轉移概率回報函數(shù),12值函數(shù)迭代與最優(yōu)控制輸入:狀態(tài)轉移概率回報函數(shù),折扣因子
初始化值函數(shù):初始化策略
輸出:
UntilRepeatl=0,1,…
foreverysdo
值函數(shù)迭代算法此式是關于值函數(shù)的偏微分方程,利用數(shù)值算法可進行迭代計算值函數(shù)。From胡亞楠博士論文值函數(shù)迭代與最優(yōu)控制輸入:狀態(tài)轉移概率回報函數(shù),13值函數(shù)迭代與最優(yōu)控制輸入:狀態(tài)轉移概率回報函數(shù),折扣因子
初始化值函數(shù):初始化策略
輸出:
UntilRepeatl=0,1,…
foreverysdo
值函數(shù)迭代算法
貪婪策略:
利用變分法,將微分方程轉化成變分代數(shù)方程值函數(shù)迭代與最優(yōu)控制輸入:狀態(tài)轉移概率回報函數(shù),14微分動態(tài)規(guī)劃方法微分動態(tài)規(guī)劃:1.前向迭代:給定初始控制序列正向迭代計算標稱軌跡2.反向迭代:由代價函數(shù)邊界條件反向迭代計算(1),(2),(3)得到
序列
(1)(3)(2)3.正向迭代新的控制序列:微分動態(tài)規(guī)劃方法微分動態(tài)規(guī)劃:1.前向迭代:給定初始控制序15值函數(shù)迭代與最優(yōu)控制輸入:狀態(tài)轉移概率回報函數(shù),折扣因子
初始化值函數(shù):初始化策略
輸出:
UntilRepeatl=0,1,…
foreverysdo
值函數(shù)迭代算法微分動態(tài)規(guī)劃:1.前向迭代:給定初始控制序列正向迭代計算標稱軌跡2.反向迭代:由代價函數(shù)邊界條件反向迭代計算(1),(2),(3)得到
序列
3.正向迭代新的控制序列:值函數(shù)迭代與最優(yōu)控制輸入:狀態(tài)轉移概率回報函數(shù),16基于模型的其他方法逼近動態(tài)規(guī)劃(逼近值函數(shù))基于模型的策略搜索(dynamic)異步動態(tài)規(guī)劃實時動態(tài)規(guī)劃Guidedpolicysearch基于模型的其他方法逼近動態(tài)規(guī)劃(逼近值函數(shù))17強化學習入門第二講郭憲2017.3.4強化學習入門第二講郭憲18強化學習的形式化強化學習目標:
環(huán)境機器人觀測回報r動作
新的狀態(tài)S狀態(tài)轉移概率
馬爾科夫決策問題(MDP):四元組
策略:常采用隨機策略:
累積回報:
折扣回報:
值函數(shù)最優(yōu)策略:
序貫決策問題強化學習的形式化強化學習目標:
環(huán)境機器人觀測動作
新的狀態(tài)19強化學習方法分類序貫決策問題馬爾科夫決策過程MDP
基于模型的動態(tài)規(guī)劃方法無模型的強化學習方法
策略迭代值迭代策略搜索本節(jié)講基于模型的策略迭代算法和值迭代算法策略搜索offlineonline策略迭代offlineonline值迭代offlineonline強化學習方法分類序貫決策問題馬爾科夫決策過程MDP
基于模20動態(tài)規(guī)劃動態(tài)規(guī)劃是一類算法:包括離散和連續(xù)。動態(tài):蘊含著序列決策規(guī)劃:蘊含著優(yōu)化,如線性優(yōu)化,二次優(yōu)化或者非線性優(yōu)化。動態(tài)規(guī)劃可以解決的問題:1.整個優(yōu)化問題可以分解成多個子優(yōu)化問題2.子優(yōu)化問題的解可以被存儲和重復利用馬爾科夫決策過程(MDP),貝爾曼最優(yōu)性原理,得到貝爾曼最優(yōu)化方程:
動態(tài)規(guī)劃可以解決MDP的問題核心:動態(tài)規(guī)劃通過值函數(shù)來迭代構造最優(yōu)解動態(tài)規(guī)劃動態(tài)規(guī)劃是一類算法:包括離散和連續(xù)。動態(tài):蘊含著序列21策略評估(policyevaluation)給定策略構造值函數(shù):
模型已知,方程組中只有值函數(shù)是未知數(shù),方程組是線性方程組。未知數(shù)的數(shù)目等于狀態(tài)的數(shù)目。采用數(shù)值迭代算法策略評估(policyevaluation)給定策略構22策略評估(policyevaluation)
高斯-賽德爾迭代策略評估算法輸入:需要評估的策略狀態(tài)轉移概率回報函數(shù),折扣因子
初始化值函數(shù):
Repeatk=0,1,…
foreverysdo
Until
輸出:
一次狀態(tài)掃描[1][2][3][5][4][6][7][8]策略評估(policyevaluation)
高斯-賽德23策略評估(policyevaluation)策略評估算法輸入:需要評估的策略狀態(tài)轉移概率回報函數(shù),折扣因子
初始化值函數(shù):
Repeatk=0,1,…
foreverysdo
Until
輸出:
一次狀態(tài)掃描狀態(tài)空間:S={1,2..14}動作空間:{東,南,西,北}回報函數(shù):-1,直到終止狀態(tài)均勻隨機策略:
1234567810911121314動作MDP策略評估(policyevaluation)策略評估算法輸24策略評估算法輸入:需要評估的策略狀態(tài)轉移概率回報函數(shù),折扣因子
初始化值函數(shù):
Repeatk=0,1,…
foreverysdo
Until
輸出:
一次狀態(tài)掃描策略評估(policyevaluation)-1.0-1.0-1.0-1.0-1.0-1.0-1.0-1.0-1.0-1.0-1.0-1.0-1.0-1.0K=10.00.00.00.00.00.00.00.00.00.00.00.00.00.00.00.00.0K=00.0-1.7-2.0-2.0-2.0-2.0-2.0-2.0-1.7-2.0-2.0-1.7-2.0-2.0-1.7K=20.00.0-2.4-2.9-3.0-2.9-2.9-3.0-2.9-2.4-2.9-3.0-2.4-3.0-2.9-2.4K=30.00.0策略評估算法輸入:需要評估的策略狀態(tài)轉移概率回報函25策略改進(policyimprovement)計算策略值的目的是為了幫助找到更好的策略,在每個狀態(tài)采用貪婪策略。
-14-20-22-20-18-20-18-14-20-20-14-22-20-140.00.0
0.00.0-6.1-8.4-9.0-8.4-7.7-8.4-7.7-6.1-8.4-8.4-6.1-9.0-8.4-6.1K=100.00.00.00.0
max
策略改進(policyimprovement)計算策略值的26策略迭代(policyiteration)策略評估策略改進
Policyimprovement策略迭代算法輸入:狀態(tài)轉移概率回報函數(shù),折扣因子
初始化值函數(shù):初始化策略
輸出:Repeatl=0,1,…
find
Policyevaluation
Until
[1][2][3][5][4][6]策略迭代(policyiteration)策略評估策略改進27值函數(shù)迭代策略改進一定要等到值函數(shù)收斂嗎?當K=1時便進行策略改進,得到值函數(shù)迭代算法
-6.1-8.4-9.0-8.4-7.7-8.4-7.7-6.1-8.4-8.4-6.1-9.0-8.4-6.1K=100.00.00.00.0
0.00.0-14-20-22-20-18-20-18-14-20-20-14-22-20-140.00.0
輸入:狀態(tài)轉移概率回報函數(shù),折扣因子
初始化值函數(shù):初始化策略
輸出:
UntilRepeatl=0,1,…
foreverysdo
[1][2][3][5][4][6]值函數(shù)迭代策略改進一定要等到值函數(shù)收斂嗎?當K=1時便進行策28值函數(shù)迭代與最優(yōu)控制輸入:狀態(tài)轉移概率回報函數(shù),折扣因子
初始化值函數(shù):初始化策略
輸出:
UntilRepeatl=0,1,…
foreverysdo
值函數(shù)迭代算法狀態(tài)方程:性能指標函數(shù):最優(yōu)控制問題:Bellman最優(yōu)性原理:2.利用變分法,將微分方程轉化成變分代數(shù)方程,在標稱軌跡展開,得到微分動態(tài)規(guī)劃DDP1.將值函數(shù)進行離散,進行數(shù)值求解。值函數(shù)迭代與最優(yōu)控制輸入:狀態(tài)轉移概率回報函數(shù),29值函數(shù)迭代與最優(yōu)控制輸入:狀態(tài)轉移概率回報函數(shù),折扣因子
初始化值函數(shù):初始化策略
輸出:
UntilRepeatl=0,1,…
foreverysdo
值函數(shù)迭代算法此式是關于值函數(shù)的偏微分方程,利用數(shù)值算法可進行迭代計算值函數(shù)。From胡亞楠博士論文值函數(shù)迭
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
- 4. 未經權益所有人同意不得將文件中的內容挪作商業(yè)或盈利用途。
- 5. 人人文庫網僅提供信息存儲空間,僅對用戶上傳內容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
- 6. 下載文件中如有侵權或不適當內容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 2024年渤海船舶職業(yè)學院高職單招語文歷年參考題庫含答案解析
- 寶貝學常見詞
- 授權函完整版本
- 二零二五年能源管理服務簡易借款合同3篇
- 二零二五年新型電子產品動產交易合同2篇
- 2024年河南物流職業(yè)學院高職單招職業(yè)技能測驗歷年參考題庫(頻考版)含答案解析
- 2024年阜陽市第二人民醫(yī)院高層次衛(wèi)技人才招聘筆試歷年參考題庫頻考點附帶答案
- 2024年阜康準東石油醫(yī)院高層次衛(wèi)技人才招聘筆試歷年參考題庫頻考點附帶答案
- 2024年長沙現(xiàn)代女子醫(yī)院高層次衛(wèi)技人才招聘筆試歷年參考題庫頻考點附帶答案
- 2025版高端食品買賣合同及食品安全追溯協(xié)議
- (完整版)英語高頻詞匯800詞
- 嚴重精神障礙患者發(fā)病報告卡
- 《基礎馬來語》課程標準(高職)
- 2021年國標熱鍍鋅鋼管規(guī)格、尺寸理論重量表
- 烏魯木齊基準地價修正體系
- DB32-T 3177-2017草莓-蕹菜水旱輪作設施栽培技術規(guī)程 -(高清現(xiàn)行)
- GB∕T 3216-2016 回轉動力泵 水力性能驗收試驗 1級、2級和3級
- 七年級數(shù)學資料培優(yōu)匯總精華
- IEC61850研討交流之四-服務影射
- 《兒科學》新生兒窒息課件
- 材料力學壓桿穩(wěn)定
評論
0/150
提交評論