隨機梯度下降法概述_第1頁
隨機梯度下降法概述_第2頁
隨機梯度下降法概述_第3頁
隨機梯度下降法概述_第4頁
隨機梯度下降法概述_第5頁
全文預覽已結束

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領

文檔簡介

本節(jié)開始介紹第一個機器學習模型:線性回歸模型( LinearRegressionModel) 。線性回歸的目的是預測連續(xù)變量的值,比如股票走勢,房屋的價格預測。從某種程度上說,線性回歸模型,就是函數擬合。而線性回歸,針對線性模型擬合,是回歸模型當中最簡單一種。形式化描述回歸模型:對于給定的訓練樣本集包含

N個訓練樣本{x(i)}相應的目標值{t(i)}}(i=1,2,....N)

,我們的目的是給定一個新樣本

x預測其值

t,注意與分類問題不同是

{t(i)}屬于連續(xù)變量。最簡單的線性回歸模型:(1)其中,x={x1,x2,x3,...xD},D個特征項,w={w1,w2,w3...wD},被稱為參數或者權重。線性回歸模型的關系是求出 w。上面的公式可以簡化為:(2)其中Φj(x)被成為集函數,令 Φ0(x)=1,則上式又可以寫成:(3)集函數的一般有多項式集函數,比如 Gaussian集函數,Sigmoidal集函數。為方便出公式推導,我們假設:最簡單的集函數形式: Φj(x)=xj為了求出模型參數(一旦w求出,模型就被確定),我們首先需要定義出錯誤函數或者(errorfunction)或者又被成為損失函數(costfunction),優(yōu)化損失函數的過程便是模型求解的過程。我們定義線性回歸模型的損失函數:(4)優(yōu)化當前函數有很多方便,包括隨機梯度下降算法( gradientdescentalgorithm )算法步驟如下:1)隨機起始參數 W;2)按照梯度反方向更新參數 W直到函數收斂。算法公式表示:(5)其中,η表示學習速率(learningrate)。倒三角表示對損失函數求導,得到導數方向。對公式(4)求導后:(6)公式(5)更新方法又被稱為批梯度下降算法

(batchgradientdescentalgorithm

),每更新一次

W需要遍歷所有的訓練樣本,當樣本量很大是,將會是非常耗時的。另一種更新方法,隨機梯度下降的算法,每次碰到一個樣本,即對

W進行更新:(7)隨機梯度算法速度要遠于批更新, 但可能會得到局部最優(yōu)解。 需要注意的是,在隨機梯度下降方法中,并不是每一次更新都判斷算法何時收斂, 而是在m次的更新后再做判斷(往往m<樣本數量)。人的身體也是一個風水寶地。你的心念,你的所想所思,內在的情志,從你的外在,展現的淋漓盡致。你內心是不安,還是從容,都會從你的言語和行為中展現出來,所以人身體的本身就是一個風水場,它又是一個強大的磁場,吸引和抵御著好與壞的事物。人身體內在的機體,在儒家思想里以仁、義、禮、智、信來表述。佛家的思想中被闡述為,地、水、火、風。老子;以道、天、地、王來表述。你的四大平穩(wěn)和合,你身體的風水就為上乘風水,散發(fā)的都是好的能量,你的四大不合,就為差風水,散發(fā)出來的就是壞的能量。真正的好風水,好人生,其實就是我們內心的高貴。在這個世界上,內心的高貴比物質的高貴更加寶貴。富是物質的擁有,沒有精神的高貴,永遠成不了貴族。富二代在中國儼然是一個貶義詞,目中無人,橫行無忌,因為中國富人大多是從改革開放之后開始富起來的,財富積累也才區(qū)區(qū)三十年,還是鉆了各種空子,所以說中國沒有真正的富人,充其量有些

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經權益所有人同意不得將文件中的內容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網僅提供信息存儲空間,僅對用戶上傳內容的表現方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
  • 6. 下載文件中如有侵權或不適當內容,請與我們聯系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論