版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
機(jī)器學(xué)習(xí)
方法與應(yīng)用xxx教授南京郵電大學(xué)1機(jī)器學(xué)習(xí)學(xué)術(shù)報(bào)告5/8/2024機(jī)器學(xué)習(xí)-相關(guān)研究領(lǐng)域
2機(jī)器學(xué)習(xí)學(xué)術(shù)報(bào)告5/8/2024機(jī)器學(xué)習(xí)機(jī)器學(xué)習(xí)方法概述幾種機(jī)器學(xué)習(xí)應(yīng)用3機(jī)器學(xué)習(xí)學(xué)術(shù)報(bào)告5/8/2024機(jī)器學(xué)習(xí)-緣起機(jī)器學(xué)習(xí)一詞是上世紀(jì)50年代由美國(guó)電腦游戲和人工智能先驅(qū)—亞瑟.薩繆爾在IBM工作時(shí)提出的。亞瑟.薩繆爾聲名鵲起是因?yàn)樗_(kāi)發(fā)的國(guó)際象棋程序。他編寫(xiě)程序讓電腦自己和自己下了成千上萬(wàn)局國(guó)際象棋。通過(guò)觀察下在什么位置更可能獲勝,下在什么位置更可能輸?shù)?,隨著局?jǐn)?shù)的增加,下棋程序逐漸學(xué)習(xí)并最終超越了薩繆爾——這在當(dāng)時(shí)是一個(gè)了不起的結(jié)果。此處有視頻4機(jī)器學(xué)習(xí)學(xué)術(shù)報(bào)告5/8/20241機(jī)器學(xué)習(xí)-必要性機(jī)器學(xué)習(xí)是從早期人工智能的研究中興起的,在過(guò)去的15-20年間,它被認(rèn)為是正在發(fā)展的計(jì)算機(jī)的新能力,事實(shí)上,有很多程序人工是無(wú)法直接編寫(xiě)出來(lái)的如:·自動(dòng)駕駛汽車(chē)·通過(guò)電腦閱讀手寫(xiě)的字母或者數(shù)字·編寫(xiě)程序讓直升機(jī)飛行或倒立飛行然而通過(guò)讓便編寫(xiě)一個(gè)學(xué)習(xí)型算法,讓計(jì)算機(jī)自己學(xué)習(xí),可以很好解決這些問(wèn)題,如手寫(xiě)識(shí)別等。5機(jī)器學(xué)習(xí)學(xué)術(shù)報(bào)告5/8/2024機(jī)器學(xué)習(xí)-定義
“對(duì)于某類(lèi)任務(wù)T和性能度量P,如果一個(gè)計(jì)算機(jī)程序在T上以P衡量的性能隨著經(jīng)驗(yàn)E而自我完善,那么我們稱(chēng)這個(gè)計(jì)算機(jī)程序在從經(jīng)驗(yàn)E學(xué)習(xí)。”
-《MachineLearning》
“許多領(lǐng)域都產(chǎn)生了大量的數(shù)據(jù),統(tǒng)計(jì)學(xué)家的工作就是讓所有這些數(shù)據(jù)變得意義:提取重要的模式和趨勢(shì),理解“數(shù)據(jù)在說(shuō)什么”。我們稱(chēng)之為從數(shù)據(jù)中學(xué)習(xí)。”-《統(tǒng)計(jì)學(xué)習(xí)基礎(chǔ)》6機(jī)器學(xué)習(xí)學(xué)術(shù)報(bào)告5/8/20241學(xué)習(xí)方式分類(lèi)·有監(jiān)督學(xué)習(xí)Supervisedlearning
·半監(jiān)督學(xué)習(xí)Unsupervisedlearning
·無(wú)監(jiān)督學(xué)習(xí)Semi-supervisedlearning
·強(qiáng)化學(xué)習(xí)Reinforcementlearning
7機(jī)器學(xué)習(xí)學(xué)術(shù)報(bào)告5/8/20241有監(jiān)督學(xué)習(xí)輸入數(shù)據(jù)被稱(chēng)為“訓(xùn)練數(shù)據(jù)”,每組訓(xùn)練數(shù)據(jù)有一個(gè)明確的標(biāo)識(shí)或結(jié)果。在建立預(yù)測(cè)模型的時(shí)候,監(jiān)督式學(xué)習(xí)建立一個(gè)學(xué)習(xí)過(guò)程,將預(yù)測(cè)結(jié)果與“訓(xùn)練數(shù)據(jù)”的實(shí)際結(jié)果進(jìn)行比較,不斷的調(diào)整預(yù)測(cè)模型,直到模型的預(yù)測(cè)結(jié)果達(dá)到一個(gè)預(yù)期的準(zhǔn)確率。監(jiān)督式學(xué)習(xí)的常見(jiàn)應(yīng)用場(chǎng)景如分類(lèi)問(wèn)題和回歸問(wèn)題。常見(jiàn)算法有邏輯回歸(LogisticRegression)和反向傳遞神經(jīng)網(wǎng)絡(luò)(BackPropagationNeuralNetwork)
8機(jī)器學(xué)習(xí)學(xué)術(shù)報(bào)告5/8/20241無(wú)監(jiān)督學(xué)習(xí)
無(wú)監(jiān)督式學(xué)習(xí)的目的是去對(duì)原始資料進(jìn)行分類(lèi),以便了解資料內(nèi)部結(jié)構(gòu)(概率密度等)。其在學(xué)習(xí)時(shí)并不知道其分類(lèi)結(jié)果是否正確,亦即沒(méi)有受到監(jiān)督式增強(qiáng)(告訴它何種學(xué)習(xí)是正確的)。其特點(diǎn)是僅對(duì)此種網(wǎng)絡(luò)提供輸入范例,而它會(huì)自動(dòng)從這些范例中找出其潛在類(lèi)別規(guī)則。當(dāng)學(xué)習(xí)完畢并經(jīng)測(cè)試后,也可以將之應(yīng)用到新的案例上。典型的例子就是聚類(lèi)。聚類(lèi)的目的在于把相似的東西聚在一起,而我們并不關(guān)心這一類(lèi)是什么。因此,一個(gè)聚類(lèi)算法通常只需要知道如何計(jì)算相似度就可以開(kāi)始工作了。
9機(jī)器學(xué)習(xí)學(xué)術(shù)報(bào)告5/8/20241半監(jiān)督學(xué)習(xí)
輸入數(shù)據(jù)部分被標(biāo)識(shí),部分沒(méi)有被標(biāo)識(shí),這種學(xué)習(xí)模型可以用來(lái)進(jìn)行預(yù)測(cè),但是模型首先需要學(xué)習(xí)數(shù)據(jù)的內(nèi)在結(jié)構(gòu)以便合理的組織數(shù)據(jù)來(lái)進(jìn)行預(yù)測(cè)。
應(yīng)用場(chǎng)景包括分類(lèi)和回歸,算法包括一些對(duì)常用監(jiān)督式學(xué)習(xí)算法的延伸,這些算法首先試圖對(duì)未標(biāo)識(shí)數(shù)據(jù)進(jìn)行建模,在此基礎(chǔ)上再對(duì)標(biāo)識(shí)的數(shù)據(jù)進(jìn)行預(yù)測(cè)。如圖論推理算法(GraphInference)或者拉普拉斯支持向量機(jī)(LaplacianSVM.)
10機(jī)器學(xué)習(xí)學(xué)術(shù)報(bào)告5/8/20241強(qiáng)化學(xué)習(xí)輸入數(shù)據(jù)作為對(duì)模型的反饋,不像監(jiān)督模型那樣,輸入數(shù)據(jù)僅僅是作為一個(gè)檢查模型對(duì)錯(cuò)的方式,在強(qiáng)化學(xué)習(xí)下,輸入數(shù)據(jù)直接反饋到模型,模型必須對(duì)此立刻作出調(diào)整。常見(jiàn)的應(yīng)用場(chǎng)景包括動(dòng)態(tài)系統(tǒng)以及機(jī)器人控制等。常見(jiàn)算法包括(Qlearning)以及時(shí)間差學(xué)習(xí)(Temporaldifferencelearning)
11機(jī)器學(xué)習(xí)學(xué)術(shù)報(bào)告5/8/2024??學(xué)習(xí)型算法機(jī)器學(xué)習(xí)可以讓我們解決一些人為設(shè)計(jì)和使用確定性程序很難解決的問(wèn)題。從科學(xué)和哲學(xué)的角度來(lái)看,機(jī)器學(xué)習(xí)受到關(guān)注是因?yàn)樘岣呶覀儗?duì)機(jī)器學(xué)習(xí)的認(rèn)識(shí)需要提高我們對(duì)智能背后原理-學(xué)習(xí)算法的理解。機(jī)器學(xué)習(xí)算法是一種能夠從數(shù)據(jù)中學(xué)習(xí)的算法。然而,我們所謂的學(xué)習(xí)是什么意思呢?一個(gè)簡(jiǎn)潔的定義是:“對(duì)于某類(lèi)任務(wù)
T
和性能度量P,一個(gè)計(jì)算機(jī)程序被認(rèn)為可以從經(jīng)驗(yàn)E
中學(xué)習(xí)是指,通過(guò)經(jīng)驗(yàn)E改進(jìn)后,它在任務(wù)
T上由性能度量P衡量的性能有所提升。下面來(lái)分別介紹一下這些名詞。
12機(jī)器學(xué)習(xí)學(xué)術(shù)報(bào)告5/8/20241任務(wù)T從“任務(wù)”的相對(duì)正式的定義上說(shuō),學(xué)習(xí)過(guò)程本身不能算是任務(wù)。學(xué)習(xí)是我們所謂的獲取完成任務(wù)的能力。例如,我們的目標(biāo)是使機(jī)器人能夠行走,那么行走便是任務(wù)。我們可以編程讓機(jī)器人學(xué)會(huì)如何行走,或者可以人工編寫(xiě)特定的指令來(lái)指導(dǎo)機(jī)器人如何行走。通常機(jī)器學(xué)習(xí)任務(wù)定義為學(xué)習(xí)系統(tǒng)應(yīng)該如何處理樣本。樣本是指我們從某些希望機(jī)器學(xué)習(xí)系統(tǒng)處理的對(duì)象或事件中收集到的已經(jīng)量化的特征的集合。我們通常會(huì)將樣本表示成一個(gè),其中向量的每一個(gè)元素是一個(gè)特征。例如,一張圖片的特征通常是指這張圖片的像素值。
13機(jī)器學(xué)習(xí)學(xué)術(shù)報(bào)告5/8/20241任務(wù)T-分類(lèi)
機(jī)器學(xué)習(xí)可以解決很多類(lèi)型的任務(wù)。一些非常常見(jiàn)的機(jī)器學(xué)習(xí)任務(wù)列舉如下:
分類(lèi):在這類(lèi)任務(wù)中,計(jì)算機(jī)程序需要指定某些輸入屬于k類(lèi)中的哪一類(lèi)。為了完成這個(gè)任務(wù),學(xué)習(xí)算法通常會(huì)返回一個(gè)函數(shù)f。當(dāng)y=f(x)時(shí),模型將向量x
所代表的輸入分類(lèi)到數(shù)字碼y
所代表的類(lèi)別。還有一些其他的分類(lèi)問(wèn)題,例如,f
輸出的是不同類(lèi)別的概率分布。分類(lèi)任務(wù)中有一個(gè)任務(wù)是對(duì)象識(shí)別,其中輸入是圖片(通常由一組像素亮度值表示),輸出是表示圖片物體的數(shù)字碼。例如,WillowGaragePR2機(jī)器人能像服務(wù)員一樣識(shí)別不同飲料,并送給點(diǎn)餐的顧客。
14機(jī)器學(xué)習(xí)學(xué)術(shù)報(bào)告5/8/20241任務(wù)T-回歸
回歸:在這類(lèi)任務(wù)中,計(jì)算機(jī)程序需要對(duì)給定輸入預(yù)測(cè)數(shù)值。為了解決這個(gè)務(wù),學(xué)習(xí)算法需要輸出函數(shù)f。除了返回結(jié)果的形式不一樣外,這類(lèi)問(wèn)題和分類(lèi)問(wèn)題是很像的。這類(lèi)任務(wù)的一個(gè)示例是預(yù)測(cè)投保人的索賠金額(用于設(shè)置保險(xiǎn)費(fèi)),或者預(yù)測(cè)證券未來(lái)的價(jià)格。這類(lèi)預(yù)測(cè)也用在算法交易中。
15機(jī)器學(xué)習(xí)學(xué)術(shù)報(bào)告5/8/20241任務(wù)T-機(jī)器翻譯機(jī)器翻譯:在機(jī)器翻譯任務(wù)中,輸入是一種語(yǔ)言的符號(hào)序列,計(jì)算機(jī)程序必須將其轉(zhuǎn)化成另一種語(yǔ)言的符號(hào)序列。這通常適用于自然語(yǔ)言,如將英語(yǔ)譯成法語(yǔ)。
16機(jī)器學(xué)習(xí)學(xué)術(shù)報(bào)告5/8/20241任務(wù)T-轉(zhuǎn)錄轉(zhuǎn)錄:這類(lèi)任務(wù)中,機(jī)器學(xué)習(xí)系統(tǒng)觀測(cè)一些相對(duì)非結(jié)構(gòu)化表示的數(shù)據(jù),并轉(zhuǎn)錄信息為離散的文本形式。例如,光學(xué)字符識(shí)別要求計(jì)算機(jī)程序根據(jù)文本圖片返回文字序列(ASCII碼或者Unicode碼)。谷歌街景以這種方式使用深度學(xué)習(xí)處理街道編號(hào)(Goodfellowetal.,2014d)。另一個(gè)例子是語(yǔ)音識(shí)別,計(jì)算機(jī)程序輸入一段音頻波形,輸出一序列音頻記錄中所說(shuō)的字符或單詞ID的編碼。
深度學(xué)習(xí)是現(xiàn)代語(yǔ)音識(shí)別系統(tǒng)的重要組成部分,被各大公司廣泛使用,包括微軟,IBM和谷歌。
17機(jī)器學(xué)習(xí)學(xué)術(shù)報(bào)告5/8/20241任務(wù)T-密度估計(jì)密度估計(jì):在密度估計(jì)問(wèn)題中,機(jī)器學(xué)習(xí)算法學(xué)習(xí)樣本采樣空間的概率密度函數(shù)(樣本連續(xù))或者概率質(zhì)量函數(shù)(樣本離散)。要做好這樣的任務(wù),學(xué)習(xí)算法需要學(xué)習(xí)觀測(cè)到的數(shù)據(jù)的結(jié)構(gòu)。算法必須知道什么情況下樣本聚集出現(xiàn),什么情況下不太可能出現(xiàn)。
密度估計(jì)可以讓我們顯式地捕獲該分布。原則上,我們可以在該分布上計(jì)算以便解決其他任務(wù)。例如,如果我們通過(guò)密度估計(jì)得到了概率分布p(x),我們可以用該分布解決缺失值填補(bǔ)任務(wù)(轉(zhuǎn)化為條件概率)。
18機(jī)器學(xué)習(xí)學(xué)術(shù)報(bào)告5/8/20241性能度量P為了評(píng)估機(jī)器學(xué)習(xí)算法的能力,我們必須設(shè)計(jì)其性能的定量度量。通常性能度量P是特定于系統(tǒng)執(zhí)行的任務(wù)T而言的。
對(duì)于諸如分類(lèi)、缺失輸入分類(lèi)和轉(zhuǎn)錄任務(wù),我們通常度量模型的準(zhǔn)確率(accuracy)。準(zhǔn)確率是指該模型輸出正確結(jié)果的樣本比率。我們也可以通過(guò)錯(cuò)誤率(errorrate)得到相同的信息。錯(cuò)誤率是指該模型輸出錯(cuò)誤結(jié)果的樣本比率。我們通常把錯(cuò)誤率稱(chēng)為0-1損失的期望。在一個(gè)特定的樣本上,如果結(jié)果是對(duì)的,那么0-1損失是0;否則是1。
19機(jī)器學(xué)習(xí)學(xué)術(shù)報(bào)告5/8/20241性能度量P通常,我們?cè)谟?xùn)練集(trainset)上學(xué)習(xí)算法,但我們更加關(guān)注機(jī)器學(xué)習(xí)算法在未觀測(cè)數(shù)據(jù)上的性能如何,因?yàn)檫@將決定其在實(shí)際應(yīng)用中的性能。因此,我們使用測(cè)試集(testset)數(shù)據(jù)來(lái)評(píng)估系統(tǒng)性能,將其與訓(xùn)練機(jī)器學(xué)習(xí)系統(tǒng)的訓(xùn)練集數(shù)據(jù)分開(kāi)。
性能度量的選擇或許看上去簡(jiǎn)單且客觀,但是選擇一個(gè)與系統(tǒng)理想表現(xiàn)對(duì)應(yīng)的性能度量通常是很難的。
20機(jī)器學(xué)習(xí)學(xué)術(shù)報(bào)告5/8/20241性能度量P某些情況下,這是因?yàn)楹茈y確定應(yīng)該度量什么。例如,在執(zhí)行轉(zhuǎn)錄任務(wù)時(shí),我們是應(yīng)該度量系統(tǒng)轉(zhuǎn)錄整個(gè)序列的準(zhǔn)確率,還是應(yīng)該用一個(gè)更細(xì)粒度的指標(biāo),對(duì)序列中正確的部分元素以正面評(píng)價(jià)?在執(zhí)行回歸任務(wù)時(shí),我們應(yīng)該更多地懲罰頻繁犯一些中等錯(cuò)誤的系統(tǒng),還是較少犯錯(cuò)但是犯很大錯(cuò)誤的系統(tǒng)?這些設(shè)計(jì)的選擇取決于應(yīng)用。
21機(jī)器學(xué)習(xí)學(xué)術(shù)報(bào)告5/8/20241經(jīng)驗(yàn)E
根據(jù)學(xué)習(xí)過(guò)程中的不同經(jīng)驗(yàn),機(jī)器學(xué)習(xí)算法可以大致分類(lèi)為無(wú)監(jiān)督(unsupervised)算法和監(jiān)督(supervised)算法。無(wú)監(jiān)督學(xué)習(xí)算法訓(xùn)練含有很多特征的數(shù)據(jù)集,然后學(xué)習(xí)出這個(gè)數(shù)據(jù)集上有用的結(jié)構(gòu)性質(zhì)。在深度學(xué)習(xí)中,我們通常要學(xué)習(xí)生成數(shù)據(jù)集的整個(gè)概率分布,顯式地,比如密度估計(jì),或是隱式地,比如合成或去噪。還有一些其他類(lèi)型的無(wú)監(jiān)督學(xué)習(xí)任務(wù),例如聚類(lèi),將數(shù)據(jù)集分成相似樣本的集合。
22機(jī)器學(xué)習(xí)學(xué)術(shù)報(bào)告5/8/20241經(jīng)驗(yàn)E監(jiān)督學(xué)習(xí)算法訓(xùn)練含有很多特征的數(shù)據(jù)集,不過(guò)數(shù)據(jù)集中的樣本都有一個(gè)標(biāo)簽或目標(biāo)。例如,Iris數(shù)據(jù)集注明了每個(gè)鳶尾花卉樣本屬于什么品種。監(jiān)督學(xué)習(xí)算法通過(guò)研究Iris數(shù)據(jù)集,學(xué)習(xí)如何根據(jù)測(cè)量結(jié)果將樣本劃分為三個(gè)不同品種。注:Iris(鳶尾花卉)數(shù)據(jù)集(Fisher,1936)是統(tǒng)計(jì)學(xué)家和機(jī)器學(xué)習(xí)研究者使用了很久的數(shù)據(jù)集。它是150個(gè)鳶尾花卉植物不同部分測(cè)量結(jié)果的集合。每個(gè)單獨(dú)的植物對(duì)應(yīng)一個(gè)樣本。每個(gè)樣本的特征是該植物不同部分的測(cè)量結(jié)果:萼片長(zhǎng)度、萼片寬度、花瓣長(zhǎng)度和花瓣寬度。這個(gè)數(shù)據(jù)集也記錄了每個(gè)植物屬于什么品種,其中共有三個(gè)不同的品種。
23機(jī)器學(xué)習(xí)學(xué)術(shù)報(bào)告5/8/20241牛刀小試-線性回歸任務(wù):寫(xiě)一個(gè)可以根據(jù)房屋大小、位置、成交價(jià)等因素來(lái)評(píng)估一間房屋的價(jià)格的小軟件。近三個(gè)月來(lái),每當(dāng)你的城市里有人賣(mài)了房子,你都記錄了下面的細(xì)節(jié)——臥室數(shù)量、房屋大小、地段等等。但最重要的是,你寫(xiě)下了最終的成交價(jià):24機(jī)器學(xué)習(xí)學(xué)術(shù)報(bào)告5/8/20241牛刀小試-線性回歸
-這就是我們的訓(xùn)練數(shù)據(jù)。(為簡(jiǎn)化模型,只取一個(gè)特征)2104400160033024003691416232300054025機(jī)器學(xué)習(xí)學(xué)術(shù)報(bào)告5/8/20241牛刀小試-線性回歸使用這些訓(xùn)練數(shù)據(jù),我們要來(lái)編寫(xiě)一個(gè)能夠估算該地區(qū)其他房屋價(jià)值的程序:
我們希望使用這些訓(xùn)練數(shù)據(jù)來(lái)預(yù)測(cè)其他房屋的價(jià)格。這就是監(jiān)督式學(xué)習(xí)。你已經(jīng)知道了每一棟房屋的售價(jià),換句話說(shuō),你已經(jīng)知道了問(wèn)題的答案,并且可以反向找出解題的邏輯。2000???26機(jī)器學(xué)習(xí)學(xué)術(shù)報(bào)告5/8/20241牛刀小試-線性回歸為了編寫(xiě)你的軟件,你將包含每一套房產(chǎn)的訓(xùn)練數(shù)據(jù)輸入到你的機(jī)器學(xué)習(xí)算法當(dāng)中去。算法會(huì)嘗試找出需要做哪些數(shù)學(xué)運(yùn)算來(lái)得出價(jià)格。這就好像是你已經(jīng)知道了數(shù)學(xué)測(cè)試題的答案,但是算式中的運(yùn)算符號(hào)都被擦去了:27機(jī)器學(xué)習(xí)學(xué)術(shù)報(bào)告5/8/20241牛刀小試-線性回歸
在監(jiān)督式學(xué)習(xí)中,你讓計(jì)算機(jī)為你算出這種關(guān)系。而一旦你知道了解決這類(lèi)特定問(wèn)題所需要的數(shù)學(xué)方法后,你就可以解答其它同類(lèi)問(wèn)題了!28機(jī)器學(xué)習(xí)學(xué)術(shù)報(bào)告5/8/20241牛刀小試-線性回歸
回到房?jī)r(jià)預(yù)測(cè)問(wèn)題上:學(xué)習(xí)算法各參數(shù)隨機(jī)初始化時(shí),誤差通常是比較大的,變現(xiàn)為如圖:29機(jī)器學(xué)習(xí)學(xué)術(shù)報(bào)告5/8/20241牛刀小試-線性回歸這時(shí)就需要進(jìn)行性能增強(qiáng),通過(guò)找尋合適的代價(jià)函數(shù)并通過(guò)梯度下降等算法進(jìn)行優(yōu)化,預(yù)測(cè)函數(shù)曲線會(huì)越來(lái)越好:30機(jī)器學(xué)習(xí)學(xué)術(shù)報(bào)告5/8/20241牛刀小試-線性回歸經(jīng)過(guò)計(jì)算機(jī)訓(xùn)練,最終擬合出一條較合適的預(yù)測(cè)曲線:31機(jī)器學(xué)習(xí)學(xué)術(shù)報(bào)告5/8/20241牛刀小試-思考有了簡(jiǎn)單的回歸示例,讓我們來(lái)思考一下幾個(gè)問(wèn)題:1、代價(jià)函數(shù)是什么,有什么用。2、梯度下降算法原理。3、本例使用一次函數(shù)訓(xùn)練,若改為二次函數(shù),告辭函數(shù),結(jié)果如何(容量、過(guò)擬合、欠擬合問(wèn)題)。4、本例樣本較為充足,若樣本不易搜集怎么辦,怎樣高效利用小樣本來(lái)訓(xùn)練算法(小樣本學(xué)習(xí)問(wèn)題)。32機(jī)器學(xué)習(xí)學(xué)術(shù)報(bào)告5/8/20241思考-代價(jià)函數(shù)在線性回歸中我們有一個(gè)像這樣的訓(xùn)練集,m代表了訓(xùn)練樣本的數(shù)量,比如m=47。而我們的假設(shè)函數(shù),也就是用來(lái)進(jìn)行預(yù)測(cè)的函數(shù),是這樣的線性函數(shù)形式:接下來(lái)為型選擇合適的參數(shù)θ0和θ1,這兩個(gè)參數(shù)稱(chēng)為模型參數(shù)。在房?jī)r(jià)問(wèn)題這個(gè)例子中便是直線的斜率和在y軸上的截距。33機(jī)器學(xué)習(xí)學(xué)術(shù)報(bào)告5/8/20241思考-代價(jià)函數(shù)
我們選擇的參數(shù)決定了我們得到的直線相對(duì)于我們的訓(xùn)練集的準(zhǔn)確程度,模型所預(yù)測(cè)的值與訓(xùn)練集中實(shí)際值之間的差距(下圖中藍(lán)線所指)就是建模誤差。34機(jī)器學(xué)習(xí)學(xué)術(shù)報(bào)告5/8/20241思考-代價(jià)函數(shù)我們的目標(biāo)便是選擇出可以使得建模誤差的平方和能夠最小的模型參數(shù)。即使得代價(jià)函數(shù)最小。這個(gè)函數(shù)也叫費(fèi)用函數(shù)。35機(jī)器學(xué)習(xí)學(xué)術(shù)報(bào)告5/8/20241思考-代價(jià)函數(shù)
也就是意味著得出θ0和θ1這兩個(gè)參數(shù),使得假設(shè)函數(shù)表示的紅色直線盡量與下面的數(shù)據(jù)點(diǎn)很好的擬合:36機(jī)器學(xué)習(xí)學(xué)術(shù)報(bào)告5/8/2024f(x)=θ1x1+θ2x2+θ3
思考-梯度下降
我們希望能學(xué)習(xí)出一個(gè)函數(shù)f(x),使得f(x)能夠盡可能準(zhǔn)確地描述這些數(shù)據(jù),如果能求出這個(gè)f(x),那么任給一組數(shù)據(jù),就能預(yù)測(cè)出房?jī)r(jià)。
那么f(x)長(zhǎng)什么樣?它的形式需要我們來(lái)指定,算法只幫我們訓(xùn)練出其中的參數(shù)。為方便講解,我設(shè)f(x)為下面的形式,也就是一個(gè)線性的函數(shù)(一般來(lái)說(shuō),非線性的要比線性的函數(shù)的擬合能力要強(qiáng),這里暫不討論線性與非線性的問(wèn)題):37機(jī)器學(xué)習(xí)學(xué)術(shù)報(bào)告5/8/20241思考-梯度下降我們希望f(x)能夠盡可能準(zhǔn)確地描述訓(xùn)練集中的樣本,但畢竟是猜的,不可能百分百準(zhǔn)確,肯定或多或少會(huì)有誤差。于是對(duì)于一個(gè)訓(xùn)練集,總的誤差函數(shù)(參考代價(jià)函數(shù))可以定義如下:
其中分別表示第i個(gè)樣本和其對(duì)應(yīng)的值(房?jī)r(jià))。38機(jī)器學(xué)習(xí)學(xué)術(shù)報(bào)告5/8/20241思考-梯度下降
現(xiàn)在的目標(biāo)是,找到最優(yōu)參數(shù)(θ1,θ2,θ3),使得函
數(shù)
L(θ)
取得最小值。因?yàn)閾p失最小,代表模擬出的函數(shù)
f(x)
越準(zhǔn)確。
我們先隨機(jī)取一個(gè)參數(shù)值(θ1,θ2,θ3),然后沿著負(fù)梯度的方向調(diào)整參數(shù)(注意在費(fèi)用函數(shù)中,自變量是參數(shù),而不是X,X是已知的樣本數(shù)據(jù)),就可以使我們的損失函數(shù)下降得最快,直到無(wú)法再降,就是最小值,那時(shí)候的參數(shù),就是我們要的參數(shù)。39機(jī)器學(xué)習(xí)學(xué)術(shù)報(bào)告5/8/20241思考-梯度下降梯度所指的方向就是函數(shù)增長(zhǎng)最快的方向(負(fù)梯度則指向函數(shù)下降最快的方向),故對(duì)參數(shù)(θ1,θ2,θ3)
求偏導(dǎo)為:40機(jī)器學(xué)習(xí)學(xué)術(shù)報(bào)告5/8/20241思考-梯度下降我們先隨機(jī)取一組參數(shù)值,接下來(lái)讓參數(shù)沿著負(fù)梯度方向走,也就是每個(gè)分量沿著對(duì)應(yīng)的梯度反方向的分量走,因此參數(shù)在每次迭代的更新規(guī)則如下:
η是學(xué)習(xí)率,一般取值為0到1之間,它可以控制參數(shù)每步調(diào)整的大小,太大的話,有可能走到臨近極佳點(diǎn)時(shí),下一步就跨過(guò)去了,這樣就不收斂了,走得太慢的話,會(huì)迭代很多次才收斂。41機(jī)器學(xué)習(xí)學(xué)術(shù)報(bào)告5/8/20241思考-梯度下降ps:網(wǎng)上總是說(shuō),大部分人做機(jī)器學(xué)習(xí),都是調(diào)參工程師,說(shuō)的一個(gè)參,就是這個(gè)η(超參數(shù))
此處有視頻42機(jī)器學(xué)習(xí)學(xué)術(shù)報(bào)告5/8/20241思考-容量、過(guò)擬合、欠擬合
機(jī)器學(xué)習(xí)的主要挑戰(zhàn)是我們的算法必須能夠在先前未觀測(cè)的新輸入上表現(xiàn)良好,而不只是在訓(xùn)練集上表現(xiàn)良好。在先前未觀測(cè)到的輸入上表現(xiàn)良好的能力被稱(chēng)為泛化。
通常情況下,當(dāng)我們訓(xùn)練機(jī)器學(xué)習(xí)模型時(shí),我們可以使用某個(gè)訓(xùn)練集,在訓(xùn)練集上計(jì)算一些被稱(chēng)為訓(xùn)練誤差的度量誤差,目標(biāo)是降低訓(xùn)練誤差。
機(jī)器學(xué)習(xí)和優(yōu)化不同的地方在于,我們也希望泛化誤差也被稱(chēng)為測(cè)試誤差很低。
43機(jī)器學(xué)習(xí)學(xué)術(shù)報(bào)告5/8/20241思考-容量、過(guò)擬合、欠擬合當(dāng)我們只能觀測(cè)到訓(xùn)練集時(shí),我們?nèi)绾尾拍苡绊憸y(cè)試集的性能呢?在樣本數(shù)據(jù)獨(dú)立同分布(iid)的假設(shè)下,我們采樣得到訓(xùn)練集,然后挑選參數(shù)去降低訓(xùn)練集誤差,然后采樣得到測(cè)試集。在這個(gè)過(guò)程中,測(cè)試誤差期望會(huì)大于或等于訓(xùn)練誤差期望。以下是決定機(jī)器學(xué)習(xí)算法效果是否好的因素:
1.降低訓(xùn)練誤差。
2.縮小訓(xùn)練誤差和測(cè)試誤差的差距。
這兩個(gè)因素對(duì)應(yīng)機(jī)器學(xué)習(xí)的兩個(gè)主要挑戰(zhàn):欠擬合和過(guò)擬合。欠擬合是指模型不能在訓(xùn)練集上獲得足夠低的誤差。而過(guò)擬合是指訓(xùn)練誤差和和測(cè)試誤差之間的差距太大。
44機(jī)器學(xué)習(xí)學(xué)術(shù)報(bào)告5/8/20241思考-容量、過(guò)擬合、欠擬合通過(guò)調(diào)整模型的容量,我們可以控制模型是否偏向于過(guò)擬合或者欠擬合。通俗地,模型的容量是指其擬合各種函數(shù)的能力。容量低的模型可能很難擬合訓(xùn)練集。容量高的模型可能會(huì)過(guò)擬合,因?yàn)橛涀×瞬贿m用于測(cè)試集的訓(xùn)練集性質(zhì)。一種控制訓(xùn)練算法容量的方法是選擇假設(shè)空間,即學(xué)習(xí)算法可以選擇為解決方案的函數(shù)集。例如,線性回歸算法將關(guān)于其輸入的所有線性函數(shù)作為假設(shè)空間。廣義線性回歸的假設(shè)空間包括多項(xiàng)式函數(shù),而非僅有線性函數(shù)。這樣做就增加了模型的容量。
45機(jī)器學(xué)習(xí)學(xué)術(shù)報(bào)告5/8/20241思考-容量、過(guò)擬合、欠擬合
一次多項(xiàng)式提供了我們已經(jīng)熟悉的線性回歸模型,其預(yù)測(cè)如下:
通過(guò)引入
作為線性回歸模型的另一個(gè)特征,我們能夠?qū)W習(xí)關(guān)于
的二次函數(shù)模型:
9次多項(xiàng)式:
46機(jī)器學(xué)習(xí)學(xué)術(shù)報(bào)告5/8/20241思考-容量、過(guò)擬合、欠擬合容量高的模型能夠解決復(fù)雜的任務(wù),但是當(dāng)其容量高于任務(wù)所需時(shí),有可能會(huì)過(guò)擬合。
我們比較了一次,二次和9次預(yù)測(cè)器擬合真實(shí)二次函數(shù)的效果。一次函數(shù)無(wú)法刻畫(huà)真實(shí)函數(shù)的曲率,所以欠擬合。9次函數(shù)能夠表示正確的函數(shù),但是因?yàn)橛?xùn)練參數(shù)比訓(xùn)練樣本還多,所以它也能夠表示無(wú)限多個(gè)剛好穿越訓(xùn)練樣本點(diǎn)的很多其他函數(shù)。二次模型非常符合任務(wù)的真實(shí)結(jié)構(gòu),因此它可以很好地泛化到新數(shù)據(jù)上。(見(jiàn)下圖)
47機(jī)器學(xué)習(xí)學(xué)術(shù)報(bào)告5/8/20241思考-容量、過(guò)擬合、欠擬合二次函數(shù)的擬合情況:擬合函數(shù):一次二次9次48機(jī)器學(xué)習(xí)學(xué)術(shù)報(bào)告5/8/20241思考-容量、過(guò)擬合、欠擬合對(duì)于一般情況,在圖的左端,訓(xùn)練誤差和泛化誤差都非常高。這是欠擬合(underfitting)機(jī)制。當(dāng)我們?cè)黾尤萘繒r(shí),訓(xùn)練誤差減小,但是訓(xùn)練誤差和泛化誤差之間的間距卻不斷擴(kuò)大。最終,這個(gè)間距的大小超過(guò)了訓(xùn)練誤差的下降,我們進(jìn)入到了過(guò)擬合(overfitting)機(jī)制,其中容量過(guò)大,超過(guò)了最佳容量(optimalcapacity)。
49機(jī)器學(xué)習(xí)學(xué)術(shù)報(bào)告5/8/20241思考-小樣本學(xué)習(xí)將數(shù)據(jù)集分成固定的訓(xùn)練集和固定的測(cè)試集后,若測(cè)試集的誤差很小,這將是有問(wèn)題的。一個(gè)小規(guī)模的測(cè)試集意味著平均測(cè)試誤差估計(jì)的統(tǒng)計(jì)不確定性,使得很難判斷算法A是否比算法B在給定的任務(wù)上做得更好。
當(dāng)數(shù)據(jù)集有十萬(wàn)計(jì)或者更多的樣本時(shí),這不會(huì)是一個(gè)嚴(yán)重的問(wèn)題。當(dāng)數(shù)據(jù)集太小時(shí),也有替代方法允許我們使用所有的樣本估計(jì)平均測(cè)試誤差,代價(jià)是增加了計(jì)算量。
50機(jī)器學(xué)習(xí)學(xué)術(shù)報(bào)告5/8/20241思考-小樣本學(xué)習(xí)這些過(guò)程是基于在原始數(shù)據(jù)上隨機(jī)采樣或分離出的不同數(shù)據(jù)集上重復(fù)訓(xùn)練和測(cè)試的想法。常見(jiàn)的有兩種方法:1、簡(jiǎn)單交叉驗(yàn)證(simplecrossvalidation)2、k-折交叉驗(yàn)證(k-foldcrossvalidation)
51機(jī)器學(xué)習(xí)學(xué)術(shù)報(bào)告5/8/20241交叉驗(yàn)證簡(jiǎn)單交叉驗(yàn)證:最簡(jiǎn)單,將數(shù)據(jù)集隨機(jī)分成兩部分,一部分作為訓(xùn)練集,一部分作為驗(yàn)證集,由于分法不同,驗(yàn)證集上的結(jié)果也會(huì)有差異。本質(zhì)上不能稱(chēng)為交叉驗(yàn)證,因?yàn)闆](méi)有涉及數(shù)據(jù)的交叉使用,只劃分了一次。驗(yàn)證集測(cè)試集
一般情況下,驗(yàn)證集取數(shù)據(jù)集的70%,測(cè)試集取30%。52機(jī)器學(xué)習(xí)學(xué)術(shù)報(bào)告5/8/20241交叉驗(yàn)證k-折交叉驗(yàn)證將樣本集隨機(jī)劃分為k份,k-1份作為訓(xùn)練集,1份作為驗(yàn)證集,依次輪換訓(xùn)練集和驗(yàn)證集k次,驗(yàn)證誤差最小的模型為所求模型。具體方法如下:
1.隨機(jī)將樣本集S劃分成k個(gè)不相交的子集,每個(gè)子集中樣本數(shù)量為m/k個(gè),這些子集分別記作
:K-
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 數(shù)電課程設(shè)計(jì)74191
- 流體畫(huà)課程設(shè)計(jì)
- 綠植主題課程設(shè)計(jì)
- 空調(diào)自控系統(tǒng)課程設(shè)計(jì)
- 水泥生產(chǎn)的課程設(shè)計(jì)
- 施工降水施工方案
- 歐姆定律課程設(shè)計(jì)
- 防護(hù)套注塑模課程設(shè)計(jì)
- 養(yǎng)生館會(huì)員協(xié)議書(shū)
- 智能驅(qū)動(dòng)下的汽車(chē)物流革新
- 漿砌片石護(hù)坡技術(shù)交底大全
- PCN變更申請(qǐng)單
- 鋁合金門(mén)窗作業(yè)規(guī)程
- 《河流》第1課時(shí)“以外流河為主”教學(xué)設(shè)計(jì)
- 鐵塔組立施工作業(yè)指導(dǎo)書(shū)抱桿計(jì)算
- 吊裝方案臥式罐740741
- 佳能eos-kiss-說(shuō)明書(shū)
- 反滲透水處理設(shè)備國(guó)家標(biāo)準(zhǔn)文件.doc
- 科技輔導(dǎo)員結(jié)構(gòu)化面試
- 酒店業(yè)廚房滅“四害”計(jì)劃及記錄表
- 中國(guó)34座省會(huì)等城市坐標(biāo)(經(jīng)緯坐標(biāo)、實(shí)際距離坐標(biāo))
評(píng)論
0/150
提交評(píng)論