10種機器學習算法的要點_第1頁
10種機器學習算法的要點_第2頁
10種機器學習算法的要點_第3頁
10種機器學習算法的要點_第4頁
10種機器學習算法的要點_第5頁
免費預覽已結束,剩余15頁可下載查看

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領

文檔簡介

1、廣義來說,有三種機器學習算法1、監(jiān)督式學習工作機制:這個算法由一個目標變量或結果變量(或因變量)組成。這些變量由已知的一系列預示變量(自變量)預測而來。利用這一系列變量,我們生成一個將輸入值映射到期望輸出值的函數。這個訓練過程會一直持續(xù),直到模型在訓練數據上獲得期望的精確度。監(jiān)督式學習的例子有:回歸、決策樹、隨機森林、K-近鄰算法、邏輯回歸等。2、非監(jiān)督式學習工作機制:在這個算法中,沒有任何目標變量或結果變量要預測或估計。這個算法用在不同的組內聚類分析。這種分析方式被廣泛地用來細分客戶,根據干預的方式分為不同的用戶組。非監(jiān)督式學習的例子有:關聯算法和K-均值算法。3、強化學習工作機制:這個算法

2、訓練機器進行決策。它是這樣工作的:機器被放在一個能讓它通過反復試錯來訓練自己的環(huán)境中。機器從過去的經驗中進行學習,并且嘗試利用了解最透徹的知識作出精確的商業(yè)判斷。強化學習的例子有馬爾可夫決策過程。常見機器學習算法名單這里是一個常用的機器學習算法名單。這些算法幾乎可以用在所有的數據問題上:1 .線性回歸2 .邏輯回歸3 .決策樹4 .SVM5 .樸素貝葉斯6 .K最近鄰算法7 .K均值算法8 .隨機森林算法9 .降維算法10 .GradientBoost和Adaboost算法1、線性回歸線性回歸通常用于根據連續(xù)變量估計實際數值(房價、呼叫次數、總銷售額等)。我們通過擬合最佳直線來建立自變量和因變

3、量的關系。這條最佳直線叫做回歸線,并且用Y=a*X+b這條線性等式來表示。理解線性回歸的最好辦法是回顧一下童年。假設在不問對方體重的情況下,讓一個五年級的孩子按體重從輕到重的順序對班上的同學排序,你覺得這個孩子會怎么做?他(她)很可能會目測人們的身高和體型,綜合這些可見的參數來排列他們。這是現實生活中使用線性回歸的例子。實際上,這個孩子發(fā)現了身高和體型與體重有一定的關系,這個關系看起來很像上面的等式。在這個等式中: Y:因變量 a:斜率 x:自變量 b:截距系數a和b可以通過最小二乘法獲得。參見下例。我們找出最佳擬合直線y=0.2811x+13.9。已知人的身高,我們可以通過這條等式求出體重。

4、一眼1050505050877665544RdatianB/wWeight&Heighty-0.2811k+L3,»R2=0.4218Height(crn|O線性回歸的兩種主要類型是一元線性回歸和多元線性回歸。一元線性回歸的特點是只有一個自變量。多元線性回歸的特點正如其名,存在多個自變量。找最佳擬合直線的時候,你可以擬合到多項或者曲線回歸。這些就被叫做多項或曲線回歸。Python代碼1 #ImportLibrary2 #Importothernecessarylibrarieslikepandas,numpy.3 fromsklearnimportlinear_model45

5、 #LoadTrainandTestdatasets6 #Identifyfeatureandresponsevariable(s)andvaluesmustbenumeric7 andnumpyarrays8 x_train=input_variables_values_training_datasets9 y_train=target_variables_values_training_datasets10x_test=input_variables_values_test_datasets1112#Createlinearregressionobject13linear=linear_m

6、odel.LinearRegression()1415#Trainthemodelusingthetrainingsetsandcheckscore16linear.fit(x_train,y_train)17linear.score(x_train,y_train)1819#EquationcoefficientandIntercept20print('Coefficient:n',linear.coef_)21print('Intercept:n',ercept_)2223#PredictOutputpredicted=linear.pr

7、edict(x_test)R代碼1234567#LoadTrainandTestdatasets#Identifyfeatureandresponsevariable(s)andvaluesmustbenumericandnumpyarraysx_train<-input_variables_values_training_datasetsy_train<-target_variables_values_training_datasetsx_test<-input_variables_values_test_datasets891011x<-cbind(x_train,

8、y_train)1213#Trainthemodelusingthetrainingsetsandcheckscorelinear<-lm(y_train.,data=x)summary(linear)#PredictOutputpredicted=predict(linear,x_test)2、邏輯回歸別被它的名字迷惑了!這是一個分類算法而不是一個回歸算法。該算法可根據已知的一系列因變量估計離散數值(比方說二進制數值0或1,是或否,真或假)簡單來說,它通過將數據擬合進一個邏輯函數來預估一個事件出現的概率。因此,它也被叫做邏輯回歸。因為它預估的是概率,所以它的輸出值大小在0和1之問(正如

9、所預計的一樣)。讓我們再次通過一個簡單的例子來理解這個算法。假設你的朋友讓你解開一個謎題。這只會有兩個結果:你解開了或是你沒有解開。想象你要解答很多道題來找出你所擅長的主題。這個研究的結果就會像是這樣:假設題目是一道十年級的三角函數題,你有70%的可能會解開這道題。然而,若題目是個五年級的歷史題,你只有30%勺可能性回答正確。這就是邏輯回歸能提供給你的信息。從數學上看,在結果中,幾率的對數使用的是預測變量的線性組合模型。10dds=p/(1-p)=probabilityofeventoccurrence/probabilityofnot_eventoccurrence31n(odds)=ln(

10、p/(1-p)3logit(p)=ln(p/(1-p)=b0+b1X1+b2X2+b3X3.+bkXk在上面的式子里,p是我們感興趣的特征出現的概率。它選用使觀察樣本值的可能性最大化的值作為參數,而不是通過計算誤差平方和的最小值(就如一般的回歸分析用到的一樣)?,F在你也許要問了,為什么我們要求出對數呢?簡而言之,這種方法是復制一個階梯函數的最佳方法之一。我本可以更詳細地講述,但那就違背本篇指南的主旨了。IO0246810Ei二g£Python代碼123456#ImportLibraryfromsklearn.linear_modelimportLogisticRegression#A

11、ssumedyouhave,X(predictor)andY(target)fortrainingdatasetandx_test(predictor)oftest_dataset# Createlogisticregressionobject78910model=LogisticRegression()# Trainthemodelusingthetrainingsetsandcheckscoremodel.fit(X,y)model.score(X,y)11“12#EquationcoefficientandIntercept13print('Coefficient:n',

12、model.coef_)14print('Intercept:n',ercept_)15八16#PredictOutputpredicted=model.predict(x_test)R代碼1x<-cbind(x_train,y_train)2#Trainthemodelusingthetrainingsetsandcheckscore3logistic<-glm(y_train.,data=x,family='binomial')4summary(logistic)56#PredictOutput7predicted=predic

13、t(logistic,x_test)更進一步:你可以嘗試更多的方法來改進這個模型: 加入交互項 精簡模型特性 使用正則化方法 使用非線性模型3、決策樹白unn:|Play1PlayHUMIDITY?/、<=70/51r1Don'tPlay3115/8jPlay131Don'tPlay9JOUTLOOK?,overcastrain*、"IPlay4Ij刊.bl1DoniPlay1Pl,2J4乃WINDV?>70TRUE/FALSE、/、Play111Play01Play3Don'tBld/:S11Don'tPlay£Don'

14、tPtny03/4score;2/23/3Dependentvariable;PLAY這是我最喜愛也是最頻繁使用的算法之一。這個監(jiān)督式學習算法通常被用于分類問題。令人驚奇的是,它同時適用于分類變量和連續(xù)因變量。在這個算法中,我們將總體分成兩個或更多的同類群。這是根據最重要的屬性或者自變量來分成盡可能不同的組別。想要知道更多,可以閱讀:簡化決策樹。來源:statsexchange在上圖中你可以看到,根據多種屬性,人群被分成了不同的四個小組,來判斷“他們會不會去玩”。為了把總體分成不同組別,需要用到許多技術,比如說Gini、InformationGain、Chi-square、entropy。理解

15、決策樹工作機制的最好方式是玩Jezzball,一個微軟的經典游戲(見下圖)。這個游戲的最終目的,是在一個可以移動墻壁的房間里,通過造墻來分割出沒有小球的、盡量大的空間。3456789101112131415#PredictOutput因此,每一次你用墻壁來分隔房間時,都是在嘗試著在同一間房里創(chuàng)建兩個不同的總體。相似地,決策樹也在把總體盡量分割到不同的組里去。更多信息請見:決策樹算法的簡化Python代碼#ImportLibrary1 #Importothernecessarylibrarieslikepandas,numpy.2 fromsklearnimporttree#Assumedyou

16、have,X(predictor)andY(target)fortrainingdatasetandx_test(predictor)oftest_dataset# Createtreeobjectmodel=tree.DecisionTreeClassifier(criterion='gini')#forclassification,hereyoucanchangethealgorithmasginiorentropy(informationgain)bydefaultitisgini# model=tree.DecisionTreeRegressor()forregress

17、ion# Trainthemodelusingthetrainingsetsandcheckscoremodel.fit(X,y)model.score(X,y)predicted=model.predict(x_test)R代碼llibrary(rpart)2x<-cblnd(x_traln,y_traln)34#growtree5flt<-rpart(y_train.,data=x,method="class")6summary(fit)78#PredIctOutput9predicted=predict(fit,x_test)4、支持向量機這是一種分類方法

18、。在這個算法中,我們將每個數據在N維空間中用點標出(N是你所有的特征總數),每個特征的值是一個坐標的值。舉個例子,如果我們只有身高和頭發(fā)長度兩個特征,我們會在二維空間中標出這兩個變量,每個點有兩個坐標(這些坐標叫做支持向量)。SOHeightms)19020C現在,我們會找到將兩組不同數據分開的一條直線。兩個分組中距離最近的兩個點到這條線的距離同時最優(yōu)化。皿券曲4D如上>"一上面示例中的黑線將數據分類優(yōu)化成兩個小組,兩組中距離最近的點(圖中A、B點)到達黑線的距離滿足最優(yōu)條件。這條直線就是我們的分割線。接下來,測試數據落到直線的哪一邊,我們就將它分到哪

19、一類去。更多請見:支持向量機的簡化將這個算法想作是在一個N維空間玩JezzBall。需要對游戲做一些小變動: 比起之前只能在水平方向或者豎直方向畫直線,現在你可以在任意角度畫線或平面。 游戲的目的變成把不同顏色的球分割在不同的空間里。 球的位置不會改變。Python代碼#ImportLibrary1 fromsklearnimportsvm23 #Assumedyouhave,X(predic4 tor)andY(target)fortrainingdatasetandx_test(predictor)of5 test_dataset6 #CreateSVMclassificationobje

20、ct7 model=svm.svc()#thereisvariousoptionassociatedwithit,this8 issimpleforclassification.Youcanreferlink,formo#redetail.9 #Trainthemodelusingthetrainingsetsandcheckscore10model.fit(X,y)11model.score(X,y)1213#PredictOutputpredicted=model.predict(xtest)R代碼1library(e1071)2x<-cbind(x_train,y_train)34

21、#Fittingmodel5fit<-svm(y_train.,data=x)6summary(fit)78#PredictOutput9predicted=predict(fit,x_test)5、樸素貝葉斯在預示變量間相互獨立的前提下,根據貝葉斯定理可以得到樸素貝葉斯這個分類方法。用更簡單的話來說,一個樸素貝葉斯分類器假設一個分類的特性與該分類的其它特性不相關。舉個例子,如果一個水果又圓又紅并且直徑大約是3英寸,那么這個水果可能會是蘋果。即使這些特性互相依賴或者依賴于別的特性的存在,樸素貝葉斯分類器還是會假設這些特性分別獨立地暗示這個水果是個蘋果。樸素貝葉斯模型易于建造,且對于大型數

22、據集非常有用。雖然簡單,但是樸素貝葉斯的表現卻超越了非常復雜的分類方法。貝葉斯定理提供了一種從P(c)、P(x)和P(x|c)計算后驗概率P(c|x)的方法。請看以下等式:CtelbPrwftf9值6*>flitviihood巴uX)尸Gil號七代叼|嘮-p(,同MEd)在這里, P(c|x)是已知預示變量(屬性)的前提下,類(目標)的后驗概率 P(c)是類的先驗概率 P(x|c)是可能性,即已知類的前提下,預示變量的概率 P(x)是預示變量的先驗概率例子:讓我們用一個例子來理解這個概念。在下面,我有一個天氣的訓練集和對應的目標變量“Play”?,F在,我們需要根據天氣情況,將會“玩”和“

23、不玩”的參與者進行分類。讓我們執(zhí)行以下步驟。步驟1:把數據集轉換成頻率表。步驟2:利用類似“當Overcast可能性為0.29時,玩耍的可能性為0.64”這樣的概率,創(chuàng)造Likelihood表格。PkY我”,ND心口3:E*怛Sunny江&TfesNORiinyNo!5unnyRainyN-。“包口啜T/es.HaEny7-Hcqmtncy1ablcAea'h&rMOfeeaAitJnr32Suriri'y23Gr.Iotdl5今電日rcv&ncs?*4-1/21匚49Fiinyi2-5/11C.35Sun23=5/IdCJOMl$9值知m加DM步驟3:

24、現在,使用樸素貝葉斯等式來計算每一類的后驗概率。后驗概率最大的類就是預測的結果。問題:如果天氣晴朗,參與者就能玩耍。這個陳述正確嗎?我們可以使用討論過的方法解決這個問題。于是P(會玩|晴朗)=P(晴朗|會玩)*P(會玩)/P(晴朗)我們有P(晴朗|會玩)=3/9=0.33,P(晴朗)=5/14=0.36,P(會玩)=9/14=0.64現在,P(會玩|晴朗)=0.33*0.64/0.36=0.60,有更大的概率。樸素貝葉斯使用了一個相似的方法,通過不同屬性來預測不同類別的概率。這個算法通常被用于文本分類,以及涉及到多個類的問題。Python代碼1 #ImportLibrary2 fromskle

25、arn.naive_bayesimportGaussianNB34 #Assumedyouhave,X(predictor)andY(target)fortrainingdataset5 andx_test(predictor)oftest_dataset6 #CreateSVM:lassificationobjectmodel=GaussianNB()#thereisother7 distributionformultinomialclasseslikeBernoulliNaiveBayes,Refer8link9#Trainthemodelusingthetrainingsetsandch

26、eckscore10model.fit(X,y)#PredictOutputpredicted=model.predict(x_test)R代碼1library(e1071)2x<-cbind(x_train,y_train)34#Fittingmodel5fit<-naiveBayes(y_train.,data=x)6summary(fit)78#PredictOutput9predicted=predict(fit,x_test)6、KNN(K-最近鄰算法)該算法可用于分類問題和回歸問題。然而,在業(yè)界內,K-最近鄰算法更常用于分類問題。K-最近鄰算法是一個簡單的算法。它儲存所

27、有的案例,通過周圍k個案例中的大多數情況劃分新的案例。根據一個距離函數,新案例會被分配到它的K個近鄰中最普遍的類別中去。這些距離函數可以是歐式距離、曼哈頓距離、明式距離或者是漢明距離。前三個距離函數用于連續(xù)函數,第四個函數(漢明函數)則被用于分類變量。如果K=1,新案例就直接被分到離其最近的案例所屬的類別中。有時候,使用KNN建模時,選擇K的取值是一個挑戰(zhàn)。更多信息:K-最近鄰算法入門(簡化版)'3/3B陰X我們可以很容易地在現實生活中應用到KNN如果想要了解一個完全陌生的人,你也許想要去找他的好朋友們或者他的圈子來獲得他的信息。在選擇使用KNN之前,你需要考慮的事情: KNN的計算成

28、本很高。 變量應該先標準化(normalized),不然會被更高范圍的變量偏倚。 在使用KN也前,要在野值去除和噪音去除等前期處理多花功夫。Python代碼#ImportLibrary1fromsklearn.neighborsimportKNeighborsClassifier23 #Assumedyouhave,X(predictor)andY(target)fortrainingdataset4 andx_test(predictor)oftest_dataset5 #CreateKNeighborsclassifierobjectmodel6 KNeighborsClassifier(

29、n_neighbors=6)#defaultvalueforn_neighborsis7589 #Trainthemodelusingthetrainingsetsandcheckscore10model.fit(X,y)1112#PredictOutputpredicted=model.predict(x_test)2x<-cbind(x_train,y_train)34#Fittingmodel5fit<-knn(y_train.,data=x,k=5)6summary(fit)78#PredictOutput9predicted=predict(fit,x_test)7、K均

30、值算法K-均值算法是一種非監(jiān)督式學習算法,它能解決聚類問題。使用K-均值算法來將一個數據歸入一定數量的集群(假設有k個集群)的過程是簡單的。一個集群內的數據點是均勻齊次的,并且異于別的集群。還記得從墨水漬里找出形狀的活動嗎?K-均值算法在某方面類似于這個活動觀察形狀,并延伸想象來找出到底有多少種集群或者總體。K-均值算法怎樣形成集群:1 .K-均值算法給每個集群選擇k個點。這些點稱作為質心。2 .每一個數據點與距離最近的質心形成一個集群,也就是k個集群。3 .根據現有的類別成員,找出每個類別的質心?,F在我們有了新質心。4 .當我們有新質心后,重復步驟2和步驟3。找到距離每個數據點最近的質心,并

31、與新的k集群聯系起來。重復這個過程,直到數據都收斂了,也就是當質心不再改變。如何決定K值:K-均值算法涉及到集群,每個集群有自己的質心。一個集群內的質心和各數據點之間距離的平方和形成了這個集群的平方值之和。同時,當所有集群的平方值之和加起來的時候,就組成了集群方案的平方值之和。我們知道,當集群的數量增加時,K值會持續(xù)下降。但是,如果你將結果用圖表來表示,你會看到距離的平方總和快速減少。到某個值k之后,減少的速度就大大下降了。在此,我們可以找到集群數量的最優(yōu)值。Python代碼3456789101 #ImportLibrary2 fromsklearn.clusterimportKMeans#A

32、ssumedyouhave,X(attributes)fortrainingdatasetandx_test(attributes)oftest_dataset# CreateKNeighborsclassifierobjectmodelk_means=KMeans(n_clusters=3,random_state=0)# Trainthemodelusingthetrainingsetsandcheckscoremodel.fit(X)11.一.12#PredictOutputpredicted=model.predict(x_test)2fit<-kmeans(X,3)#5clus

33、tersolution8、隨機森林隨機森林是表示決策樹總體的一個專有名詞。在隨機森林算法中,我們有一系列的決策樹(因此又名“森林”)。為了根據一個新對象的屬性將其分類,每一個決策樹有一個分類,稱之為這個決策樹“投票”給該分類。這個森林選擇獲得森林里(在所有樹中)獲得票數最多的分類。每棵樹是像這樣種植養(yǎng)成的:1 .如果訓練集的案例數是N,則從N個案例中用重置抽樣法隨機抽取樣本。這個樣本將作為“養(yǎng)育”樹的訓練集。2 .假如有M個輸入變量,則定義一個數字m<<Mm表示,從M中隨機選中m個變量,這m個變量中最好的切分會被用來切分該節(jié)點。在種植森林的過程中,m的值保持不變。3 .盡可能大地種

34、植每一棵樹,全程不剪枝。若想了解這個算法的更多細節(jié),比較決策樹以及優(yōu)化模型參數,我建議你閱讀以下文章:1 .隨機森林入門一簡化版2 .將CART模型與隨機森林比較(上)3 .將隨機森林與CART模型比較(下)4 .調整你的隨機森林模型參數Python123456789#ImportLibraryfromsklearn.ensembleimportRandomForestClassifier#Assumedyouhave,X(predictor)andY(target)fortrainingdatasetandx_test(predictor)oftest_dataset# CreateRand

35、omForestobjectmodel=RandomForestClassifier。# Trainthemodelusingthetrainingsetsandcheckscore1Omodel.fit(X,y)11八12#PredictOutputpredicted=model.predict(x_test)1library(randomForest)2x<-cbind(x_train,y_train)34#Fittingmodel5fit<-randomForest(Species.,x,ntree=500)6summary(fit)78#PredictOutput9pred

36、icted=predict(fit,x_test)9、降維算法在過去的4到5年里,在每一個可能的階段,信息捕捉都呈指數增長。公司、政府機構、研究組織在應對著新資源以外,還捕捉詳盡的信息。舉個例子:電子商務公司更詳細地捕捉關于顧客的資料:個人信息、網絡瀏覽記錄、他們的喜惡、購買記錄、反饋以及別的許多信息,比你身邊的雜貨店售貨員更加關注你。作為一個數據科學家,我們提供的數據包含許多特點。這聽起來給建立一個經得起考研的模型提供了很好材料,但有一個挑戰(zhàn):如何從1000或者2000里分辨出最重要的變量呢?在這種情況下,降維算法和別的一些算法(比如決策樹、隨機森林、PCA因子分析)幫助我們根據相關矩陣,缺

37、失的值的比例和別的要素來找出這些重要變量。想要知道更多關于該算法的信息,可以閱讀降維算法的初學者指南。Python代碼#ImportLibrary345678910fromsklearnimportdecomposition#Assumedyouhavetrainingandtestdatasetastrainandtest# CreatePCAobejectpca=decomposition.PCA(n_components=k)#defaultvalueofk=min(n_sample,n_features)# ForFactoranalysis# fa=decomposition.FactorAnalysis()# ReducedthedimensionoftrainingdatasetusingPCA11121314#Formoredetailonthis,pleasereferthislink.train_reduced=pca.fit_transform(train)#Reducedthedimensionoftestdatasettest_reduced=pca

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經權益所有人同意不得將文件中的內容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網僅提供信息存儲空間,僅對用戶上傳內容的表現方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
  • 6. 下載文件中如有侵權或不適當內容,請與我們聯系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論