版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
要買現(xiàn)定門的&廳需親呼些礪可月性阡但 B虧亙,sinniK^^wii?Lz0 特征使用方至去運(yùn)要買現(xiàn)定門的&廳需親呼些礪可月性阡但 B虧亙,sinniK^^wii?Lz0 特征使用方至去運(yùn)穹三常年大-H=六三二住日--黃呈口逐代;=卻征子族.跖1特征工程是什么?有這么一句話在業(yè)界廣泛流傳:數(shù)據(jù)和特征決定了機(jī)器學(xué)習(xí)的上限,而模型和算法只是逼近這個(gè)上限而已。那特征工程到底是什么呢?顧名思義,其本質(zhì)是一項(xiàng)工程活動(dòng),目的是最大限度地從原始數(shù)據(jù)中提取特征以供算法和模型使用。通過總結(jié)和歸納,人們認(rèn)為特征工程包括以下方面:7號(hào)于隈君五.六所得找口對(duì)三土里育鼠后工斯有巨注c三附?L2一RidoeA?F文—矣.善愛弟特征處理是特征工程的核心部分,sklearn提供了較為完整的特征處理方法,包括數(shù)據(jù)預(yù)處理,特征選擇,降維等。首次接觸到sklearn,通常會(huì)被其豐富且方便的算法模型庫(kù)吸引,但是這里介紹的特征處理庫(kù)也十分強(qiáng)大!本文中使用sklearn中的IRIS(文尾花)數(shù)據(jù)集來對(duì)特征處理功能進(jìn)行說明。IRIS數(shù)據(jù)集由Fisher在1936年整理,包含4個(gè)特征(Sepal.Length(花萼長(zhǎng)度)、Sepal.Width(花萼寬度)、Petal.Length(花瓣長(zhǎng)度)、Petal.Width(花瓣寬度)),特征值都為正浮點(diǎn)數(shù),單位為厘米。目標(biāo)值為鳶尾花的分類(IrisSetosa(山鳶尾)、IrisVersicolour(雜色鳶尾),IrisVirginica(維吉尼亞鳶尾))。導(dǎo)入IRIS數(shù)據(jù)集的代碼如下:電導(dǎo)入數(shù)據(jù)集特征矩陣目標(biāo)向量2數(shù)據(jù)預(yù)處理通過特征提取,我們能得到未經(jīng)處理的特征,這時(shí)的特征可能有以下問題:不屬于同一量綱:即特征的規(guī)格不一樣,不能夠放在一起比較。無量綱化可以解決這一問題。信息冗余:對(duì)于某些定量特征,其包含的有效信息為區(qū)間劃分,例如學(xué)習(xí)成績(jī),假若只關(guān)心及格或不及格,那么需要將定量的考分,轉(zhuǎn)換成1和0表示及格和未及格。二值化可以解決這一問題。定性特征不能直接使用:某些機(jī)器學(xué)習(xí)算法和模型只能接受定量特征的輸入,那么需要將定性特征轉(zhuǎn)換為定量特征。最簡(jiǎn)單的方式是為每一種定性值指定一個(gè)定量值,但是這種方式過于靈活,增加了調(diào)參的工作。通常使用啞編碼的方式將定性特征轉(zhuǎn)換為定量特征:假設(shè)有N種定性值,則將這一個(gè)特征擴(kuò)展為N種特征,當(dāng)原始特征值為第i種定性值時(shí),第i個(gè)擴(kuò)展特征賦值為1,其他擴(kuò)展特征賦值為0。啞編碼的方式相比直接指定的方式,不用增加調(diào)參的工作,對(duì)于線性模型來說,使用啞編碼后的特征可達(dá)到非線性的效果。存在缺失值:缺失值需要補(bǔ)充。信息利用率低:不同的機(jī)器學(xué)習(xí)算法和模型對(duì)數(shù)據(jù)中信息的利用是不同的,之前提到在線性模型中,使用對(duì)定性特征啞編碼可以達(dá)到非線性的效果。類似地,對(duì)定量變量多項(xiàng)式化,或者進(jìn)行其他的轉(zhuǎn)換,都能達(dá)到非線性的效果。我們使用sklearn中的preproccessing庫(kù)來進(jìn)行數(shù)據(jù)預(yù)處理,可以覆蓋以上問題的解決方案。無量綱化無量綱化使不同規(guī)格的數(shù)據(jù)轉(zhuǎn)換到同一規(guī)格。常見的無量綱化方法有標(biāo)準(zhǔn)化和區(qū)間縮放法。標(biāo)準(zhǔn)化的前提是特征值服從正態(tài)分布,標(biāo)準(zhǔn)化后,其轉(zhuǎn)換成標(biāo)準(zhǔn)正態(tài)分布。區(qū)間縮放法利用了邊界值信息,將特征的取值區(qū)間縮放到某個(gè)特點(diǎn)的范圍,例如[0,1]等。標(biāo)準(zhǔn)化標(biāo)準(zhǔn)化需要計(jì)算特征的均值和標(biāo)準(zhǔn)差,公式表達(dá)為:x-X使用preproccessing庫(kù)的StandardScaler類對(duì)數(shù)據(jù)進(jìn)行標(biāo)準(zhǔn)化的代碼如下:標(biāo)準(zhǔn)化,返回值為標(biāo)準(zhǔn)化后的數(shù)據(jù)區(qū)間縮放法區(qū)間縮放法的思路有多種,常見的一種為利用兩個(gè)最值進(jìn)行縮放,公式表達(dá)為:x-Minjuax「Mm使用preproccessing庫(kù)的MinMaxScaler類對(duì)數(shù)據(jù)進(jìn)行區(qū)間縮放的代碼如下:區(qū)間縮放,返回值為縮放到 區(qū)間的數(shù)據(jù)標(biāo)準(zhǔn)化與歸一化的區(qū)別簡(jiǎn)單來說,標(biāo)準(zhǔn)化是依照特征矩陣的列處理數(shù)據(jù),其通過求z-score的方法,將樣本的特征值轉(zhuǎn)換到同一量綱下。歸一化是依照特征矩陣的行處理數(shù)據(jù),其目的在于樣本向量在點(diǎn)乘運(yùn)算或其他核函數(shù)計(jì)算相似性時(shí),擁有統(tǒng)一的標(biāo)準(zhǔn),也就是說都轉(zhuǎn)化為單位向量”規(guī)則為l2的歸一化公式如下:使用preproccessing庫(kù)的Normalizer類對(duì)數(shù)據(jù)進(jìn)行歸一化的代碼如下:
歸一化,返回值為歸一化后的數(shù)據(jù)對(duì)定量特征二值化定量特征二值化的核心在于設(shè)定一個(gè)閾值,大于閾值的賦值為1,小于等于閾值的賦值為0,公式表達(dá)如下:匯_[LH>threshold使用preproccessing庫(kù)的Binarizer類對(duì)數(shù)據(jù)進(jìn)行二值化的代碼如下:二值化,閾值設(shè)置為3返回值為二值化后的數(shù)據(jù)對(duì)定性特征啞編碼由于IRIS數(shù)據(jù)集的特征皆為定量特征,故使用其目標(biāo)值進(jìn)行啞編碼(實(shí)際上是不需要的)。使用preproccessing庫(kù)的OneHotEncoder類對(duì)數(shù)據(jù)進(jìn)行啞編碼的代碼如下:?jiǎn)【幋a,對(duì) 數(shù)據(jù)集的目標(biāo)值,返回值為啞編碼后的數(shù)據(jù)缺失值計(jì)算由于IRIS數(shù)據(jù)集沒有缺失值,故對(duì)數(shù)據(jù)集新增一個(gè)樣本,4個(gè)特征均賦值為NaN,表示數(shù)據(jù)缺失。使用preproccessing庫(kù)的Imputer類對(duì)數(shù)據(jù)進(jìn)行缺失值計(jì)算的代碼如下:電缺失值計(jì)算,返回值為計(jì)算缺失值后的數(shù)據(jù)參數(shù) 為缺失值的表示形式,默認(rèn)為參數(shù) 為缺失值填充方式,默認(rèn)為(均值)數(shù)據(jù)變換
常見的數(shù)據(jù)變換有基于多項(xiàng)式的、基于指數(shù)函數(shù)的、基于對(duì)數(shù)函數(shù)的。4個(gè)特征,度為2的多項(xiàng)式轉(zhuǎn)換公式如下:||'十』『『.Hfar『*■?*『s'1|1』1產(chǎn)工/召產(chǎn)口產(chǎn)國(guó)56產(chǎn)7產(chǎn)日工國(guó)51口產(chǎn)1L月1W產(chǎn)13:,^14產(chǎn)157=5須片手風(fēng)小型工工町*x2rrL*麗,力*/?瞄,孫*向,陽(yáng)*孫?若聲&*%,琢)使用preproccessing庫(kù)的PolynomialFeatures類對(duì)數(shù)據(jù)進(jìn)行多項(xiàng)式轉(zhuǎn)換的代碼如下:多項(xiàng)式轉(zhuǎn)換參數(shù)為度,默認(rèn)值為基于單變?cè)瘮?shù)的數(shù)據(jù)變換可以使用一個(gè)統(tǒng)一的方式完成,使用preproccessing庫(kù)的FunctionTransformer對(duì)數(shù)據(jù)進(jìn)行對(duì)數(shù)函數(shù)轉(zhuǎn)換的代碼如下:自定義轉(zhuǎn)換函數(shù)為對(duì)數(shù)函數(shù)的數(shù)據(jù)變換第一個(gè)參數(shù)是單變?cè)瘮?shù)2.6回顧類功能說明StandardScaler無量綱化標(biāo)準(zhǔn)化,基于特征矩陣的列,將特征值轉(zhuǎn)換至服從標(biāo)準(zhǔn)正態(tài)分布MinMaxScaler無量綱化區(qū)間縮放,基于最大最小值,將特征值轉(zhuǎn)換到[0,1]區(qū)間上Normalizer歸一化基于特征矩陣的行,將樣本向量轉(zhuǎn)換為單位向量Binarizer二值化基于給定閾值,將定量特征按閾值劃分OneHotEncoder啞編碼將定性數(shù)據(jù)編碼為定量數(shù)據(jù)Imputer缺失值計(jì)算計(jì)算缺失值,缺失值可填充為均值等PolynomialFeatures多項(xiàng)式數(shù)據(jù)轉(zhuǎn)換多項(xiàng)式數(shù)據(jù)轉(zhuǎn)換FunctionTransformer自定義單元數(shù)據(jù)轉(zhuǎn)換使用單變?cè)暮瘮?shù)來轉(zhuǎn)換數(shù)據(jù)3特征選擇當(dāng)數(shù)據(jù)預(yù)處理完成后,我們需要選擇有意義的特征輸入機(jī)器學(xué)習(xí)的算法和模型進(jìn)行訓(xùn)練。通常來說,從兩個(gè)方面考慮來選擇特征:特征是否發(fā)散:如果一個(gè)特征不發(fā)散,例如方差接近于0,也就是說樣本在這個(gè)特征上基本上沒有差異,這個(gè)特征對(duì)于樣本的區(qū)分并沒有什么用。特征與目標(biāo)的相關(guān)性:這點(diǎn)比較顯見,與目標(biāo)相關(guān)性高的特征,應(yīng)當(dāng)優(yōu)選選擇。除方差法外,本文介紹的其他方法均從相關(guān)性考慮。根據(jù)特征選擇的形式又可以將特征選擇方法分為3種:Filter:過濾法,按照發(fā)散性或者相關(guān)性對(duì)各個(gè)特征進(jìn)行評(píng)分,設(shè)定閾值或者待選擇閾值的個(gè)數(shù),選擇特征。Wrapper:包裝法,根據(jù)目標(biāo)函數(shù)(通常是預(yù)測(cè)效果評(píng)分),每次選擇若干特征,或者排除若干特征。Embedded:嵌入法,先使用某些機(jī)器學(xué)習(xí)的算法和模型進(jìn)行訓(xùn)練,得到各個(gè)特征的權(quán)值系數(shù),根據(jù)系數(shù)從大到小選擇特征。類似于Filter方法,但是是通過訓(xùn)練來確定特征的優(yōu)劣。我們使用sklearn中的feature_selection庫(kù)來進(jìn)行特征選擇。Filter方差選擇法使用方差選擇法,先要計(jì)算各個(gè)特征的方差,然后根據(jù)閾值,選擇方差大于閾值的特征。使用feature_selection庫(kù)的VarianceThreshold類來選擇特征的代碼如下:方差選擇法,返回值為特征選擇后的數(shù)據(jù)參數(shù) 為方差的閾值相關(guān)系數(shù)法使用相關(guān)系數(shù)法,先要計(jì)算各個(gè)特征對(duì)目標(biāo)值的相關(guān)系數(shù)以及相關(guān)系數(shù)的P值。用feature_selection庫(kù)的SelectKBest類結(jié)合相關(guān)系數(shù)來選擇特征的代碼如下:電
選擇個(gè)最好的特征,返回選擇特征后的數(shù)據(jù)第一個(gè)參數(shù)為計(jì)算評(píng)估特征是否好的函數(shù),該函數(shù)輸入特征矩陣和目標(biāo)向量,輸出二元組(評(píng)分,值)的數(shù)組,數(shù)組第項(xiàng)為第個(gè)特征的評(píng)分和值。在此定義為計(jì)算相關(guān)系數(shù)參數(shù)為選擇的特征個(gè)數(shù)電卡方檢驗(yàn)經(jīng)典的卡方檢驗(yàn)是檢驗(yàn)定性自變量對(duì)定性因變量的相關(guān)性。假設(shè)自變量有N種取值,因變量有M種取值,考慮自變量等于i且因變量等于j的樣本頻數(shù)的觀察值與期望的差距,構(gòu)建統(tǒng)計(jì)量:這個(gè)統(tǒng)計(jì)量的含義簡(jiǎn)而言之就是自變量對(duì)因變量的相關(guān)性。用feature_selection庫(kù)的SelectKBest類結(jié)合卡方檢驗(yàn)來選擇特征的代碼如下:選擇個(gè)最好的特征,返回選擇特征后的數(shù)據(jù)互信息法經(jīng)典的互信息也是評(píng)價(jià)定性自變量對(duì)定性因變量的相關(guān)性的,互信息計(jì)算公式如下:“X⑶24網(wǎng)則出為了處理定量數(shù)據(jù),最大信息系數(shù)法被提出,使用feature_selection庫(kù)的SelectKBest類結(jié)合最大信息系數(shù)法來選擇特征的代碼如下:電由于的設(shè)計(jì)不是函數(shù)式的,定義 方法將其為函數(shù)式的,返回一個(gè)二元組,二元組的第項(xiàng)設(shè)置成固定的值
選擇個(gè)最好的特征,返回特征選擇后的數(shù)據(jù)Wrapper遞歸特征消除法遞歸消除特征法使用一個(gè)基模型來進(jìn)行多輪訓(xùn)練,每輪訓(xùn)練后,消除若干權(quán)值系數(shù)的特征,再基于新的特征集進(jìn)行下一輪訓(xùn)練。使用feature_selection庫(kù)的RFE類來選擇特征的代碼如下:遞歸特征消除法,返回特征選擇后的數(shù)據(jù)參數(shù)參數(shù)參數(shù)參數(shù)為基模型為選擇的特征個(gè)數(shù)Embedded基于懲罰項(xiàng)的特征選擇法使用帶懲罰項(xiàng)的基模型,除了篩選出特征外,同時(shí)也進(jìn)行了降維。使用feature_selection庫(kù)的SelectFromModel類結(jié)合帶Li懲罰項(xiàng)的邏輯回歸模型,來選擇特征的代碼如下:帶 懲罰項(xiàng)的邏輯回歸作為基模型的特征選擇Li懲罰項(xiàng)降維的原理在于保留多個(gè)對(duì)目標(biāo)值具有同等相關(guān)性的特征中的一個(gè),所以沒選到的特征不代表不重要。故,可結(jié)合L2懲罰項(xiàng)來優(yōu)化。具體操作為:若一個(gè)特征在Li中的權(quán)值為1,選擇在L2中權(quán)值差別不大且在Li中權(quán)值為0的特征構(gòu)成同類集合,將這一集合中的特征平分Li中的權(quán)值,故需要構(gòu)建一個(gè)新的邏輯回歸模型:
使用feature_selection庫(kù)的SelectFromModel類結(jié)合帶Li以及L2懲罰項(xiàng)的邏輯回歸模型,來選擇特征的代碼如下:帶和 懲罰項(xiàng)的邏輯回歸作為基模型的特征選擇參數(shù) 為權(quán)值系數(shù)之差的閾值基于樹模型的特征選擇法樹模型中GBDT也可用來作為基模型進(jìn)行特征選擇,使用feature_selection庫(kù)的SelectFromModel類結(jié)合GBDT模型,來選擇特征的代碼如下:作為基模型的特征選擇回顧類所屬方式說明VarianceThresholdFilter方差選擇法SelectKBestFilter可選關(guān)聯(lián)系數(shù)、卡方校驗(yàn)、最大信息系數(shù)作為得分計(jì)算的方法RFEWrapper遞歸地訓(xùn)練基模型,將權(quán)值系數(shù)較小的特征從特征集合中消除SelectFromModelEmbedded訓(xùn)練基模型,選擇權(quán)值系數(shù)較高的特征4降維當(dāng)特征選擇完成后,可以直接訓(xùn)練模型了,但是可能由于特征矩陣過大,導(dǎo)致計(jì)算量大,訓(xùn)練時(shí)間長(zhǎng)的問題,因此降低特征矩陣維度也是必不可少的。常見的降維方法除了以上提到的基于Li懲罰項(xiàng)的模型以外,另外還有主成分分析法(PCA)和線性判別分析(LDA),線性判別分析本身也是一個(gè)分類模型。PCA和LDA有很多的相似點(diǎn),其本質(zhì)是要將原始的樣本映射到維度更低的樣本空間中,但是PCA和LDA的映射目標(biāo)不一樣:PCA是為了讓映射后的樣本具有最大的發(fā)散性;而LDA是為了讓映射后的樣本有最好的分類性能。所以說PCA是一種無監(jiān)督的降維方法,而LDA是一種有監(jiān)督的降維方法。主成分分析法(PCA)使用decomposition庫(kù)的PCA類選擇特征的代碼如下:主成分分析法,返回降維后的數(shù)據(jù)參數(shù) 為主成分?jǐn)?shù)目線性判別分析法(LDA)使用Ida庫(kù)的LDA類選擇特征的代碼如下:線性判別分析法,返回
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 2025年度高品質(zhì)膩?zhàn)尤槟z漆墻面涂裝施工合同范本4篇
- 報(bào)紙版面廣告投放合同(2篇)
- 2025版坑塘水利工程承包施工合同樣本6篇
- 二零二五年度門衛(wèi)服務(wù)合同勞動(dòng)合同管理4篇
- 2025年度房屋修繕泥水勞務(wù)分包合同樣本4篇
- 2025年健身房商品陳列與運(yùn)動(dòng)裝備銷售合同范本3篇
- 2025年度新型瓷磚代理銷售與推廣服務(wù)合同3篇
- 二零二五年度教育培訓(xùn)機(jī)構(gòu)實(shí)習(xí)實(shí)訓(xùn)合作合同樣本下載4篇
- 2025版小型工廠員工職業(yè)健康安全勞動(dòng)合同范本
- 2025年度庭院路燈安裝施工及配套電氣設(shè)施采購(gòu)合同
- 二零二五年度無人駕駛車輛測(cè)試合同免責(zé)協(xié)議書
- 2025年湖北華中科技大學(xué)招聘實(shí)驗(yàn)技術(shù)人員52名歷年高頻重點(diǎn)提升(共500題)附帶答案詳解
- 高三日語(yǔ)一輪復(fù)習(xí)助詞「と」的用法課件
- 毛渣采購(gòu)合同范例
- 無子女離婚協(xié)議書范文百度網(wǎng)盤
- 2023中華護(hù)理學(xué)會(huì)團(tuán)體標(biāo)準(zhǔn)-注射相關(guān)感染預(yù)防與控制
- 五年級(jí)上冊(cè)小數(shù)遞等式計(jì)算200道及答案
- 2024年廣東高考政治真題考點(diǎn)分布匯 總- 高考政治一輪復(fù)習(xí)
- 燃?xì)夤艿滥甓葯z驗(yàn)報(bào)告
- GB/T 44052-2024液壓傳動(dòng)過濾器性能特性的標(biāo)識(shí)
- 國(guó)際市場(chǎng)營(yíng)銷環(huán)境案例分析
評(píng)論
0/150
提交評(píng)論