版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領
文檔簡介
2023/9/84.數據預處理2023/9/81為什么要進行數據挖掘?現實世界的數據是臟的不完整:缺乏屬性值,缺乏有意義的屬性,或者只包含了匯總數據e.g.,occupation=“”有噪聲:包含錯誤的數據或異常值e.g.,Salary=“-10”不一致:在代碼或者名字中存在矛盾或不一致e.g.,Age=“42”Birthday=“03/07/1997”e.g.,Wasrating“1,2,3”,nowrating“A,B,C”e.g.,discrepancybetweenduplicaterecords2023/9/82為什么數據預處理重要?Noqualitydata,noqualityminingresults!Qualitydecisionsmustbebasedonqualitydatae.g.,duplicateormissingdatamaycauseincorrectorevenmisleadingstatistics.DatawarehouseneedsconsistentintegrationofqualitydataDataextraction,cleaning,andtransformationcomprisesthemajorityoftheworkofbuildingadatawarehouse2023/9/832023/9/84數據預處理的主要內容:2023/9/8數據預處理的主要內容一、原始數據的表述二、數據清理三、數據變換四、元組的歸約五、屬性的歸約2023/9/85數據樣本是數據挖掘過程的基本組成部分。一、原始數據的表述2023/9/86每個樣本都用幾個特征來描述,每個特征有不同類型的值。2023/9/82023/9/8常見的數據類型有:數值型和分類型。數值型包括實型變量和整型變量注:具有數值型值的特征有兩個重要的屬性:其值有順序關系和距離關系。72023/9/82023/9/8一個有兩個值的分類型變量:分類型變量的兩個值可以平等或不平等。原則上可以轉化成一個二進制的數值型變量,這種數值型變量有兩個值:0或1;而有N值的分類型變量原則上可以轉化成一個二進制的數值型變量,這種數值型變量有N個值。82023/9/82023/9/8例如:如果變量“眼睛顏色”有4個值:黑色、藍色、綠色、褐色。
特征值編碼黑色1000
藍色0100
綠色0010
褐色000192023/9/82023/9/8變量的分類:連續(xù)型變量和離散型變量。連續(xù)型變量也認為是定量型或是量度型,是指在一定區(qū)間內可以任意取值的變量。離散型變量也叫定性型變量,是指全部可能取到的不相同的值是有限個的變量。注:一種特殊類型的離散型變量是周期變量,例如:星期、月和年中的日期。102023/9/82023/9/8與時間有關的數據分類:靜態(tài)數據——數據不隨時間變化而變化動態(tài)數據(時間數據)——隨時間變化而變化的屬性。注:大多數數據挖掘方法更適用于靜態(tài)數據,在對動態(tài)數據進行挖掘時要有特殊的考慮和預處理。112023/9/8二、數據清理——缺失值的填補2023/9/8對數據挖掘的實際應用而言,即使數據量很大,具有完整數據的案例也非常少,這樣就面臨數據的缺失問題。應用數據挖掘方法之前如何處理這樣現象,最簡單的辦法是減少數據集,去掉所有有缺失值的樣本。如果我們不想扔掉這些有缺失值的樣本,就必須找到它們的缺失值,用什么方法來實現呢?填補缺失值。122023/9/81、單一填補法(1)均值填補法。均值填補法是根據與含缺失值的目標屬性相關性高的其它屬性的信息將樣品分為若干組,然后分別計算各組目標屬性的均值,將各組均值作為組內所有缺失項的填補值。均值填補的優(yōu)點是操作簡便,并且可以有效地降低其點估計的偏差。但它的缺點也比較突出:首先,由于同組中的缺失值由同一個值填補,填補結果歪曲了目標屬性的分布;其次,也導致在均值和總量估計中對方差的低估。2023/9/813例:2023/9/814均值填補:2023/9/8152023/9/8(2)隨機填補法。隨機填補法是采用某種概率抽樣的方式,從有完整信息的元組中抽取缺失數據的填補值的方法。它雖然能夠避免均值填補中填補值過于凝集以及容易扭曲目標屬性分布的弱點,使得填補值的分布與真值分布更為接近。但它卻增大了估計量的方差,并且穩(wěn)定性不夠。2023/9/8162023/9/8(3)熱卡填補法。熱卡填補法(hotdeckimputation)是規(guī)定一個或多個排序屬性,按其觀察值大小對全部觀察單位排序,如果選擇的是兩個以上的屬性,排序按屬性的入選順序依次進行。排序屬性值完全相同的觀察單位稱為匹配,缺失值就用與之匹配的觀察單位的屬性值來填補。如果有多例相匹配,可取第一例或隨機取其一。如果沒有相匹配的,可以每次減少一個排序屬性,再找相匹配的元組。如果直到最后一個排序屬性,還沒有找到相匹配的,則需要重新規(guī)定排序屬性。2023/9/817項目性別年齡學生身分收入辦卡1男>45否高會2女31~45否高會3女20~30是低會4男<20是低不會5女20~30是中不會6女20~30否中會7女31~45否高會8男31~45是中不會9男31~45否中會10女<20是低會2023/9/8(4)回歸填補法。回歸填補法是指在現有觀察值基礎上,以含有缺失值的目標屬性為因變量,以與目標屬性相關性高的其它屬性為自變量,建立最小二乘回歸模型或判別模型,以估計缺失值。注意:以上幾種方法都存在扭曲樣本分布的問題,如均值填補會降低屬性之間的相關關系,回歸填補則會人為地加大變量之間的相關關系等。2023/9/818例:2023/9/8192023/9/82023/9/8(二)異常值(孤立點)探測在大型數據集中,通常存在著不遵循數據模型的普遍行為的樣本,這些樣本和其他殘余部分數據有很大不同或不一致,叫做異常點。異常點可能是由測量誤差造成的,也可能是數據故有的可變性結果。例如:在檢測銀行交易中的信用卡欺詐行為時,異常點是可能揭示欺詐行為的典型例子。202023/9/82023/9/8異常值的探測方法第一,一維樣本異常點的檢測方法例如:如果所給的數據集用20個不同的值描述年齡特征:3,56,23,39,156,52,41,22,9,28,139,31,55,20,-67,37,11,55,45,37均值=39.9;標準差=45.65閾值=均值±2×標準差那么,所有在[-54.1,131.2]區(qū)間以外的數據都是潛在的異常點。根據實際可以把區(qū)間縮減到[0,131.2],由這個標準發(fā)現3個異常點:156,139,-67。212023/9/82023/9/8第二,基于距離的異常點檢測(二維以上數據)例如:數據集為:S={S1,S2,S3,S4,S5,S6,S7}={(2,4),(3,2),(1,1),(4,3),(1,6),(5,3),(4,2)}
歐氏距離d=[(X1-X2)2+(Y1-Y2)2]1/2
取閾值距離為d=322異常點2023/9/823根據所用程序的結果和所給的閾值,可選擇S3和S5作為異常點。2023/9/8242023/9/8第三:基于分類預測模型的異常值探測異常值的探測也可以認為是一類特殊的分類問題。因為對于一般的分類問題,考慮的是如何將各種類別有效地分開,而在異常值探測中,分類的目標是準確地描述總體的正常行為特征,在此之外大范圍的其它對象被視為異常值。其基本思想是:對總體的特征建立分類模型,形成正常行為的特征庫;然后針對新的數據判斷其是否屬于正常行為,從而認定其是否與總體偏離,發(fā)生偏離的即是異常值。根據所建立的分類器的不同,異常值的探測方法有以下幾種:決策樹分類;貝葉斯分類;神經網絡分類;聚類。2023/9/8252023/9/8異常值探測的應用信用卡、保險行業(yè)以及電信用戶欺詐行為的探測。異常值探測對于欺詐行為的發(fā)現,主要是基于這樣的思想:任何人在使用信用卡、投保和電信消費的正常行為都是有一定的規(guī)律的,并且可以通過這些行為產生的信息總結出這些規(guī)律;由于欺詐行為和正常的行為存在嚴重的差異,檢查出這些差異就可以探測出是否存在欺詐發(fā)生。因此可以認為,欺詐行為的發(fā)現過程就是一種異常數據的挖掘過程。2023/9/8262023/9/8具體的實現途徑是:利用聚類、神經網絡和決策樹等分類方法,通過分析用戶的購買、投保或消費習慣,細分客戶,以此分辨出偏離模式的信用卡欺詐行為;然后,推導出合法交易的定義,建立模型;利用模型來分析一個新的交易是合法還是非法。也可以通過六西格瑪探測、聚類等方法,尋找出與正常投保行為有極大差別的不正常行為,即有可能的欺詐行為。除了利用上述技術對異常數據進行識別外,還可以通過關聯規(guī)則的Apriori算法尋找異常數據間的隱含模型,從而達到反欺詐的目的。2023/9/8272023/9/8例如:對電信用戶的欺詐行為探測的具體做法是:首先,將目標屬性定為無意欠費客戶和惡意欠費兩類;其次,選擇屬性作為輸入屬性,通常包括服務合同屬性(如服務類型、服務時間、交費類型等)、客戶的基本狀態(tài)(如性別、年齡、收入、婚姻狀況、受教育年限/學歷、職業(yè)、居住地區(qū)等)以及經?;蚨ㄆ诟淖兊臄祿ㄈ缑吭孪M金額、交費紀錄等);然后,將分類方法用于預先選定的包含客戶欠費狀態(tài)的訓練集中,從而挖掘歸納出規(guī)則集;最后,利用所獲取的規(guī)則,對電信企業(yè)新用戶的繳費情況進行預測分類,從而達到預防欺詐的目的。2023/9/8282023/9/8三、數據變換數據變換是將數據轉換成適合于挖掘的形式。數據變換可能涉及到如下內容:數據規(guī)范化數據平滑數據概化2023/9/829為什么要進行標準化?一些數據挖掘方法,需要對數據進行標準化以獲得最佳的效果。例如,對于分類算法,如涉及神經網絡的算法或諸如最臨近分類和聚類的距離度量分類算法,都需要將訓練樣本屬性度量輸入值規(guī)范化,這樣有助于加快學習階段的速度。對于基于距離的方法,規(guī)范化可以幫助防止具有較大初始值域的屬性與具有較小初始值域的屬性相比,權重過大。2023/9/830(一)規(guī)范化(標準化)小數縮放移動小數點,但是要仍然保持原始數據的特征。小數點的移動位數依賴于X的最大絕對值。典型的縮放是保持數值在-1和1范圍內,可以用格式描述:1、小數縮放規(guī)范化是指通過將屬性數據按比例縮放,使之落入一個小的特定區(qū)間,如0.0到1.0,對屬性規(guī)范化。2023/9/8312、最小-最大規(guī)范化2023/9/832最小-最大規(guī)范化是對原始數據進行線性變換。最小-最大規(guī)范化的格式:
從而將X的值映射到[0,1]中。2023/9/83、標準差規(guī)范化(Z-SCORE規(guī)范化)標準差規(guī)范化是將某個屬性的值基于其平均值和標準差進行規(guī)范化。標準差規(guī)范化的格式是其中:是均值;是標準差。注意:該方法適用于當屬性X的最大和最小值未知,或孤立點左右了最大-最小規(guī)范化的情況下。2023/9/833為什么要進行數據的平滑?一個數值型的特征可能包含許多不同的值。對許多數據挖掘技術來說,這些值之間小小的區(qū)別并不重要,但可能會降低挖掘方法的性能并影響最終的結果。因此,對變量的值進行平滑處理很重要。2023/9/834(二)數據平滑(離散化)2023/9/82023/9/8數據平滑:是指去掉數據中的噪聲。這種技術包括分箱技術、聚類和回歸。35例如:進行圓整處理。如果給定特征的值的集合是平滑后的集合是2023/9/81、分箱分箱方法是通過考察“鄰居”來平滑存儲數據的值。存儲的值被分布到一些“桶”或“箱”中。由于分箱方法參考的是相鄰的值,因此,它進行的是局部平滑。分箱方法有以下幾種:按箱平均值平滑按箱中值平滑按箱邊值平滑。2023/9/8362023/9/8例如:某產品的價格排序后的數據為:4、8、15、21、21、24、25、28、34。首先,將上述數據劃分為等深的箱:
箱1:4、8、15
箱2:21、21、24
箱3:25、28、34(1)按箱中值平滑:箱1:8、8、8
箱2:21、21、21
箱3:28、28、282023/9/8372023/9/8排序后的數據為:4、8、15、21、21、24、25、28、34。
箱1:4、8、15
箱2:21、21、24
箱3:25、28、34(2)按箱平均值平滑:箱1:9、9、9
箱2:22、22、22
箱3:29、29、292023/9/838排序后的數據為:4、8、15、21、21、24、25、28、34。
箱1:4、8、15
箱2:21、21、24
箱3:25、28、34(3)按箱邊界值平滑:箱1:4、4、15
箱2:21、21、24
箱3:25、25、342023/9/839對于按箱邊值平滑來說,箱中的最大和最小值被視為箱邊界。箱中每一個值被最近的邊界值替換。2、回歸xyy=x+1X1Y1Y1’2023/9/8403、通過自然劃分分段3-4-5規(guī)則可以將數值數據劃分成相對一致和“自然”區(qū)間。如果一個區(qū)間在最高有效位上包含3,6,7或9個不同的值,則將該區(qū)間劃分為3個區(qū)間(對于3、6和9劃分為3個等寬區(qū)間;對于7,按2-3-2分組,劃分為3個區(qū)間);如果最高有效位上包含2,4或8個不同的值,則將區(qū)間劃分為4個等寬區(qū)間;如果最高有效位上包含1,5或10個不同的值,則將區(qū)間劃分為5個等寬區(qū)間.2023/9/841EXAMPLE(-$400-$5,000)(-$400-0)(-$400--$300)(-$300--$200)(-$200--$100)(-$100-0)(0-$1,000)(0-$200)($200-$400)($400-$600)($600-$800)($800-$1,000)($2,000-$5,000)($2,000-$3,000)($3,000-$4,000)($4,000-$5,000)($1,000-$2,000)($1,000-$1,200)($1,200-$1,400)($1,400-$1,600)($1,600-$1,800)($1,800-$2,000)msd=1,000 Low=-$1,000 High=$2,000Step2:Step4:Step1:-$351 -$159 profit $1,838 $4,700 MinLow(i.e,5%-tile) High(i.e,95%-0tile)Maxcount(-$1,000-$2,000)(-$1,000-0)(0-$1,000)Step3:($1,000-$2,000)2023/9/842為什么要進行數據概化?數據庫通常存放有大量的細節(jié)數據,但我們通常希望看到的是以簡潔的、更一般的描述形式來觀察數據的特點。例如:對于一個銷售經理來說,面對顧客數據庫,他可能不想考察每個顧客的事務,而更愿意概化到高層的數據,比如說,根據地區(qū)按顧客的分組匯總,來觀察每組顧客的購買頻率和顧客的收入,以此來分析區(qū)域差異。2023/9/843(三)數據概化2023/9/8數據概化:是一個過程,它將大的任務相關的數據集從較低的概念層抽象到較高的概念層。使用概念分層,用高層次概念替換低層次“原始”數據。例如,分類的屬性,“street”,可以概化為較高層的概念,如“city”或“country”;再如,“年齡”可以概化為“青年”、“中年”和“老年”等。2023/9/8442023/9/8四、元組的歸約為什么要進行離散化?在機器學習和數據挖掘中,已經發(fā)展了處理離散型數據的很多算法,如決策樹、關聯規(guī)則及基于粗糙集理論的許多方法,而這些算法對于連續(xù)型數據卻不適用;另外,有些算法即使能處理連續(xù)型數據,挖掘和學習也沒有處理離散型數據有用和有效。離散化后可以達到歸約元祖的目的。2023/9/845連續(xù)屬性的離散化就是將數值屬性的值域劃分為若干子區(qū)間,每個區(qū)間對應一個離散值。離散化方法依據不同的標準主要有以下幾種劃分:有監(jiān)督和無監(jiān)督、動態(tài)和靜態(tài)、全局和局部、自頂向下和自底向上等。2023/9/8462023/9/8按照離散化過程中是否考慮類別信息,可以將離散化算法分為有監(jiān)督算法和無監(jiān)督算法。有監(jiān)督算法是其輸入樣本集中除了待離散化的數值屬性外,還有一個或多個離散型的類別屬性。這種算法在離散化時,將類別信息作為參考。無監(jiān)督離散化是在離散化過程中不考慮類別信息的方法,其輸入樣本集中僅含有待離散化的屬性。早期的等寬、等頻的離散化方法是無監(jiān)督方法的典型代表。無監(jiān)督的方法的缺陷在于它對分布不均勻的數據不適用,對異常點比較敏感。2023/9/8471、有監(jiān)督離散化和無監(jiān)督離散化2、動態(tài)和靜態(tài)離散化動態(tài)離散化方法是在建立分類模型的同時對連續(xù)特征進行離散化,例如,C4.5算法。在靜態(tài)離散化方法中,離散化是先于分類任務進行的。2023/9/8482023/9/8自頂向下的方法是離散化開始于空的分割點(分裂點)列表,通過“分裂”區(qū)間增加新的分割點到列表中的離散化過程。自底向上是開始于屬性的全部連續(xù)值作為分割點的完全列表,以通過“合并”區(qū)間來移除它們中的一部分作為離散化的過程。2023/9/8493、自頂向下和自底向上4、局部和全局離散化局部離散化方法是僅對每一個屬性的屬性值進行劃分,如等寬區(qū)間法、等頻區(qū)間法和最大熵法等。全局離散化則是考慮全部條件屬性的屬性值進行劃分的方法,如全局聚類分析方法。2023/9/8502023/9/8(二)典型離散化的過程一個局部單個屬性的離散化過程主要由以下四步組成(自底向上):(1)對要離散化的屬性的連續(xù)值排序。(2)根據一定的規(guī)則產生候選斷點集,構造初始區(qū)間。(3)按照合并的規(guī)則,合并相鄰的初始區(qū)間。(4)制定停止標準,使得合并一直進行到符合停止標準為止。2023/9/8512023/9/8(三)離散化方法的評價(1)區(qū)間的總數。這是對模型簡潔性的要求。理論上來說,離散得到的區(qū)間數越少越好,便于理解;但區(qū)間數的減少另一方面也會導致數據的可理解性變差。(2)由離散化引起的不一致性的數目。所謂不一致性是指當兩個樣本所有的條件屬性取值相同而類別屬性的取值不同時,就稱這兩個樣本是不一致的。離散化后的不一致性數目至少應該比在離散化前原始數據的不一致性數目少,且不一致性數目越少越好。(3)預測精確度。根據訓練樣本集預測新樣本類別的準確率即是預測精確度,預測精確度越高,當然就說明此離散化方法越好。2023/9/8522023/9/81、直方圖方法直方圖方法是將要離散化的變量值從小到大排序,然后對這些數值進行分組,最后,對這些進行賦值。依據分組的方式該方法又可以分為等寬和等頻兩種。等寬是指所分組是等距式分組。等頻是指所有的分組的次數是相等的。2023/9/8(四)具體的離散化方法532023/9/8采用Iris樣本集進行統計模擬(數據來源:加州大學UCIMachineLearning的數據庫中Iris樣本集)。Iris樣本集是對3種鳶尾花:剛毛鳶(yuan)尾花、變色鳶尾花、佛吉尼亞鳶尾花各抽取50個樣本。屬性是sepallengthincm萼片長度、sepalwidthincm萼片寬度、petallengthincm花瓣長度、petalwidthincm花瓣寬度。2023/9/8等寬直方圖離散化的應用54我們現在以花萼長(
sepallengthincm)屬性為例,來進行連續(xù)型值屬性的離散化。具體步驟為如下:(1)對要離散化的屬性的連續(xù)值排序。(2)根據一定的規(guī)則產生候選斷點集,構造初始區(qū)間。2023/9/8552023/9/82023/9/8數值頻數數值頻數數值頻數數值頻數數值頻數4.315105.786.477.114.435.195.876.557.234.515.245.936.627.314.645.31666.787.414.725.466.166.837.614.855.576.246.947.744.965.666.39717.91562023/9/8(3)按照合并的規(guī)則,合并相鄰的初始區(qū)間。根據斯特杰公式有:n=1+3.3lgN=1+3.3lg150≈8那么,組距為d=R/n=(7.9-4.3)/8=0.45現分組如右:2023/9/8分組頻數4.3~4.75114.75~5.2305.2~5.65245.65~6.1246.1~6.55316.55~7177~7.4577.45~7.96572023/9/8(4)制定停止標準,使得合并一直進行到符合停止標準為止。(5)防止過度擬合。為防止過度擬合,應使得每個區(qū)間的頻數大于等于總體單位數的平方根。sqrt(150)≈122023/9/8582023/9/859分組頻數4.3~4.75114.75~5.2305.2~5.65245.65~6.1246.1~6.55316.55~7177~7.4577.45~7.962023/9/8進行重新分組:使得每個區(qū)間的頻數大于122023/9/8分組頻數賦值4.3~5.24115.2~6.14826.1~74837~7.9134602023/9/82、聚類聚類算法可以用來將數據劃分為群或簇。每一個簇形成概念分層的一個節(jié)點,而所有的節(jié)點在同一個概念層。每一個簇可以進一步分成若干子簇,形成較低的概念層簇也可以聚集在一起,以形成分層結構中較高的概念層。2023/9/861具體方法是:首先,將元組劃分為群或簇,使得在每一個簇中的對象“類似”,但與其他簇中的對象“不類似”。其次,為這些簇賦值,所有包含在同一個簇中的對象的值相同。注意:這種方法的有效性依賴于數據的性質,數據必須能夠組織成不同的聚類;另外,它只適用于無監(jiān)督的離散化。2023/9/8622023/9/8例如:見IRIS樣本集,在不考慮類別信息的情況下,現用聚類方法離散化屬性“sepallengthincm”。有:2023/9/8分組頻數賦值4.3~5.44615.4~6.03726.0~6.53236.5~7.9354632023/9/83、基于熵的離散化方法信息熵的概念信息論中的熵:是信息的度量單位,是一種對屬性“不確定性的度量”。屬性的不確定性越大,把它搞清楚所需要的信息量也就越大,熵也就越大。Shannon公式:其中,I(A)度量事件A發(fā)生所提供的信息量,稱之為事件A的自信息,P(A)為事件A發(fā)生的概率。2023/9/864如果一個屬性有N個可能的取值,且它們出現的概率分別為,那么這個屬性的信息熵為:一個系統越是有序,信息熵就越低。2023/9/865貪心算法所謂貪心算法是指,在對問題求解時,總是做出在當前看來是最好的選擇。也就是說,不從整體最優(yōu)上加以考慮,他所做出的僅是在某種意義上的局部最優(yōu)解。2023/9/866例如:假設有四種硬幣,它們的面值分別為二角五分、一角、五分和一分。現在要找給某顧客六角三分錢。這時,我們會不假思索地拿出2個二角五分的硬幣,1個一角的硬幣和3個一分的硬幣交給顧客。這種找硬幣方法與其他的找法相比,所拿出的硬幣個數是最少的。這里,我們下意識地使用了這樣的找硬幣算法:首先選出一個面值不超過六角三分的最大硬幣,即二角五分;然后從六角三分中減去二角五分,剩下三角八分;再選出一個面值不超過三角八分的最大硬幣,即又一個二角五分,如此一直做下去。這個找硬幣的方法實際上就是貪心算法。顧名思義,貪心算法總是作出在當前看來是最好的選擇。也就是說貪心算法并不從整體最優(yōu)上加以考慮,它所作出的選擇只是在某種意義上的局部最優(yōu)選擇。2023/9/867但是:如果硬幣的面值改為一分、五分和一角一分3種,而要找給顧客的是一角五分錢。還用貪心算法,我們將找給顧客1個一角一分的硬幣和4個一分的硬幣。然而3個五分的硬幣顯然是最好的找法。顯然貪心算法不是對所有問題都能得到整體最優(yōu)解,但對范圍相當廣的許多問題它能產生整體最優(yōu)解。如,圖的單源最短路徑問題。在一些情況下,即使貪心算法不能得到整體最優(yōu)解,但其最終結果卻是最優(yōu)解的很好的近似解。2023/9/868基于熵的離散化方法是通過貪心算法搜尋給定數據區(qū)間內的具有熵值最小的數據點作為斷點。該方法將區(qū)間內的每一個數值作為候選斷點,計算其熵值,然后從中選出具有最小熵值的數據點作為斷點,將區(qū)間一分為二,然后再對得到的區(qū)間遞歸地應用以上方法進行離散化。停止準則是當得到的每個區(qū)間中的類標簽都是一致時,即停止離散化過程;或者達到某個停止標準時,停止。2023/9/869基于熵的離散化方法2023/9/8基于熵的離散化方法2023/9/8一個給定的樣本分類所需要的信息某種劃分的期望信息70項目性別年齡學生身分收入辦卡1男>45否高會2女31~45否高會3女20~30是低會4男<20是低不會5女20~30是中不會6女20~30否中會7女31~45否高會8男31~45是中不會9男31~45否中會10女<20是低會2023/9/8Sepallen:(cm)d1d2d3Sepallen:(cm)d1d2d34.31006.10424.43006.20224.51006.30364.64006.40254.72006.50144.85006.60204.94116.703558206.80125.18106.90135.231070105.31007.10015.45107.20035.52507.30015.60517.40015.72517.60015.81337.70045.90217.900160422023/9/8舉例:IRIS樣本集的具體步驟712023/9/8首先,從第一個分割點開始,將屬性值分為兩部分即[4.3,4.4)和[4.4,7.9],則分割后新的類別熵為:
2023/9/8區(qū)間d1d2d3合計[4.3,4.4)1001[4.4,7.9]495050149722023/9/8以此類推,如把屬性值分為[4.3,5.6)和[5.6,7,9]兩個區(qū)間時,產生的新的類別熵為:2023/9/8區(qū)間d1d2d3合計[4.3,5.6)4711159[5.6,7.9]3394991732023/9/8對所有的分割點將屬性值分為兩個區(qū)間的新類別熵計算出來,有2023/9/8d1d2d3新的類別熵d1d2d3新的類別熵4.31000.4739260420.349374.43000.464086.10420.358754.51000.459666.20220.367514.64000.446796.30360.392024.72000.439546.40250.409654.85000.420436.50140.422754.94110.421886.60200.4204958200.398366.70350.436735.18100.362776.80120.439835.23100.349366.90130.443085.31000.3424770100.435835.45100.311227.10010.439545.52500.309387.20030.450345.60510.327887.30010.453855.72510.321787.40010.457305.81330.330407.60010.460715.90210.337427.70040.473927.9001742023/9/8從上表中可以看到,將屬性值分為[4.3,5.6)和[5.6,7,9]兩個區(qū)間時,類別熵最小,因此首先把屬性值分為兩大部分。按照上述步驟,
分別再找出區(qū)間[4.3,5.6)和[5.6,7,9]的二分點,以此類推,逐漸將區(qū)間分割為更小的區(qū)間,直到滿足某個終止條件為止。2023/9/8752023/9/82023/9/8d1d2d3新的類別熵d1d2d3新的類別熵4.31000.4739260420.349374.43000.464086.10420.358754.51000.459666.20220.367514.64000.446796.30360.392024.72000.439546.40250.409654.85000.420436.50140.422754.94110.421886.60200.4204958200.398366.70350.436735.18100.362776.80120.439835.23100.349366.90130.443085.31000.3424770100.435835.45100.311227.10010.439545.52500.309387.20030.450345.60510.327887.30010.453855.72510.321787.40010.457305.81330.330407.60010.460715.90210.337427.70040.473927.9001762023/9/82023/9/84、CHIMERGE算法772023/9/82023/9/878Sepallen:(cm)d1d2d3Sepallen:(cm)d1d2d34.31006.10424.43006.20224.51006.30364.64006.40254.72006.50144.85006.60204.94116.703558206.80125.18106.90135.231070105.31007.10015.45107.20035.52507.30015.60517.40015.72517.60015.81337.70045.90217.900160422023/9/82023/9/8792023/9/82023/9/8802023/9/8應用采用Iris樣本集進行統計模擬。現在以花萼長(
sepallengthincm)屬性為例,來進行連續(xù)型值屬性的離散化。2023/9/8812023/9/8Sepallen:(cm)d1d2d3Sepallen:(cm)d1d2d34.31006.10424.43006.20224.51006.30364.64006.40254.72006.50144.85006.60204.94116.703558206.80125.18106.90135.231070105.31007.10015.45107.20035.52507.30015.60517.40015.72517.60015.81337.70045.90217.900160422023/9/8822023/9/8具體步驟:(1)觀察各區(qū)間,先將類分布完全相同的區(qū)間進行合并。2023/9/8區(qū)間d1d2d3區(qū)間d1d2d3[4.3,4.9)1600[5.7,5.9)384[4.9,5.0)411[5.9,6.6)01822[5.0,5.3)1940[6.6,6.7)020[5.3,5.4)100[6.7,7.0)0510[5.4,5.6)760[7.0,7.1)010[5.6,5.7)051[7.1,7.9)0012832023/9/82023/9/8(2)考察[4.3,4.9)與[4.9,5),看其是否能夠合并?兩區(qū)間的卡方統計量和為5.87,大于臨界值,因此兩區(qū)間不能合并。區(qū)間d1d2d3求和[4.3,4.9)160016[4.9,5)4116求和201122區(qū)間eijeijeij[4.3,4.9)14.5450.7270.727[4.9,5)5.4550.2730.273區(qū)間χ2[4.3,4.9)0.1450.7270.7271.6[4.9,5)0.3881.9391.9394.267表1:兩區(qū)間的列聯表表2:計算各項的eij表3:兩區(qū)間的卡方統計量值842023/9/82023/9/8(3)繼續(xù)考察區(qū)間[4.9,5)與[5.0,5.3),看其是否能夠合并,直到所有的區(qū)間卡方統計量大于閥值為止。852023/9/8五、屬性的歸約屬性的歸約包括兩類方法:屬性的提取和屬性子集的選擇。(一)屬性的提取屬性的提取是通過映射(或變換)的方法,將高維的屬性空間壓縮為低維的屬性空間,即將原始屬性變換為較少的新屬性。此時,“較少的新屬性”是原始屬性的某種線性組合,也可以稱為“二次屬性”。2023/9/8862023/9/8屬性提取的最大的優(yōu)點在于:這樣的線性組合比屬性選擇中的最優(yōu)子集有更好的判別能力。但相應的問題是,這樣的線性組合的實際意義卻不明顯,有時難以解釋。到目前為止,對屬性提取的研究主要是從線性和非線性的數據變換角度進行的。用的比較多的線性數據變換方法是:主成分分析、因子分析、判別分析、聚類分析、多維標度、投影尋蹤以及小波變換等。非線性的數據變換,主要是基于自組織映射的屬性抽取方法、基于核的主成分分析和基于核的判別分析方法等。2023/9/8872023/9/81、主成分分析(因子分析)主成分分析和因子分析都是多元統計分析中的一種常用方法,是數學上處理降維的一種方法。主成分分析的基本思想:設法將原始屬性重新組合成一組新的互相無關的幾個綜合屬性,同時根據需要從中選取少數幾個綜合屬性來盡可能多地反映原來指標的信息。綜合指標的選取使用的是方差最大法。2023/9/8882、因子分析因子分析的基本思想:通過變量(或樣本)的相關系數矩陣內部結構的研究,找出能控制所有變量的少數幾個因子去描述多個變量之間的相關關系;然后,根據相關性的大小把變量分組,使得同組內的變量之間相關性較高,但不同組之間相關性較低。2023/9/8892023/9/8主成分分析和因子分析的對比數據標準化建立指標之間的相關系數矩陣R求R的特征值和特征向量計算累計貢獻率大于85%的前n個特征值的特征向量根據特征向量建立n個主成分(由變量的線性組合而成)2023/9/8根據n個特征向量建立因子載荷陣對因子載荷陣實行方差最大旋轉按照變量在每個因子上載荷陣的高低,分類。主成分分析因子分析由因子的線性組合來解釋變量90主成份分析和因子分析的優(yōu)點因子(主成份)之間的線性相關關系不顯著。主成份參與數據建模能夠有效地解決變量多重共線性等分析應用帶來的問題。因子能夠反映原有變量的絕大部分信息。因子的方差貢獻和方差貢獻率是衡量因子重要性的關鍵指標。該值越高,說明相應因子的重要性越高。aij因子載荷反映了某i個變量在第j因子上的相對重要性。因子得分是因子分析的最終體現。在后續(xù)的分析中可以用因子變量代替原有變量進行建模,或者利用因子變量對樣本分類、評價或排序等研究。2023/9/8913、聚類分析——K均值聚類分析K均值法是麥奎因(MacQueen,1967)提出的,這種算法的基本思想是將每一個樣品分配給最近中心(均值)的類中.具體的算法至少包括以下三個步驟:
1.將所有的樣品分成K個初始類;
2.通過歐氏距離將某個樣品劃入離中心最近的類中,并對獲得樣品與失去樣品的類,重新計算中心坐標;
3.重復步驟2,直到所有的樣品都不能再分配時為止。2023/9/8922023/9/8(二)屬性子集的選擇屬性子集的選擇是通過刪除不相關的屬性來減少數據量。屬性子集選擇的目標是找出最小屬性集,使得數據類的概率分布盡可能地接近使用所有屬性的原分布。2023/9/8932023/9/8屬性子集的選擇方法一般有兩個組成部分:一是高效率的屬性子集搜索策略,即在允許的時間內,用以找出最小的、最能描述類別的屬性組合的搜索方法;二是確定評價函數,是衡量屬性組合是否最優(yōu)的標準。屬性子集的選擇一般分兩步進行:首先,產生屬性子集;然后,對子集進行評價,如果滿足停止條件則停止,否則重復前述兩步直到條件滿足為止。2023/9/894通過該標準,要能夠衡量哪組屬性子集的分類效果最好,即使得數據類的概率分布盡可能地接近使用所有屬性的原分布;或者能夠衡量哪組屬性子集的分類效果最好
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯系上傳者。文件的所有權益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
- 4. 未經權益所有人同意不得將文件中的內容挪作商業(yè)或盈利用途。
- 5. 人人文庫網僅提供信息存儲空間,僅對用戶上傳內容的表現方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
- 6. 下載文件中如有侵權或不適當內容,請與我們聯系,我們立即糾正。
- 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 高考物理總復習專題三牛頓運動定律第2講牛頓第二定律、兩類動力學問題練習含答案
- 建筑場地土方運輸填筑
- 外墻真石漆工程勞務分包
- 高中英語 Unit 4 Wildlife protection Speaking and writing教案 新人教版必修2
- 八年級物理下冊 第十二章 簡單機械12.2 滑輪第2課時 輪軸和斜面教案 (新版)新人教版
- 高中化學 第一冊 第一章 打開原子世界的大門 1.2 同位素和相對原子質量教案 滬科版
- 2024-2025版新教材高中語文 第三單元 7 短歌行 歸園田居(其一)教案 新人教版必修上冊
- 2023九年級數學下冊 第27章 圓27.3 圓中的計算問題第1課時 弧長和扇形面積的計算教案 (新版)華東師大版
- 2024年秋八年級歷史上冊 第六單元 中華民族的抗日戰(zhàn)爭 第18課 從九一八事變到西安事變教案 新人教版
- 有關圓周率的數學家
- 2024-2025學年二年級上學期數學期中模擬試卷(蘇教版)(含答案解析)
- 禮修于心 儀養(yǎng)于行 課件-2023-2024學年高一上學期文明禮儀在心中養(yǎng)成教育主題班會
- 紅金大氣商務風領導歡迎會PPT通用模板
- 入團志愿書(2016版本)(可編輯打印標準A4) (1)
- 【全面解讀《國有建設用地使用權出讓地價評估技術規(guī)范【2018】4號文》
- 粉煤灰資源化綜合利用新技術
- 案件移交清單模板
- 等差數列及其通項公式
- 【土木工程本科畢業(yè)設計】《混凝土結構》課程設計
- 小學語文五年級上冊期中質量分析ppt課件
- 運動神經元病[共23頁]
評論
0/150
提交評論