使用 LIME 和 SHAP 更好地解釋機(jī)器學(xué)習(xí)模型的預(yù)測(cè)_第1頁(yè)
使用 LIME 和 SHAP 更好地解釋機(jī)器學(xué)習(xí)模型的預(yù)測(cè)_第2頁(yè)
使用 LIME 和 SHAP 更好地解釋機(jī)器學(xué)習(xí)模型的預(yù)測(cè)_第3頁(yè)
使用 LIME 和 SHAP 更好地解釋機(jī)器學(xué)習(xí)模型的預(yù)測(cè)_第4頁(yè)
使用 LIME 和 SHAP 更好地解釋機(jī)器學(xué)習(xí)模型的預(yù)測(cè)_第5頁(yè)
已閱讀5頁(yè),還剩2頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

使用LIME和SHAP更好地解釋機(jī)器學(xué)習(xí)模型的預(yù)測(cè)作為數(shù)據(jù)科學(xué)家或機(jī)器學(xué)習(xí)從業(yè)者,將可解釋性集成到機(jī)器學(xué)習(xí)模型中可以幫助決策者和其他利益相關(guān)者有更多的可見(jiàn)性并可以讓他們理解模型輸出決策的解釋。模型我們將使用來(lái)自Kaggle的糖尿病數(shù)據(jù)集。主要關(guān)注點(diǎn)是可解釋性,因此我們不會(huì)花太多時(shí)間嘗試擁有花哨的模型。#

Load

useful

libraries

import

pandas

as

pd

from

sklearn.model_selection

import

train_test_split

from

sklearn.ensemble

import

RandomForestClassifier

from

sklearn.model_selection

import

cross_val_score

`

#

Read

data

set

df

=

pd.read_csv("./data/diabetes.csv")

#

Separate

Features

and

Target

Variables

X

=

df.drop(columns='Outcome')

y

=

df['Outcome']

#

Create

Train

&

Test

Data

X_train,

X_test,

y_train,

y_test

=

train_test_split(

X,

y,test_size=0.3,

stratify

=y,

random_state

=

13)

#

Build

the

model

rf_clf

=

RandomForestClassifier(max_features=2,

n_estimators

=100

,bootstrap

=

True)

#

Make

prediction

on

the

testing

data

y_pred

=

rf_clf.predict(X_test)

#

Classification

Report

print(classification_report(y_pred,

y_test))

rf_clf.fit(X_train,

y_train)SHAP它是SHapleyAdditiveexPlanations的縮寫(xiě)。該方法旨在通過(guò)計(jì)算每個(gè)特征對(duì)預(yù)測(cè)的貢獻(xiàn)來(lái)解釋實(shí)例/觀察的預(yù)測(cè)。#

Import

the

SHAP

library

import

shap

#

load

JS

visualization

code

to

notebook

shap.initjs()

#

Create

the

explainer

explainer

=

TreeExplainer(rf_clf)

"""

Compute

shap_values

for

all

of

X_test

rather

instead

of

a

single

row,

to

have

more

data

for

plot.

"""

shap_values

=

explainer.shap_values(X_test)

print("Variable

Importance

Plot

-

Global

Interpretation")

figure

=

plt.figure()

shap.summary_plot(shap_values,

X_test)SHAP有許多用于模型解釋的可視化圖表,但我們將著重介紹其中的幾個(gè)。特征重要性的匯總圖print("Variable

Importance

Plot

-

Global

Interpretation")

figure

=

plt.figure()

shap.summary_plot(shap_values,

X_test)我們可以從上面的圖中得到以下的結(jié)論:它顯示了重要特征的列表,從最重要到最不重要(從上到下)。所有特征似乎對(duì)診斷為糖尿病(標(biāo)簽=1)或未診斷(標(biāo)簽=0)的兩個(gè)類別的貢獻(xiàn)均等,因?yàn)榛旧隙颊紦?jù)了矩形的50%。根據(jù)該模型,Glucose(葡萄糖)是對(duì)預(yù)測(cè)貢獻(xiàn)最大的特征。Age(年齡)是貢獻(xiàn)第二大的特征Pregnancies(懷孕)是預(yù)測(cè)能力最強(qiáng)的第5個(gè)特征。特定分類結(jié)果的匯總圖#

Summary

Plot

Deep-Dive

on

Label

1

shap.summary_plot(shap_values[1],

X_test)對(duì)于分類問(wèn)題,每個(gè)標(biāo)簽都有SHAP值。在我們的例子中,我們使用1(True)的預(yù)測(cè)顯示該類結(jié)果的匯總。該圖的表示內(nèi)容如下:特征的重要性和排序與匯總圖一樣,排名越上,重要性越高。圖中每個(gè)點(diǎn)代表單個(gè)數(shù)據(jù)實(shí)例的特征值。顏色表明該特征是高值(紅色)還是低值(藍(lán)色)。X軸代表對(duì)預(yù)測(cè)輸出的正或負(fù)貢獻(xiàn)當(dāng)我們將這些分析應(yīng)用于特征時(shí),我們得到以下結(jié)論:對(duì)于葡萄糖:我們看到大多數(shù)高值(紅點(diǎn))對(duì)預(yù)測(cè)輸出有正貢獻(xiàn)(在X軸上為正)。換句話說(shuō),如果單個(gè)數(shù)據(jù)實(shí)例的葡萄糖量很高,則其獲得1結(jié)果(被診斷患有糖尿病)的機(jī)會(huì)會(huì)大大增加,而低量(藍(lán)點(diǎn))會(huì)降低(負(fù)X軸值)被診斷為糖尿病的概率。對(duì)于年齡:對(duì)年齡進(jìn)行相同的分析。年齡越高,數(shù)據(jù)實(shí)例(患者)最有可能被診斷出患有糖尿病。另一方面,模型在涉及未成年人時(shí)似乎很混亂,因?yàn)槲覀兛梢栽诖怪本€(X軸=0)的每一側(cè)觀察到幾乎相同數(shù)量的數(shù)據(jù)點(diǎn)。由于年齡特征對(duì)分析來(lái)說(shuō)似乎令人困惑,我們可以使用下面的相關(guān)圖來(lái)獲得更細(xì)粒度的信息。相關(guān)圖(依賴圖)#

Dependence

Plot

on

Age

feature

shap.dependence_plot('Age',

shap_values[1],

X_test,

interaction_index="Age")從相關(guān)圖中我們可以清楚地看到,30歲以下的患者被診斷為糖尿病的風(fēng)險(xiǎn)較低,而30歲以上的患者被診斷為糖尿病的風(fēng)險(xiǎn)較高。更詳細(xì)的內(nèi)容可以參見(jiàn)(點(diǎn)擊:

用SHAP可視化解釋機(jī)器學(xué)習(xí)模型實(shí)用指南(上)

用SHAP可視化解釋機(jī)器學(xué)習(xí)模型實(shí)用指南(下)

又一機(jī)器學(xué)習(xí)模型解釋神器:ShapashLIME它是LocalInterpretableModelAgnosticExplanation的縮寫(xiě)。局部(Local)意味著它可以用于解釋機(jī)器學(xué)習(xí)模型的個(gè)別預(yù)測(cè)。要使用它也非常的簡(jiǎn)單,只需要2個(gè)步驟:(1)導(dǎo)入模塊,(2)使用訓(xùn)練值、特征和目標(biāo)擬合解釋器。#

Import

the

LimeTabularExplainer

module

from

lime.lime_tabular

import

LimeTabularExplainer

#

Get

the

class

names

class_names

=

['Has

diabetes',

'No

diabetes']

#

Get

the

feature

names

feature_names

=

list(X_train.columns)

#

Fit

the

Explainer

on

the

training

data

set

using

the

LimeTabularExplainer

explainer

=

LimeTabularExplainer(X_train.values,

feature_names

=

feature_names,

class_names

=

class_names,

mode

=

'classification')代碼中我們使用class_names創(chuàng)建了兩個(gè)標(biāo)簽,而不是1和0因?yàn)槭褂妹謺?huì)更加的直觀。對(duì)單例進(jìn)行解釋說(shuō)明這里的解釋是針對(duì)測(cè)試數(shù)據(jù)中的單個(gè)實(shí)例進(jìn)行的#Perform

the

explanation

on

the

8th

instance

in

the

test

data

explaination

=

explainer.explain_instance(X_test.iloc[8],

rf_clf.predict_proba)

#

show

the

result

of

the

model's

explaination

explaination.show_in_notebook(show_table

=

True,

show_all

=

Fals

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論