网易首页 > 网易号 > 正文 申请入驻

可解释的AI (XAI):如何使用LIME 和 SHAP更好地解释模型的预测

0
分享至

作为数据科学家或机器学习从业者,将可解释性集成到机器学习模型中可以帮助决策者和其他利益相关者有更多的可见性并可以让他们理解模型输出决策的解释。

在本文中,我将介绍两个可以帮助了解模型的决策过程的模型 LIME 和 SHAP。

模型

我们将使用来自 Kaggle 的糖尿病数据集。 主要关注点是可解释性,因此我们不会花太多时间尝试拥有花哨的模型。

# Load useful libraries
import pandas as pd
from sklearn.model_selection import train_test_split
from sklearn.ensemble import RandomForestClassifier
from sklearn.model_selection import cross_val_score
`
# Read data set
df = pd.read_csv("./data/diabetes.csv")
# Separate Features and Target Variables
X = df.drop(columns='Outcome')
y = df['Outcome']
# Create Train & Test Data
X_train, X_test, y_train, y_test = train_test_split(X, y,test_size=0.3,
stratify =y,
random_state = 13)
# Build the model
rf_clf = RandomForestClassifier(max_features=2, n_estimators =100 ,bootstrap = True)
# Make prediction on the testing data
y_pred = rf_clf.predict(X_test)
# Classification Report
print(classification_report(y_pred, y_test))
rf_clf.fit(X_train, y_train)

SHAP

它是 SHapley Additive exPlanations的缩写。 该方法旨在通过计算每个特征对预测的贡献来解释实例/观察的预测。

# Import the SHAP library
import shap
# load JS visualization code to notebook
shap.initjs()
# Create the explainer
explainer = TreeExplainer(rf_clf)
"""
Compute shap_values for all of X_test rather instead of
a single row, to have more data for plot.
"""
shap_values = explainer.shap_values(X_test)
print("Variable Importance Plot - Global Interpretation")
figure = plt.figure()
shap.summary_plot(shap_values, X_test)

SHAP有许多用于模型解释的可视化图表,但我们将着重介绍其中的几个。

特征重要性的汇总图

print("Variable Importance Plot - Global Interpretation")
figure = plt.figure()
shap.summary_plot(shap_values, X_test)

我们可以从上面的图中得到以下的结论:

1. 它显示了重要特征的列表,从最重要到最不重要(从上到下)。

1. 所有特征似乎对诊断为糖尿病(标签 = 1)或未诊断(标签 = 0)的两个类别的贡献均等,因为基本上都占据了矩形的 50%。

1. 根据该模型,Glucose(葡萄糖)是对预测贡献最大的特征。Age(年龄)是贡献第二大的特征

1. Pregnancies(怀孕)是预测能力最强的第 5 个特征。

特定分类结果的汇总图

# Summary Plot Deep-Dive on Label 1
shap.summary_plot(shap_values[1], X_test)

对于分类问题,每个标签都有 SHAP 值。在我们的例子中,我们使用 1 (True) 的预测显示该类结果的汇总。该图的表示内容如下:

· 特征的重要性和排序与汇总图一样,排名越上,重要性越高。

· 图中每个点代表单个数据实例的特征值。

· 颜色表明该特征是高值(红色)还是低值(蓝色)。

· X 轴代表对预测输出的正或负贡献

当我们将这些分析应用于特征时,我们得到以下结论:

对于葡萄糖:我们看到大多数高值(红点)对预测输出有正贡献(在 X 轴上为正)。换句话说,如果单个数据实例的葡萄糖量很高,则其获得1结果(被诊断患有糖尿病)的机会会大大增加,而低量(蓝点)会降低(负 X 轴值)被诊断为糖尿病的概率。

对于年龄:对年龄进行相同的分析。年龄越高,数据实例(患者)最有可能被诊断出患有糖尿病。

另一方面,模型在涉及未成年人时似乎很混乱,因为我们可以在垂直线(X 轴 = 0)的每一侧观察到几乎相同数量的数据点。由于年龄特征对分析来说似乎令人困惑,我们可以使用下面的相关图来获得更细粒度的信息。

相关图(依赖图)

# Dependence Plot on Age feature
shap.dependence_plot('Age', shap_values[1], X_test, interaction_index="Age")

从相关图中我们可以清楚地看到,30岁以下的患者被诊断为糖尿病的风险较低,而30岁以上的患者被诊断为糖尿病的风险较高。

LIME

它是 Local Interpretable Model Agnostic Explanation的缩写。 局部(Local )意味着它可以用于解释机器学习模型的个别预测。

要使用它也非常的简单,只需要2个步骤:(1) 导入模块,(2) 使用训练值、特征和目标拟合解释器。

# Import the LimeTabularExplainer module
from lime.lime_tabular import LimeTabularExplainer
# Get the class names
class_names = ['Has diabetes', 'No diabetes']
# Get the feature names
feature_names = list(X_train.columns)
# Fit the Explainer on the training data set using the LimeTabularExplainer
explainer = LimeTabularExplainer(X_train.values, feature_names = feature_names,
class_names = class_names, mode = 'classification')

代码中我们使用class_names创建了两个标签,而不是 1 和 0因为使用名字会更加的直观。

对单例进行解释说明

这里的解释是针对测试数据中的单个实例进行的

#Perform the explanation on the 8th instance in the test data
explaination = explainer.explain_instance(X_test.iloc[8], rf_clf.predict_proba)
# show the result of the model's explaination
explaination.show_in_notebook(show_table = True, show_all = False)

该模型以 73% 的置信度预测该特定患者患有糖尿病,并解释该预测,因为血糖水平高于 99,血压高于 70。在右侧,我们可以看到患者特征的值 。

总结

本文中接单的介绍了如何使用 SHAP 和 LIME 解释您的机器学习模型。 现在,你也可以对构建的模型进行可解释性分析了,这可以帮助决策者和其他利益相关者获得更多的可见性并理解导致模型输出的决策的解释。 ,你可以在下面的资源中找到本文包含的两个python包,阅读他们的文档可以找到更加高级的使用方式。

作者:Zoumana Keita

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
卡罗拉锐放价格再下探!优惠高达3.3万,网友:这次真心动了

卡罗拉锐放价格再下探!优惠高达3.3万,网友:这次真心动了

汽车网评
2026-01-16 22:09:53
下周,贵阳将有冻雨或雨夹雪!

下周,贵阳将有冻雨或雨夹雪!

鲁中晨报
2026-01-16 18:39:03
浙江AI直接揪出贪官!这波操作太硬核!

浙江AI直接揪出贪官!这波操作太硬核!

达文西看世界
2026-01-15 16:32:35
退休人员注意,人社部表态!2026养老金或保持22连涨,能涨2%吗?

退休人员注意,人社部表态!2026养老金或保持22连涨,能涨2%吗?

李健政观察
2026-01-16 09:21:47
伊朗亿万富豪因支持抗议者被抓,资产被没收

伊朗亿万富豪因支持抗议者被抓,资产被没收

桂系007
2026-01-15 23:49:04
南博风波后续:全网追查“借画不还”的神秘老同志,揭开历史迷雾

南博风波后续:全网追查“借画不还”的神秘老同志,揭开历史迷雾

公子麦少
2025-12-21 14:54:43
原来他就是聂卫平长子,移民日本改国籍娶日本妻,拒绝让儿子姓聂

原来他就是聂卫平长子,移民日本改国籍娶日本妻,拒绝让儿子姓聂

一娱三分地
2026-01-15 16:10:35
歼-20列装15年:从对标F-22到领跑全球,后发优势如何铸就传奇?

歼-20列装15年:从对标F-22到领跑全球,后发优势如何铸就传奇?

烈史
2026-01-15 16:59:05
都有点心疼贾国龙了……

都有点心疼贾国龙了……

非典型佛教徒
2026-01-17 00:02:42
功德林特赦第一人吴绍周:1952年就被特赦出狱,隐姓埋名平凡生活

功德林特赦第一人吴绍周:1952年就被特赦出狱,隐姓埋名平凡生活

古书记史
2026-01-12 21:52:59
冯德莱恩美梦彻底破灭,欧盟最终还是选择了妥协!

冯德莱恩美梦彻底破灭,欧盟最终还是选择了妥协!

沙雕小琳琳
2026-01-16 01:04:59
广东vs北控前瞻:杜锋主场40分大败欲反弹,胡明轩徐杰PK廖三宁

广东vs北控前瞻:杜锋主场40分大败欲反弹,胡明轩徐杰PK廖三宁

狼叔评论
2026-01-17 02:10:15
高市发出登岛信号,中国海警12小时带炮守钓鱼岛

高市发出登岛信号,中国海警12小时带炮守钓鱼岛

星星会坠落
2026-01-17 01:46:35
男生考上北大被父亲暴打,走投无路报警,才知父亲真实身份

男生考上北大被父亲暴打,走投无路报警,才知父亲真实身份

纸鸢奇谭
2024-10-02 19:26:12
美军上将大胆预言:解放军的统一之战,将以这个名义打响第一枪?

美军上将大胆预言:解放军的统一之战,将以这个名义打响第一枪?

真正能保护你的
2026-01-13 01:19:02
台媒:高雄一渔港发现浮尸,台海军证实死者为一名现役海军士官

台媒:高雄一渔港发现浮尸,台海军证实死者为一名现役海军士官

环球网资讯
2026-01-14 17:49:18
巩固东部第一!布克伤停活塞16分逆转太阳 狄龙6犯阿伦33分

巩固东部第一!布克伤停活塞16分逆转太阳 狄龙6犯阿伦33分

醉卧浮生
2026-01-16 10:51:51
曹丕"荒淫无度"在位7年就驾崩?以他的玩法,40岁实属是高寿!

曹丕"荒淫无度"在位7年就驾崩?以他的玩法,40岁实属是高寿!

沈言论
2026-01-07 18:55:03
证监会出手!A股公司高管被立案,涉嫌短线交易!

证监会出手!A股公司高管被立案,涉嫌短线交易!

证券时报e公司
2026-01-16 20:20:00
第一个力挺丹麦的战友出现!只要美国敢出兵,立马使出2大绝招

第一个力挺丹麦的战友出现!只要美国敢出兵,立马使出2大绝招

军机Talk
2026-01-16 12:10:33
2026-01-17 02:51:00
deephub incentive-icons
deephub
CV NLP和数据挖掘知识
1892文章数 1443关注度
往期回顾 全部

科技要闻

贾国龙与罗永浩被禁言,微博CEO回应

头条要闻

美媒披露:美国出动海军陆战队和福特号航母

头条要闻

美媒披露:美国出动海军陆战队和福特号航母

体育要闻

全队身价=登贝莱,他们凭什么领跑法甲?

娱乐要闻

李湘翻车,早就有迹可循!

财经要闻

清流|酒店商家在携程和美团之间沦为炮灰

汽车要闻

方程豹品牌销量突破30万辆 2026年还将推出轿跑系列

态度原创

家居
时尚
艺术
数码
教育

家居要闻

岁月柔情 现代品质轻奢

今年冬天最时髦保暖的4组搭配,照着穿美出新高度!

艺术要闻

180米!上海北外滩新地标,设计藏了3个“小心机”

数码要闻

熊猫MX34U7 34英寸带鱼屏显示器发布,售价1299元

教育要闻

初试成绩出来了!404分...

无障碍浏览 进入关怀版