好文档就是一把金锄头!
欢迎来到金锄头文库![会员中心]
电子文档交易市场
安卓APP | ios版本
电子文档交易市场
安卓APP | ios版本

机器学习模型的可解释性算法的概念及其重要意义.docx

5页
  • 卖家[上传人]:亦***
  • 文档编号:291290195
  • 上传时间:2022-05-11
  • 文档格式:DOCX
  • 文档大小:225.19KB
  • / 5 举报 版权申诉 马上下载
  • 文本预览
  • 下载提示
  • 常见问题
    • 机器学习模型的可解释性算法的概念及其重要意义目前很多机器学习模型可以做出非常好的预测,但是它 们并不能很好地解释他们是如何进行预测的,很多数据科学 家都很难知晓为什么该算法会得到这样的预测结果这是非 常致命的,因为如果我们无法知道某个算法是如何进行预 测,那么我们将很难将其前一道其它的问题中,很难进行算 法的debugo本文介绍目前常见的几种可以提高机器学习模型的可解 释性的技术,包括它们的相对优点和缺点我们将其分为下 面几种:1. Partial Dependence Plot (PDP);Individual Conditional Expectation (ICE)2. Permuted Feature ImportanceGlobal Surrogate3. Local Surrogate (LIME)Shapley Value (SHAP)六大可解释性技术01Partial Dependence Plot (PDP)PDP是十几年之前创造的,它可以显示一个或两个特征 对机器学习模型的预测结果的边际效应它可以帮助研究人 员确定当大量特征调整时,模型预测会发生什么样的变化PDP(modelt X)上面图中,轴表示特征 的值,轴表示预测值。

      阴影 区域中的实线显示了平均预测如何随着值的变化而变化 PDP能很直观地显示平均边际效应,因此可能会隐藏异质效 应例如,一个特征可能与一半数据的预测正相关,与另一 半数据负相关那么PDP图将只是一条水平线02Individual Conditional Expectation (ICE)ICE和PDP非常相似,但和PDP不同之处在于,PDP绘 制的是平均情况,但是ICE会显示每个实例的情况ICE可 以帮助我们解释一个特定的特征改变时,模型的预测会怎么 变化ICE(model, X)如上图所示,与PDP不同,ICE曲线可以揭示异质关 系但其最大的问题在于:它不能像PDP那样容易看到平均 效果,所以可以考虑将二者结合起来一起使用03Permuted Feature ImportancePermuted Feature Importance的特征重要性是通过特 征值打乱后模型预测误差的变化得到的换句话说, Permuted Feature Importance有助于定义模型中的特征对 最终预测做出贡献的大小Feature_lmportance(model> X, y)如上图所示,特征f2在特征的最上面,对模型的误差 影响是最大的,fl在shuffle之后对模型却几乎没什么影 响,生息的特征那么对于模型是负面的贡献。

      04Global SurrogateGlobal Surrogate方法采用不同的方法它通过训练 一个可解释的模型来近似黑盒模型的预测首先,我们使用经过训练的黑盒模型对数据集进行预 测;然后我们在该数据集和预测上训练可解释的模型训练好的可解释模型可以近似原始模型,我们需要做的 就是解释该模型DataPrediction注:代理模型可以是任何可解释的模型:线性模型、决 策树、人类定义的规那么等Black BoxModelInterpretableModel使用可解释的模型来近似黑盒模型会引入额外的误差, 但额外的误差可以通过R平方来衡量由于代理模型仅根据黑盒模型的预测而不是真实结果进 行训练,因此全局代理模型只能解释黑盒模型,而不能解释 数据05Local Surrogate (LIME)LIME (Local Interpretable Model-agnostic Explanations)和 global surrogate 是不同的,因为它不 尝试解释整个模型相反,它训练可解释的模型来近似单个 预测LIME试图了解当我们扰乱数据样本时预测是如何变 化的Original Image P(tree frog) = 0.54Explanation上面左边的图像被分成可解释的局部。

      然后,LIME通 过“关闭” 一些可解释的组件(在这种情况下,使它们变 灰)来生成扰动实例的数据集对于每个扰动实例,可以使 用经过训练的模型来获取图像中存在树蛙的概率,然后在该 数据集上学习局部加权线性模型最后,使用具有最高正向 权重的成分来作为解释06Shapley Value (SHAP)Shapley Value的概念来自博弈论我们可以通过假设 实例的每个特征值是游戏中的“玩家”来解释预测每个玩 家的贡献是通过在其余玩家的所有子集中添加和删除玩家来 衡量的一名球员的Shapley Value是其所有贡献的加权总 和Shapley值是可加的,局部准确的如果将所有特征的 Shapley值加起来,再加上基值,即预测平均值,您将得到 准确的预测值这是许多其他方法所没有的功能higher 二 lowet该图显示了每个特征的Shapley值,表示将模型结果从 基础值推到最终预测的贡献红色表示正面贡献,蓝色表示 负面贡献 小结机器学习模型的可解释性是机器学习中一个非常活跃而 且重要的研究领域本文中我们介绍了 6种常用的用于理解 机器学习模型的算法大家可以依据自己的实践场景进行使 用。

      点击阅读更多内容
      关于金锄头网 - 版权申诉 - 免责声明 - 诚邀英才 - 联系我们
      手机版 | 川公网安备 51140202000112号 | 经营许可证(蜀ICP备13022795号)
      ©2008-2016 by Sichuan Goldhoe Inc. All Rights Reserved.