最近发现,
SHAP可解释分析
出现了挺多一区的文章,而且都是十几分的。简单看了一下内容,基本都是把SHAP应用在了一个新的领域,再加上个”可解释“的噱头。
这种方法几行代码就可以实现,通过计算每个特征对最终预测的贡献(SHAP值),能帮我们理解和解释复杂的机器学习模型,显著提高模型透明度和可信度。
这些优势让SHAP可解释分析在多个领域都有广泛应用,特别是医疗、金融等行业,因此关于它的研究
无论在学术界还是工业界都非常热门,顶会顶刊文章数目可观,想发论文的同学可以考虑。
我这边为了给大家提供新思路,已经整理好了
9篇
SHAP可解释分析最新paper
,可参考的idea也提炼了,基本都有开源代码,大家论文加油~
扫码添加小享,
回复“
shap可解释
”
免费获取
全部论文+开源代码
Interpretable machine learning with tree-based shapley additive explanations: Application to metabolomics datasets for binary classification
方法:
作者引入了基于树的Shapley值解释方法(Tree SHAP)。研究方法包括比较PLS-DA和随机森林、梯度提升、XGBoost等树模型在三个代谢组学数据集上的分类性能。通过尿液代谢组学数据集,Tree SHAP识别出睾酮代谢物是区分生物性别的重要因素。
创新点:
-
引入Shapley值和SHAP算法用于树模型,提出了Tree SHAP,能够精确计算条件期望下的Shapley值。
-
通过Tree SHAP的全球特征重要性分数和局部解释能力,识别了尿液中的睾酮代谢物作为生物性别的重要区分标记。
-
Tree SHAP方法的本地和全球解释增强了代谢组学数据分析的解释能力。
SHAP-IQ: Unified approximation of any-order shapley interactions
方法:
论文提出了一种新的方法SHAP-IQ,用于有效计算任意阶的Shapley交互指数(CII),通过采样近似方法解决现有研究中的计算复杂性和理论保证不足的问题,填补了现有方法的研究空白,并在多种机器学习模型上验证了其优越性。
创新点:
-
提出了CII(任意阶卡迪纳尔交互指数)的新表示法,使得所有模型评估可以同时计算,提供了一个高效的估计器。
-
SHAP-IQ 被证明是无偏且一致的,并提供了一般的逼近界限。
-
对Shapley值(SV)找到了新表示,使其与Unbiased KernelSHAP相关联,同时大大简化了计算。
扫码添加小享,
回复“
shap可解释
”
免费获取
全部论文+开源代码
SHapley Additive exPlanations (SHAP) for Efficient Feature Selection in Rolling Bearing Fault Diagnosis
方法:
作者开发了一种创新方法,通过三个阶段的机器学习模型及解释性人工智能技术(如SVM和SHAP),提高滚动轴承故障检测、分类和严重性估计的效率和准确性,填补现有研究空白,并在以Case Western Reserve University数据集为基准的验证中实现了超过90%的准确率。
创新点:
-
提出了一个分三个阶段的故障诊断流程,每个阶段都为下一个阶段提供信息,以提高诊断的准确性。
-
使用了可解释的人工智能技术来选择最重要的特征,使模型的决策过程更加透明。
-
即使只用少量特征,支持向量机模型也能在故障诊断中达到超过90%的准确率。