SHAP可解释性与聚类分析的结合是当前机器学习可解释性研究的热门方向之一。
这种结合不仅能深入理解模型的决策过程,还能通过聚类揭示数据中的潜在模式,进一步提升模型的可解释性和性能,在医疗、金融风控、电子商务等领域应用超级广泛,是个
研究价值高、创新空间大
的方向,非常适合我们做创新。
目前,这方向主要围绕基于SHAP值的监督聚类、聚类辅助的SHAP解释增强、交互式特征分析与模式发现等核心思路进行研究,如果大家想发论文,也建议从这些角度入手。
感兴趣的同学可以看我整理的
11个
SHAP可解释性+聚类分析参考方案
,开源的代码都附上了,有问题欢迎评论区交流~
扫码
添加小享,回复“
shap聚类
”
免费获取
全部论文+开源代码
K-shap: Policy clustering algorithm for anonymous multi-agent state-action pairs
方法:
论文通过结合SHAP可解释性和聚类分析,提出了一种新的方法来处理匿名多智能体系统中的策略识别问题,不仅能够解释智能体的行为,还能通过聚类分析将不同的行为模式分组,为理解复杂多智能体系统提供了新的视角。
创新点:
-
K-SHAP算法是第一个在匿名状态-动作对下进行策略聚类的方法。
-
K-SHAP (Z)通过应用UMAP对SHAP值进行2维嵌入,显著提升了聚类性能。
-
K-SHAP算法在使用多种状态特征决策的潜在策略下最为有效,即使只使用少量特征也能区分策略。
Beyond explaining: XAI-based Adaptive Learning with SHAP Clustering for Energy Consumption Prediction
方法:
论文提出了一种基于SHAP聚类的自适应学习方法(SCAL),用于处理数据分布偏移问题,并通过解释模型预测来动态调整模型,以提高模型的预测性能和可解释性。
创新点:
-
提出了一种结合可解释人工智能(XAI)技术与自适应学习的方法,以增强能源消耗预测模型的性能。
-
该研究通过利用从SHAP聚类中获得的信息,迭代优化模型,避免过拟合,并提高模型的泛化能力。
-
提出了一个三阶段过程:(1)获取SHAP值以解释模型预测,(2)聚类SHAP值以识别不同模式和异常值,(3)根据SHAP聚类特征优化模型。
扫码
添加小享,回复“
shap聚类