可解释机器学习最新综述:应用于实时场景中的机遇与挑战(3)
2023-02-28 13:42来源:未知编辑:admin
扫一扫
分享文章到微信
扫一扫
关注99科技网微信公众号
图 2 模型解释加速算法的分类。
非批量解释的加速方法
非批量解释的加速是指直接加速解释量的估计,即直接加速式(1)以及式(2)或者其他解释量的估计。该类方法可以分为以下几种技术路线:优化特征选取、优化采样过程、基于近似算法加速等。下面详细描述每一种技术路线的代表工作。
优化特征选取:这类方法通过去掉在Shapley解释的估计过程中影响较小的特征来减少计算复杂度。比较有代表性的工作是 SHEAR [1]。SHEAR 选取每个特征与待估计特征的相互作用强度来选取少量的伴随特征,这样。其他有代表性的工作是 L-Shapley 和 C-Shapley [2]。该工作在图结构的解释中提出两种概念:Local Shapley 和 Connected Shapley,分别指的是每个节点在其所在子图中的贡献以及边缘贡献。L-Shapley 和 C-Shapley 可以通过对邻居节点的枚举快速估计。进一步,该工作指出 L-Shapley 和 C-Shapley 在某些条件下是 Shapley 解释的无偏估计。因此可通过估计 L-Shapley 和 C-Shapley 来近似加速 Shapley 解释。
优化采样过程:这类方法通过优化采样分布来加速Shapley解释估计的收敛速度。比较有代表性的工作是 APS [3] 和 OSC [4]。APS 的全称是 Antithetical Permutation Sampling。该工作提出一种对称采样策略(Antithetical Sampling)来减小 Permutation Sampling 对于Shapley解释的估计方差,从而加速估计值收敛与Shapley解释;同理,OSC 是 Orthogonal Spherical Codes 的缩写。该方法提出了在希尔伯特空间选取相互正交的特征排序。这种特征排序可以应用到估计Shapley解释中来提高估计值收敛于真值的速度。
基于近似算法加速:这类方法通过将不可解释的深度模型近似为可解释的模型进而实现快速得到解释。具有代表性的工作是 Tree-SHAP [5] 和 Fast-IG [6]。Tree-SHAP 是针对树模型的解释算法,其时间复杂度是 O(TLD2),其中T、L和D分别是树的数量、平均叶子数和平均深度。实际应用中,可以用树模型来逼近神经网络这类黑盒模型的输出,进而用树模型的解释来代表神经网络的解释;Fast-IG 是一种加速积分梯度的算法。该工作发现具有非负齐次性的模型的积分梯度解释可以通过模型的一次前馈传播估计得到。但是神经网络模型不具有非负齐次的性质,因此该工作提出了将神经网络模型进行适当的近似从而满足非负齐次性,进而实现加速模型解释。基于近似算法的加速由于对原模型进行了一定近似,所以会影响模型的性能(准确率、召回率、F1得分等)。
批量解释的方法
批量解释方法是针对实时场景的解释方法。从本文前几段的内容可知,非批量解释方法对每一个样本的解释都是分别进行的,即对每个样本都分别执行一次解释过程,如图3(a)所示。这无疑是浪费时间的。为了实现高速估计模型解释,一些工作开创性地提出了批量解释方法,如图3(b)所示。
99科技网:http://www.99it.com.cn
相关推荐

DeepMin d 的 Alpha 系列 AI 智能体家族又多了一个成员——AlphaTensor,这次是用来发
快资讯2022-10-10

Geoffrey Hinton是十年前深度学习初创“革命”的开拓者之一。他看来,未来 AI 技
快资讯2022-09-21
