可解释机器学习最新综述:应用于实时场景中的机遇与挑战(4)
2023-02-28 13:42来源:未知编辑:admin
扫一扫
分享文章到微信
扫一扫
关注99科技网微信公众号
总的来说,批量解释方法假设模型解释的结果服从某种分布,这种分布可以通过一个全局解释器来学习。学习过程在训练集上进行,训练好的解释器可以在实际场景中批量生成解释。批量解释方法是模型解释加速的质的飞跃。
批量模型解释的技术路线有:基于预测模型、基于生成模型和基于强化学习等。下面详细叙述每一条技术路线的代表工作。
图3 (a)非批量解释方法和(b)批量解释方法。
基于预测模型:这类方法通过监督或者半监督的方式来学习全局解释器。代表作有 L2X [7]、FastSHAP [8] 以及 CORTX [9]。L2X 训练全局解释器对数据特征进行遮掩,训练目标是遮掩的特征不影响原模型的推理过程。这样未被遮掩的特征就是重要特征。L2X 只能将特征大致分为重要的和不重要的。FastSHAP 训练全局解释器生成Shapley解释,训练目标是Shapley解释的必要条件:任何一个特征子集的Shapley解释之和表征了原模型基于该特征子集的预测值。FastSHAP 可以快速生成较为精确的解释,但是需要利用原模型进行监督训练。CORTX 开创性地提出通过对比学习的方式来预训练解释器,而后通过少量的解释标注来 Fine-tune 解释器,从而实现轻量级的解释器训练以及实际场景中的高精度解释。
基于生成模型:这类方法通过训练生成模型来快速提供因果解释。代表作有 MCS [10] 和 DiVE [11]。MCS 通过训练一个条件对抗生成网络来生成反事实样本。反事实样本可以推翻原模型的预测结果,这样从原样本到反事实样本变化量就是模型预测值的因果解释。DiVE 通过一个变分自编码器来学习特征空间的非耦合隐空间(特征在原空间中是相互耦合的),进而在隐空间中生成反事实样本,在通过变分自编码器把反事实样本映射至原空间进而估计解释值。
基于强化学习:这类方法通过强化学习来优化反事实样本的生成过程。代表作有 RELAX [12] 和 FASTAR [13]。这类将原样本变换为反事实样本的过程抽象为马尔科夫过程决策过程,即原样本在每个时刻都发生一点变化,经过多个时刻的演化最终变为反事实样本。RELAX 和 FASTAR 用强化学习的方式学习一个演化策略。原样本经过演化策略生成的一系列变化量成为反事实样本,累计变化量就是原模型的因果解释值。
现有工作的局限性及未来研究的难点
解释性能和速度的此消彼长:目前大部分的模型解释方法都存在解释性能和速度的此消彼长,例如 KernelSHAP [14]、LIME [15]、IG [16] 等。
对原模型采样更多的预测值可以提高解释的精度,但是会降低解释生成的速度。此外,批量解释方法需要在训练集上学习全局解释器。训练过程的时间及空间消耗和训练精度之间也存在类似的平衡关系。已有工作为可解释机器学习提供了基准,未来解释算法需要能达到性能和速度二者更优的平衡。
99科技网:http://www.99it.com.cn
相关推荐

DeepMin d 的 Alpha 系列 AI 智能体家族又多了一个成员——AlphaTensor,这次是用来发
快资讯2022-10-10

Geoffrey Hinton是十年前深度学习初创“革命”的开拓者之一。他看来,未来 AI 技
快资讯2022-09-21
