Uncertainty-Aware Explainable Federated Learning

作者: Yanci Zhang, Han Yu

发布时间: 2025-03-10

来源: arxiv

研究方向: 联邦学习(FL)与可解释人工智能(XAI)

主要内容

提出了一种名为UncertainXFL的联邦学习框架,该框架结合了联邦学习和可解释人工智能,并考虑了不确定性信息。它旨在解决联邦学习中的隐私保护和可解释性挑战,通过在决策过程中生成解释并提供关于这些解释不确定性的信息来提高模型的可靠性和透明度。

主要贡献

1. 提出了UncertainXFL,第一个在联邦学习环境中明确提供解释不确定度评估的框架。

2. 在联邦学习训练过程中,通过综合和冲突-free的方式生成和聚合解释信息。

3. 通过优先考虑具有最可靠解释的客户端,使用更高的权重在模型聚合过程中指导FL训练过程。

4. 在实验中证明,UncertainXFL在模型准确性和解释准确性方面均优于不考虑不确定性的现有最先进模型。

研究方法

1. 基于深度学习的特征提取

2. 基于概念的网络生成逻辑规则作为解释

3. 使用不确定性值计算规则的不确定性

4. 在规则聚合中使用不确定性信息

5. 基于规则的聚合方法以避免冲突

6. 使用不确定性引导的贪婪聚合方法进行模型聚合

实验结果

在CUB和MNIST(Even/Odd)数据集上进行的实验表明,UncertainXFL在模型准确性和解释准确性方面均优于不考虑不确定性的现有最先进模型。在CUB数据集上,UncertainXFL的模型准确率达到了90.34%,规则准确率为90.84%,规则保真度为99.56%。在MNIST数据集上,UncertainXFL的模型准确率为95.71%,规则准确率为91.08%,规则保真度为91.40%。

未来工作

计划将模型不确定性(例如,模型的知识不足或数据表示不佳)与当前使用的随机不确定性相结合。目标是创建一个更稳健的FL系统,它考虑了两种类型的不确定性,并为不同场景提供更可靠和精确的解释。这将涉及集成先进的测量和包括模型不确定性在内的方法,以增强系统的有效性和可靠性,特别是在应用于新环境时。