Walking the Web of Concept-Class Relationships in Incrementally Trained Interpretable Models

作者: Susmit Agrawal, Deepika Vemuri, Sri Siddarth Chakaravarthy P, Vineeth N. Balasubramanian

发布时间: 2025-02-28

来源: arxiv

研究方向: 可解释的增量学习

主要内容

本文研究了在增量学习场景下,如何利用概念来构建可解释的神经网络模型。该研究重点在于如何在新的学习体验中引入新的概念,同时保留和扩展之前学到的概念及其与类别的关联。

主要贡献

1. 提出了一种新的增量学习概念模型方法,使模型能够动态适应新的类别和概念。

2. 引入了多模态概念嵌入,结合图像嵌入和可解释的概念锚点,以进行分类。

3. 在增量学习和标准监督学习设置中进行了广泛的实验,实现了最先进的分类性能。

4. 提出了三个新的评估指标:概念-类别关系遗忘、概念线性准确性和活动概念比率。

5. 通过在输入图像中定位视觉概念,提供后置解释,增强了模型的解释能力。

研究方法

1. 多模态图像-概念编码器:融合视觉信息和文本概念,创建多模态图像-概念嵌入。

2. 参数自由分类器:使用多模态概念嵌入和类别的文本描述进行分类。

3. 概念神经元:预测图像中是否存在给定概念,并允许对模型进行解释。

4. 概念锚定:将多模态概念嵌入与自然语言概念锚点对齐,以提供可解释性。

实验结果

在CIFAR-100、ImageNet-100和CUB200数据集上进行了实验,结果表明MuCIL在增量学习和标准监督学习设置中均优于基线模型,且遗忘率较低。

未来工作

研究如何在没有重放的情况下保留概念-类别关系,以及开发改进的干预机制,以在体验之间进行干预。此外,将多模态概念编码器扩展到其他输入模态,如音频,也是一个有趣的未来研究方向。