AA-CLIP: Enhancing Zero-shot Anomaly Detection via Anomaly-Aware CLIP
作者: Wenxin Ma, Xu Zhang, Qingsong Yao, Fenghe Tang, Chenxu Wu, Yingtai Li, Rui Yan, Zihang Jiang, S. Kevin Zhou
发布时间: 2025-03-12
来源: arxiv
研究方向: 零样本异常检测、视觉-语言模型、CLIP模型
主要内容
本文提出了一种名为AA-CLIP的模型,旨在通过增强CLIP模型在文本和视觉空间中的异常识别能力,来解决CLIP模型在零样本异常检测任务中的异常无意识问题。
主要贡献
1. 提出了一种名为AA-CLIP的模型,通过两阶段策略提高了CLIP在零样本异常检测任务中的性能。
2. 使用残差适配器进行高效适配,同时保持模型的泛化能力。
3. 在工业和医学领域取得了最先进的零样本异常检测性能,证明了方法的有效性。
研究方法
1. 两阶段策略:第一阶段,创建异常感知文本锚点以区分正常和异常语义;第二阶段,将视觉特征与这些锚点对齐以进行精确的异常定位。
2. 残差适配器:用于在浅层中引入轻量级适配器,以实现模型的微调。
3. Disentangle Loss:用于增强正常和异常嵌入之间的分离。
实验结果
在多个数据集上进行了实验,结果表明AA-CLIP在零样本异常检测任务中取得了最先进的性能,尤其是在数据量有限的情况下。
未来工作
探索CLIP在解决其他“无意识”问题中的应用,例如上下文感知能力或对领域相关细微差别的特异性。