AttFC: Attention Fully-Connected Layer for Large-Scale Face Recognition with One GPU

作者: Zhuowen Zheng, Yain-Whar Si, Xiaochen Yuan, Junwei Duan, Ke Wang, Xiaofan Li, Xinyuan Zhang, Xueyuan Gong

发布时间: 2025-03-11

来源: arxiv

研究方向: 人脸识别,深度学习,注意力机制

主要内容

针对大规模人脸识别数据集训练时FC层参数过多导致的计算资源消耗大、训练困难等问题,提出了一种新的注意力全连接层(AttFC),通过注意力机制动态生成和存储类别中心,减少参数量,降低计算资源需求。

主要贡献

1. 提出了一种新的注意力全连接层(AttFC),有效减少了人脸识别模型在大型数据集上的训练资源消耗。

2. 设计了动态类别容器(DCC)来存储类别中心,显著降低了参数数量。

3. 利用注意力机制调整不同质量图像在生成类别中心时的贡献,使生成的类别中心更接近真实类别中心。

4. 在保持模型性能的同时,显著降低了计算资源消耗,提高了模型的可扩展性。

研究方法

1. 注意力全连接层(AttFC)

2. 动态类别容器(DCC)

3. 注意力加载器

4. 特征编码器

5. 类别编码器

6. Momentum Contrast

实验结果

在MS1MV3和WebFace等大型数据集上进行了实验,结果表明,与传统的FC层相比,AttFC在降低计算资源消耗的同时,仍能保持优异的性能。

未来工作

探索如何利用单张图像生成特征和对应的类别中心,进一步降低计算资源消耗。