Dynamic Activation with Knowledge Distillation for Energy-Efficient Spiking NN Ensembles

作者: Orestis Konstantaropoulos, Theodoris Mallios, Maria Papadopouli

发布时间: 2025-02-24

来源: arxiv

研究方向: 神经网络与人工智能

主要内容

本文提出了一种名为Spiking Neural Ensemble (SNE)的新型系统,旨在通过结合知识蒸馏和集成学习来缩小人工神经网络 (ANN) 和脉冲神经网络 (SNN) 之间的性能差距。该系统利用一个基础AI模型作为教师网络,指导一组较小的学生SNN形成脉冲神经网络集成 (SNE),以实现高精度和低能耗。

主要贡献

1. 提出了Spiking Neural Ensemble (SNE),结合知识蒸馏和集成学习,提高了SNN的能量效率和精度。

2. 通过动态激活SNN模型子集,实现了精度和能耗之间的平衡,实现了显著的能耗节省。

3. 通过知识蒸馏和特征空间解耦,显著提高了SNN的准确性。

4. 在CIFAR-10数据集上,SNE在减少20倍计算需求的同时,只降低了2%的精度。

5. 在噪声条件下,SNE比其ANN教师网络具有更高的鲁棒性。

研究方法

1. 知识蒸馏

2. 集成学习

3. 动态神经网络

4. 特征空间解耦

5. 脉冲神经网络

6. Heaviside步函数近似

实验结果

在CIFAR-10数据集上,SNE在减少20倍计算需求的同时,只降低了2%的精度。此外,通过选择合适的活跃学生数量,SNE可以减少高达65%的能耗,同时只降低2.07%的精度。在低噪声输入下,集成表现出一致的性能,并在高噪声条件下表现出增强的鲁棒性。与固定分区方案相比,解耦过程在CIFAR-10数据集上实现了高达2.4%的准确性提升。

未来工作

探索学生之间的层次或顺序处理,以进一步优化性能。开发辅助网络,以在推理期间根据样本特定决策选择哪些学生保持活跃。