Concealed Adversarial attacks on neural networks for sequential data
作者: Petr Sokerin, Dmitry Anikin, Sofia Krehova, Alexey Zaytsev
发布时间: 2025-03-03
来源: arxiv
研究方向: 时间序列数据与深度学习
主要内容
该研究针对时间序列数据中的神经网络模型,提出了一种隐蔽对抗攻击方法。该方法旨在生成难以被人类或模型检测到的对抗样本,从而提高时间序列模型的鲁棒性。
主要贡献
1. 提出了一种新的隐蔽对抗攻击方法,该方法在时间序列领域具有更高的隐蔽性和效率。
2. 提出了一种训练判别器的方法,该方法可以检测各种强度的攻击。
3. 通过在UCR时间序列数据集上的实验,验证了该方法在隐蔽性和效率之间的权衡上的优越性。
4. 提供了详细的实验结果和分析,为时间序列模型的设计和防御提供了参考。
5. 开源了实现代码和实验数据,促进了相关领域的研究和复现。
研究方法
1. 使用判别器来检测对抗样本,并将判别器的损失与目标模型的损失结合起来。
2. 通过迭代方法生成对抗样本,并逐渐减小攻击强度。
3. 使用不同的聚合函数来平衡攻击效率和隐蔽性。
4. 在UCR时间序列数据集上对多种模型和攻击方法进行了实验。
5. 使用F1分数、效率和隐蔽性等指标来评估攻击效果。
实验结果
实验结果表明,该方法在隐蔽性和效率之间取得了良好的平衡。与传统的对抗攻击方法相比,该方法生成的对抗样本更难以被检测到,同时仍然能够有效地欺骗目标模型。
未来工作
未来工作将集中在以下几个方面:进一步优化攻击方法,提高隐蔽性和效率;研究针对非梯度攻击的隐蔽对抗攻击方法;将该方法应用于其他领域,如自然语言处理和计算机视觉;研究自适应的防御机制,以应对不断发展的攻击方法。