LLMs Have Rhythm: Fingerprinting Large Language Models Using Inter-Token Times and Network Traffic Analysis
作者: Saeif Alhazbi, Ahmed Mohamed Hussain, Gabriele Oligeri, Panos Papadimitratos
发布时间: 2025-03-03
来源: arxiv
研究方向: 安全与隐私,自然语言处理
主要内容
该研究提出了使用模型生成的文本的标记间时间间隔(ITTs)作为大型语言模型(LLMs)的指纹识别技术,旨在识别特定语言模型的来源和身份。这种方法通过分析网络流量数据来捕捉模型生成的独特时间模式,从而在本地和远程网络场景中实现被动和实时识别。
主要贡献
1. 证明了自回归语言模型在生成文本时具有独特的时序模式,并提出了利用这些模式进行模型识别的新方法。
2. 设计并实现了一个端到端的管道,该管道处理网络流量,提取36个特征来捕获语言模型的指纹,并使用混合BiLSTM-注意力模型对这些特征进行分类。
3. 通过在16个小型语言模型(SLMs)和10个专有LLMs上的综合实验,验证了该方法的有效性和鲁棒性,即使在不同的网络条件下也能识别模型家族和特定变体。
研究方法
1. 网络流量分析
2. 深度学习(DL)
3. 特征工程
4. BiLSTM-注意力模型
5. 焦点损失
实验结果
实验结果表明,该方法在不同部署场景(包括本地主机、局域网、远程网络和虚拟专用网络)中均有效。在测试数据集上,该方法在识别模型家族和特定变体方面达到了较高的准确率。此外,该方法对网络条件和时间变化具有鲁棒性。
未来工作
未来工作可以包括扩展该方法以识别更复杂的模型行为,以及探索在更广泛的应用场景中使用该技术。此外,还可以研究如何进一步提高模型的准确性和鲁棒性,并减少对模型参数和架构的依赖。