Compositional Subspace Representation Fine-tuning for Adaptive Large Language Models
作者: Andy Zhou
发布时间: 2025-03-16
来源: arxiv
研究方向: 自然语言处理(NLP)和参数高效的模型微调(PEFT)
主要内容
提出了一种名为Compositional Subspace Representation Fine-tuning (CS-ReFT) 的方法,用于解决大语言模型(LLM)在多任务适应中的交叉任务干扰问题。
主要贡献
1. 通过学习多个正交子空间变换,每个变换专门针对一个技能,并通过轻量级路由器进行组合,CS-ReFT 防止了跨任务冲突。
2. 与 LoRA 等方法相比,CS-ReFT 仅需要 0.0098% 的模型参数,减少了 12.7 倍。
3. CS-ReFT 通过直接在隐藏状态空间中应用正交约束,比基于权重的正交 LoRA 方法更干净地隔离了技能。
4. 在 AlpacaEval 基准测试中,使用 CS-ReFT 对 Llama-2-7B 进行微调,实现了 93.94% 的胜率,超过了 GPT-3.5 Turbo(86.30%),同时参数开销极小。
研究方法
1. 学习多个低秩子空间变换,每个变换针对一个特定的技能。
2. 引入一个轻量级路由器,根据输入动态选择激活哪些子空间。
3. 在训练过程中联合训练子空间和路由器,使模型能够隐式地发现如何将不同输入路由到不同的子空间。
4. 通过最小化任务损失和路由器输出的稀疏正则化损失来训练模型。
实验结果
在 AlpacaEval 基准测试中,CS-ReFT 在 Llama-2-7B 上实现了 93.94% 的胜率,超过了 GPT-3.5 Turbo 和其他参数高效的微调方法,同时参数开销极小。
未来工作
未来研究应关注可扩展性(对于大量技能集进行子空间合并或共享)和可解释性(解释路由器的门控决策)。