When Personalization Meets Reality: A Multi-Faceted Analysis of Personalized Preference Learning
作者: Yijiang River Dong, Tiancheng Hu, Yinhong Liu, Ahmet Üstün, Nigel Collier
发布时间: 2025-02-27
来源: arxiv
研究方向: 个性化偏好学习与大型语言模型(LLM)的适配性
主要内容
本文研究了如何通过个性化偏好学习来提高LLM在开放领域中的适应性和准确性,并评估了不同个性化方法的性能、公平性、意外影响和适应性。
主要贡献
1. 提出了一个评估开放领域个性化偏好学习技术的多角度框架。
2. 引入了一种原则性的方法来表征多样化的偏好数据集。
3. 通过一个实证研究,比较了三种数据集上八种代表性个性化算法。
4. 发现个性化方法可以提高LLM的偏好预测准确性,但可能会损害模型的安全性和推理能力。
研究方法
1. 奖励模型(RM)
2. 个性化奖励模型(PRM)
3. 变分偏好学习(VPL)
4. 检索增强生成(RAG)
5. 分组偏好优化(GPO)
6. 元学习
7. 冷启动策略
8. 安全性和推理基准测试(Reward Bench)
实验结果
个性化RM在所有数据集上实现了最佳性能。个性化方法可以随着更多训练样本的加入而扩展。个性化方法可以保护少数观点。个性化方法可以适应新用户。个性化可能会损害模型的安全性和推理能力。
未来工作
未来研究应关注如何平衡个性化带来的好处和风险,并开发更鲁棒、包容和负责任的方法,以更好地服务多样化的全球用户。