Knowledge Updating? No More Model Editing! Just Selective Contextual Reasoning
作者: Guoxiu He, Xin Song, Aixin Sun
发布时间: 2025-03-10
来源: arxiv
研究方向: 人工智能,自然语言处理,大语言模型知识更新
主要内容
本文研究了大语言模型(LLM)的知识更新问题,提出了一种名为选择性情境推理(SCR)的方法,用于在不修改模型参数的情况下更新LLM的知识。
主要贡献
1. 对现有的十种模型编辑方法进行了全面的评估,发现它们在可靠性、泛化性、局部性和可移植性方面都存在显著的不足。
2. 提出了选择性情境推理(SCR)方法,通过利用LLM的情境推理能力来更新知识,而不需要修改模型参数。
3. 在两个反事实数据集上对SCR方法进行了评估,结果表明其在四个维度上均优于现有的模型编辑方法。
研究方法
1. 知识选择:使用检索模型从外部知识库中检索与查询语义相似的知识。
2. 知识确认:LLM评估检索到的知识是否与查询相关。
3. 情境推理:LLM根据检索到的知识和查询生成答案。
实验结果
实验结果表明,SCR方法在四个维度上均优于现有的模型编辑方法,尤其是在泛化性和可移植性方面表现突出。
未来工作
未来工作可以关注优化知识选择策略,以及将更复杂的推理机制集成到知识更新中。