TruthPrInt: Mitigating LVLM Object Hallucination Via Latent Truthful-Guided Pre-Intervention
作者: Jinhao Duan, Fei Kong, Hao Cheng, James Diffenderfer, Bhavya Kailkhura, Lichao Sun, Xiaofeng Zhu, Xiaoshuang Shi, Kaidi Xu
发布时间: 2025-03-15
来源: arxiv
研究方向: 大型视觉语言模型(LVLM)的可信度与幻觉问题
主要内容
该论文研究了大型视觉语言模型(LVLM)中的对象幻觉(OH)问题,并提出了一种名为TruthPrInt的解决方案,以减轻OH。该方案通过分析LVLM的内部状态,如隐藏状态,来识别和减轻幻觉。
主要贡献
1. 深入探索了LVLM内部状态与OH之间的关系,发现内部状态是高特异性的幻觉指标。
2. 提出了TruthPrInt,一个新颖的两阶段OH缓解框架,通过学习真实方向并在解码过程中应用真实引导干预来减轻OH。
3. 提出了ComnHallu,通过构建和校准幻觉潜在子空间来增强跨LVLM和跨数据幻觉检测的可迁移性。
4. 在广泛的实验设置中评估了TruthPrInt,包括领域内和领域外场景,以及流行的LVLM和OH基准。
5. 实验结果表明,TruthPrInt在OH缓解方面显著优于现有方法。
研究方法
1. 收集LVLM内部状态和相应的幻觉标签,并训练模型进行幻觉检测。
2. 使用ComnHallu识别共享幻觉特征的共同潜在子空间,以增强跨LVLM和跨数据幻觉检测的可迁移性。
3. 在解码过程中,通过真实引导干预来减轻OH,例如通过拒绝幻觉标记并回溯到“早期起点”进行干预。
实验结果
实验结果表明,TruthPrInt在OH缓解方面显著优于现有方法,同时在领域内和领域外场景中都表现出良好的性能。
未来工作
未来工作可以探索更先进的内部状态分析方法,以及更有效的真实引导干预策略,以进一步提高LVLM的可信度。