TruthPrInt: Mitigating LVLM Object Hallucination Via Latent Truthful-Guided Pre-Intervention

作者: Jinhao Duan, Fei Kong, Hao Cheng, James Diffenderfer, Bhavya Kailkhura, Lichao Sun, Xiaofeng Zhu, Xiaoshuang Shi, Kaidi Xu

发布时间: 2025-03-15

来源: arxiv

研究方向: 大型视觉语言模型(LVLM)的可信度与幻觉问题

主要内容

该论文研究了大型视觉语言模型(LVLM)中的对象幻觉(OH)问题,并提出了一种名为TruthPrInt的解决方案,以减轻OH。该方案通过分析LVLM的内部状态,如隐藏状态,来识别和减轻幻觉。

主要贡献

1. 深入探索了LVLM内部状态与OH之间的关系,发现内部状态是高特异性的幻觉指标。

2. 提出了TruthPrInt,一个新颖的两阶段OH缓解框架,通过学习真实方向并在解码过程中应用真实引导干预来减轻OH。

3. 提出了ComnHallu,通过构建和校准幻觉潜在子空间来增强跨LVLM和跨数据幻觉检测的可迁移性。

4. 在广泛的实验设置中评估了TruthPrInt,包括领域内和领域外场景,以及流行的LVLM和OH基准。

5. 实验结果表明,TruthPrInt在OH缓解方面显著优于现有方法。

研究方法

1. 收集LVLM内部状态和相应的幻觉标签,并训练模型进行幻觉检测。

2. 使用ComnHallu识别共享幻觉特征的共同潜在子空间,以增强跨LVLM和跨数据幻觉检测的可迁移性。

3. 在解码过程中,通过真实引导干预来减轻OH,例如通过拒绝幻觉标记并回溯到“早期起点”进行干预。

实验结果

实验结果表明,TruthPrInt在OH缓解方面显著优于现有方法,同时在领域内和领域外场景中都表现出良好的性能。

未来工作

未来工作可以探索更先进的内部状态分析方法,以及更有效的真实引导干预策略,以进一步提高LVLM的可信度。