Less or More: Towards Glanceable Explanations for LLM Recommendations Using Ultra-Small Devices
作者: Xinru Wang, Mengjie Yu, Hannah Nguyen, Michael Iuzzolino, Tianyi Wang, Peiqi Tang, Natasha Lynova, Co Tran, Ting Zhang, Naveen Sendhilnathan, Hrvoje Benko, Haijun Xia, Tanya Jonker
发布时间: 2025-02-27
来源: arxiv
研究方向: 面向超小型设备的可解释AI(XAI)与大型语言模型(LLM)推荐系统的可读性研究
主要内容
本研究探讨了如何在超小型设备(如智能手表)上提供简洁且易于理解的LLM推荐解释。研究通过结构化解释文本和基于置信度的自适应展示策略,优化了用户在有限屏幕空间下的交互体验。研究提出了两种主要方法:1)通过定义上下文组件在提示过程中结构化LLM的解释文本;2)根据置信度水平自适应地向用户展示解释。研究通过用户实验验证了这些方法对用户体验的影响。
主要贡献
1. 提出了一种通过定义上下文组件在提示过程中结构化LLM解释文本的策略,以在超小型设备上创建空间上可读的LLM解释。
2. 利用置信度估计自适应地展示解释,以在超小型设备上创建时间上可读的LLM解释。
3. 通过用户研究分析了结构化和自适应展示解释对用户与AI交互体验的影响,并得出了设计启示。
研究方法
1. 使用Ego4D数据集进行实验,结合预训练的视觉语言模型和LLM(如GPT-4)生成推荐和解释。
2. 采用Chain-of-Thought提示策略,将推理过程分解为多个步骤,生成结构化的解释文本。
3. 通过混合方法(一致性评估和文本置信度)计算每个推荐的置信度,并根据置信度水平自适应展示解释。
4. 设计了包含四种条件的用户实验(无解释、始终展示非结构化解释、始终展示结构化解释、自适应展示结构化解释),并通过定量和定性分析评估用户体验。
实验结果
实验结果表明,结构化解释显著减少了用户采取行动的时间,并降低了用户在阅读解释时的认知负荷。始终展示的结构化解释提高了用户对AI推荐的接受率,但用户对结构化解释的满意度低于非结构化解释,因为后者提供了更详细和自然的解释。自适应展示的结构化解释在提高用户对AI的感知方面效果较差,用户反馈表明额外的交互步骤影响了体验。
未来工作
未来的研究可以探索多模态输入(如音频、眼动追踪等)以生成更丰富的解释,并开发更精确的置信度估计方法以优化自适应展示的时机。此外,可以在真实场景中进行长期研究,观察用户偏好的变化,并进一步个性化解释内容以满足不同用户的需求。