Talking Back -- human input and explanations to interactive AI systems
作者: Alan Dix, Tommaso Turchi, Ben Wilson, Anna Monreale, Matt Roach
发布时间: 2025-03-07
来源: arxiv
研究方向: 人机交互与可解释人工智能
主要内容
本文探讨了人类向人工智能系统提供解释的可能性,以及这种交互如何促进更丰富、协同的人机系统。研究内容包括人类输入到AI的各种形式,以及人类解释如何引导机器学习模型,使其自动判断和解释更接近人类概念。
主要贡献
1. 提出了人类解释作为AI系统输入的概念,超越了传统的AI向人类解释的单向流动。
2. 探讨了多种捕捉人类解释的机制,包括特征约束、重要性度量、中间特征和自由文本。
3. 提出了将人类解释纳入机器学习系统的方法,并讨论了算法、架构和社会影响。
4. 提出了未来研究方向,包括算法开发、框架创建、算法偏见缓解和跨领域应用探索。
研究方法
1. Query-by-Browsing (QbB):用户通过选择或排除数据项来提供解释。
2. Skeptical learning:系统挑战用户提供的示例,要求用户重新考虑或修改。
3. 特征重要性度量:用户提供关于特征重要性的反馈,以指导学习过程。
4. 用户生成中间特征:用户创建新的高级特征,用于决策。
5. 自由文本解释:用户以自然语言提供解释,可能包括新的术语、概念或规则。
实验结果
本文没有提供具体的实验结果,而是侧重于提出概念、方法和未来研究方向。
未来工作
未来工作将集中在以下方面:开发能够有效整合人类解释的算法、创建将不同形式的人类解释转换为机器学习系统可操作的指导的框架、研究人类解释如何帮助识别和缓解算法偏见,以及将这种方法扩展到不同的机器学习模型和应用领域。