Experimental Exploration: Investigating Cooperative Interaction Behavior Between Humans and Large Language Model Agents
作者: Guanxuan Jiang, Yuyang Wang, Pan Hui
发布时间: 2025-03-11
来源: arxiv
研究方向: 人工智能与人类交互
主要内容
本研究通过实验探究了人类与大型语言模型(LLM)代理在竞争合作场景中的交互行为,特别是当代理展现出不同特征(拟人化人类、基于规则的AI代理和LLM代理)时,人类的合作行为如何受到影响。
主要贡献
1. 验证了LLM代理的拟人化特征对人类合作行为的影响。
2. 确定了人类性别在竞争环境中对合作行为模式的影响。
3. 分析了人类在游戏中的响应模式,包括游戏完成时间、主动有利行为和背叛后的修复努力接受度。
4. 提供了关于人类在竞争合作环境中与LLM代理交互的新视角。
5. 强调了理解人类对AI代理的偏见以及观察到的行为如何影响未来人类-AI合作动态的重要性。
研究方法
1. 实验法:参与者与具有不同特征的LLM代理进行重复的囚徒困境游戏。
2. 线性混合效应模型:用于分析数据,评估固定效应(包括性别和对手的拟人化特征的主要效应以及它们的相互作用)。
3. 问卷调查:了解参与者对实验内容的看法和过去使用AI工具的经验。
4. 半结构化访谈:深入了解参与者的策略决策和他们对非合作行为的反应。
实验结果
研究发现,当AI代理被拟人化为人类特征时,参与者的合作率更高,更主动地采取有利行为,并且在背叛后更愿意接受修复努力。此外,不同性别的参与者在AI代理的拟人化特征下表现出不同的行为模式。男性参与者对拟人化人类代理的合作率高于基于规则的AI代理和LLM代理,而女性参与者对基于规则的AI代理和LLM代理的合作率高于男性参与者。
未来工作
未来的研究应考虑更广泛的LLM代理和更复杂的现实交互场景。此外,应该探索人类与LLM代理的长期互动效果以及这些代理的持续学习和适应能力。政策制定者应制定关于AI代理的开发和使用的指南和伦理标准,以确保LLM代理的行为和决策过程合理,从而建立公众的信任和接受度。