ReaLJam: Real-Time Human-AI Music Jamming with Reinforcement Learning-Tuned Transformers

作者: Alexander Scarlatos, Yusong Wu, Ian Simon, Adam Roberts, Tim Cooijmans, Natasha Jaques, Cassie Tarakajian, Cheng-Zhi Anna Huang

发布时间: 2025-03-03

来源: arxiv

研究方向: 人工智能音乐生成与交互

主要内容

该研究提出了一种名为ReaLJam的实时人机音乐即兴系统,通过强化学习训练的Transformer模型,实现人与AI在音乐即兴创作中的实时互动。

主要贡献

1. ReaLJam系统实现了低延迟、高同步的实时人机音乐即兴。

2. 引入了‘预期’概念,使AI能够预测音乐走向并向用户展示其计划。

3. 通过用户研究验证了系统的有效性,并揭示了音乐建模和用户界面设置的重要性。

4. 首次使用大型Transformer模型进行实时即兴创作。

5. 提出了多种技术解决方案,如使用瀑布显示来展示即将到来的和弦,以及用于客户端-服务器同步的通信协议。

研究方法

1. 强化学习

2. Transformer模型

3. 用户研究

4. 客户端-服务器架构

5. MIDI设备交互

实验结果

用户研究结果表明,ReaLJam系统能够提供愉悦且富有音乐性的即兴创作体验。强化学习训练的AI模型在音乐质量上优于预训练模型,但仍然存在一些缺陷,如和弦预测不够准确和缺乏音乐结构感。用户界面设置对用户体验有显著影响,用户偏好因人而异。

未来工作

未来工作将集中在以下几个方面:改进音乐生成模型,使其能够更好地适应不同的旋律风格和音乐结构;提供更多高级控制功能,如指定音乐类型或模型输出的稀疏性;进行更多用户研究,以确定如何更好地支持专家和初学者;将预期和同步解决方案集成到其他实时人机协作应用中。