Large Language Model as Meta-Surrogate for Data-Driven Many-Task Optimization: A Proof-of-Principle Study
作者: Xian-Rong Zhang, Yue-Jiao Gong, Jun Zhang
发布时间: 2025-03-12
来源: arxiv
研究方向: 数据驱动多任务优化与大型语言模型
主要内容
本文研究了利用大型语言模型(LLM)作为元代理,以辅助数据驱动多任务优化(DDEA)的方法。该方法通过在元代理中结合任务元数据和决策变量,实现了对多个任务的高效知识共享和适应新任务的能力。
主要贡献
1. 提出了一种基于LLM的多任务适应模型,实现了跨任务的知识共享。
2. 利用LLM进行元代理建模,将适应度预测视为条件概率估计,提高了模型的泛化能力。
3. 将元代理集成到进化迁移优化(ETO)中,支持双重知识迁移,提高了优化效率和鲁棒性。
4. 通过实验验证了元代理在多任务优化中的有效性和泛化能力。
研究方法
1. 将决策变量、适应度值和任务元数据转换为统一的标记序列。
2. 使用LLM作为元代理,通过共享标记嵌入实现跨任务知识共享。
3. 通过多任务模型训练捕捉复杂的任务依赖关系。
4. 将元代理集成到ETO框架中,实现双重知识迁移。
实验结果
实验结果表明,与传统的代理模型相比,基于LLM的元代理在预测精度和泛化能力方面具有显著优势。在未见过维度的任务上,元代理也表现出良好的零样本性能,证明了其适应新任务的能力。
未来工作
未来将研究更灵活的数值编码/解码、多模态数据融合、主动采样和跨维度微调。此外,将强化学习微调技术应用于元代理,以提高其准确性和鲁棒性。