Bayesian Optimization for Controlled Image Editing via LLMs

作者: Chengkun Cai, Haoliang Liu, Xu Zhao, Zhongyu Jiang, Tianfang Zhang, Zongkai Wu, Jenq-Neng Hwang, Serge Belongie, Lei Li

研究方向: 图像生成与编辑,结合大型语言模型(LLM)与贝叶斯优化技术

提出了一种名为BayesGenie的图像编辑框架,该框架结合了大型语言模型(LLM)和贝叶斯优化技术,旨在实现精确且用户友好的图像编辑。用户可以通过自然语言描述来修改图像,而无需手动标记区域,同时保持原始图像的语义完整性。

ID: 2502.18116v2来源: arxiv发布时间: 2025-02-27

Bayesian Optimization for Controlled Image Editing via LLMs

作者: Chengkun Cai, Haoliang Liu, Xu Zhao, Zhongyu Jiang, Tianfang Zhang, Zongkai Wu, Jenq-Neng Hwang, Serge Belongie, Lei Li

研究方向: 计算机视觉,图像处理,自然语言处理

本文提出了一种名为BayesGenie的图像编辑框架,该框架结合了大型语言模型(LLMs)和贝叶斯优化,以实现精确且用户友好的图像编辑。通过自然语言描述,用户可以修改图像,同时保持原始图像的语义完整性。

ID: 2502.18116v1来源: arxiv发布时间: 2025-02-27

The Built-In Robustness of Decentralized Federated Averaging to Bad Data

作者: Samuele Sabella, Chiara Boldrini, Lorenzo Valerio, Andrea Passarella, Marco Conti

研究方向: 分布式联邦学习

本文研究了分布式联邦学习(DFL)在存在低质量数据时的鲁棒性,并与联邦学习(FL)和集中式学习进行了比较。通过模拟包含低质量样本的节点,分析了不同数据分布和不同网络拓扑结构下的学习性能。

ID: 2502.18097v1来源: arxiv发布时间: 2025-02-27

Towards Thinking-Optimal Scaling of Test-Time Compute for LLM Reasoning

作者: Wenkai Yang, Shuming Ma, Yankai Lin, Furu Wei

研究方向: 大型语言模型(LLM)推理与测试时间计算优化

本文探讨了在大型语言模型(LLM)推理中,通过增加测试时间计算(如延长链式思维(CoT)长度)对模型推理性能的影响。研究发现,过度增加CoT长度可能会对某些领域的推理性能产生负面影响,并提出了一种名为“思考最优缩放”(TOPS)的策略,以实现更有效和高效的测试时间缩放。

ID: 2502.18080v1来源: arxiv发布时间: 2025-02-27

MRBTP: Efficient Multi-Robot Behavior Tree Planning and Collaboration

作者: Yishuai Cai, Xinglin Chen, Zhongxuan Cai, Yunxin Mao, Minglong Li, Wenjing Yang, Ji Wang

研究方向: 机器人学与人工智能

本文提出了一种名为MRBTP的算法,用于解决多机器人任务规划和协作问题。该算法基于行为树(Behavior Trees,BTs)控制架构,旨在提高多机器人系统的效率和鲁棒性。

ID: 2502.18072v1来源: arxiv发布时间: 2025-02-27

HEROS-GAN: Honed-Energy Regularized and Optimal Supervised GAN for Enhancing Accuracy and Range of Low-Cost Accelerometers

作者: Yifeng Wang, Yi Zhao

研究方向: 低成本加速度计信号增强与提升

该论文针对低成本加速度计在精度和量程方面的限制,提出了一种名为HEROS-GAN的生成对抗网络(GAN)模型。该模型通过将低成本传感器信号转换为高成本等效信号,从而克服了低成本加速度计的精度和量程限制。

ID: 2502.18064v1来源: arxiv发布时间: 2025-02-27

Defining bias in AI-systems: Biased models are fair models

作者: Chiara Lindloff, Ingo Siegert

研究方向: 人工智能与算法公平性

本文探讨了人工智能系统中“偏差”的概念,区分了技术偏差和社会偏差,并强调了在处理AI系统中的公平性问题时不应该将“无偏差”等同于“公平”。文章分析了偏差的历史和其在神经网络中的技术角色,同时探讨了“偏差”在日常语言中的社会概念。作者进一步讨论了“公平”的定义,指出真正的公平需要区分有害的歧视和公平的差异化。

ID: 2502.18060v1来源: arxiv发布时间: 2025-02-27

VLM-E2E: Enhancing End-to-End Autonomous Driving with Multimodal Driver Attention Fusion

作者: Pei Liu, Haipeng Liu, Haichao Liu, Xin Liu, Jinxin Ni, Jun Ma

研究方向: 自动驾驶与视觉语言模型

该研究提出了一种名为VLM-E2E的新型框架,旨在通过集成视觉语言模型(VLM)来增强端到端自动驾驶系统。该框架通过提供注意力提示,将文本表示整合到鸟瞰图(BEV)特征中,以进行语义监督,使模型能够学习更丰富的特征表示,这些表示明确地捕获驾驶员的注意力语义。此外,该框架还引入了一种BEV-文本可学习加权融合策略,以解决融合多模态信息中的模态重要性不平衡问题。

ID: 2502.18042v1来源: arxiv发布时间: 2025-02-27

AutoCas: Autoregressive Cascade Predictor in Social Networks via Large Language Models

作者: Yuhao Zheng, Chenghua Gong, Rui Sun, Juyuan Zhang, Liming Pan, Linyuan Lv

研究方向: 社交网络信息传播与预测

本文提出了一种名为AutoCas的新型框架,旨在利用大型语言模型(LLM)预测社交网络中的信息传播流行度。该框架通过对信息传播过程进行token化,并将其与语言生成过程进行对齐,从而将LLM应用于信息传播预测。

ID: 2502.18040v1来源: arxiv发布时间: 2025-02-27

ExPath: Towards Explaining Targeted Pathways for Biological Knowledge Bases

作者: Rikuto Kotoge, Ziwei Yang, Zheng Chen, Yushun Dong, Yasuko Matsubara, Jimeng Sun, Yasushi Sakurai

研究方向: 生物信息学与机器学习

该研究提出了一种名为ExPath的深度学习框架,用于从生物知识库中推断目标路径。该框架通过结合图学习、解释和蛋白质语言模型等技术,实现了从实验数据中推断生物网络中的关键分子相互作用。

ID: 2502.18026v1来源: arxiv发布时间: 2025-02-27