InfluenceNet: AI Models for Banzhaf and Shapley Value Prediction

作者: Benjamin Kempinski, Tal Kachman

研究方向: 游戏理论、投票游戏、权力指数、神经网络

本文研究了使用神经网络预测投票游戏中的权力指数,特别是Banzhaf和Shapley-Shubik指数,以解决传统计算方法在处理大规模联盟时的计算瓶颈。

ID: 2503.08381v1来源: arxiv发布时间: 2025-03-12

Robust Latent Matters: Boosting Image Generation with Sampling Error

作者: Kai Qiu, Xiang Li, Jason Kuen, Hao Chen, Xiaohao Xu, Jiuxiang Gu, Yinyi Luo, Bhiksha Raj, Zhe Lin, Marios Savvides

研究方向: 计算机视觉与生成模型

该研究主要关注图像生成模型中的图像分词器,通过分析离散潜在空间质量对自回归生成模型的影响,提出了一种新的图像分词器训练方法,旨在提高图像生成质量和收敛速度。

ID: 2503.08354v1来源: arxiv发布时间: 2025-03-12

MINT-Demo: Membership Inference Test Demonstrator

作者: Daniel DeAlcala, Aythami Morales, Julian Fierrez, Gonzalo Mancera, Ruben Tolosana, Ruben Vera-Rodriguez

研究方向: 人工智能与数据隐私保护

本文提出了一种名为MINT (Membership Inference Test) 的技术,用于检测数据是否被用于训练机器学习模型,以强调机器学习训练过程的透明度。研究者通过在五个公共数据库上进行的实验,证明了MINT的有效性,并开发了一个交互式网络平台来推广这一技术。

ID: 2503.08332v1来源: arxiv发布时间: 2025-03-13

Adding Chocolate to Mint: Mitigating Metric Interference in Machine Translation

作者: José Pombal, Nuno M. Guerreiro, Ricardo Rei, André F. T. Martins

研究方向: 机器翻译与自动评价指标

本文主要研究了机器翻译中的指标干扰问题(MINT),即模型训练和评估过程中使用相同或相关指标所带来的风险。作者分析了两种常见的MINT情况:训练数据过滤和基于质量信号的解码,并提出了MINTADJUST方法以解决该问题。

ID: 2503.08327v1来源: arxiv发布时间: 2025-03-12

Prototype-based Heterogeneous Federated Learning for Blade Icing Detection in Wind Turbines with Class Imbalanced Data

作者: Lele Qi, Mengna Liu, Xu Cheng, Fan Shi, Xiufeng Liu, Shengyong Chen

研究方向: 风能领域中的风轮叶片结冰检测与联邦学习

本文针对风能领域中的风轮叶片结冰检测问题,提出了一种基于原型学习的异构联邦学习模型(FedHPb),用于解决数据隐私和异构环境下的模型优化问题,并针对数据不平衡问题提出了对比监督损失函数。

ID: 2503.08325v1来源: arxiv发布时间: 2025-03-12

Seeing and Reasoning with Confidence: Supercharging Multimodal LLMs with an Uncertainty-Aware Agentic Framework

作者: Zhuo Zhi, Chen Feng, Adam Daneshmend, Mine Orlu, Andreas Demosthenous, Lu Yin, Da Li, Ziquan Liu, Miguel R. D. Rodrigues

研究方向: 多模态大型语言模型(MLLM)的多模态推理

该研究提出了一种名为SRICE的多模态推理框架,旨在解决现有MLLM在多模态推理任务中的局限性,例如视觉问答(VQA)。SRICE通过集成外部视觉模型和不确定性量化(UQ)技术,实现了一种无需训练的多模态推理框架。

ID: 2503.08308v1来源: arxiv发布时间: 2025-03-12

General-Purpose Aerial Intelligent Agents Empowered by Large Language Models

作者: Ji Zhao, Xiao Lin

研究方向: 无人机领域与大型语言模型(LLM)的结合,实现开放世界中的通用任务执行

本文提出了一种新型的无人机智能体(AIA),它通过紧密集成LLM推理和机器人自主性,能够执行开放世界的任务。该系统采用硬件-软件协同设计,解决了两项基本限制:1)通过边缘优化的计算平台在机载上进行LLM操作,实现14B参数模型在220W峰值功率下的5-6个token/秒推理;2)双向认知架构,将慢速深思熟虑的规划(LLM任务规划)与快速反应控制(状态估计、映射、避障和运动规划)相结合。

ID: 2503.08302v1来源: arxiv发布时间: 2025-03-12

Large Language Model as Meta-Surrogate for Data-Driven Many-Task Optimization: A Proof-of-Principle Study

作者: Xian-Rong Zhang, Yue-Jiao Gong, Jun Zhang

研究方向: 多任务优化与大型语言模型

本文提出了一种基于大型语言模型(LLM)的元代理框架,用于数据驱动的多任务优化。该框架利用LLM的知识迁移能力和涌现能力,通过元代理模型对多个任务的适应性和知识共享进行优化。

ID: 2503.08301v2来源: arxiv发布时间: 2025-03-13

Large Language Model as Meta-Surrogate for Data-Driven Many-Task Optimization: A Proof-of-Principle Study

作者: Xian-Rong Zhang, Yue-Jiao Gong, Jun Zhang

研究方向: 数据驱动多任务优化与大型语言模型

本文研究了利用大型语言模型(LLM)作为元代理,以辅助数据驱动多任务优化(DDEA)的方法。该方法通过在元代理中结合任务元数据和决策变量,实现了对多个任务的高效知识共享和适应新任务的能力。

ID: 2503.08301v1来源: arxiv发布时间: 2025-03-12

D3PO: Preference-Based Alignment of Discrete Diffusion Models

作者: Umberto Borso, Davide Paglieri, Jude Wells, Tim Rocktäschel

研究方向: 离散扩散模型与偏好优化

该研究提出了一种名为Discrete Diffusion DPO (D3PO)的新方法,用于对离散扩散模型进行偏好优化。D3PO基于Direct Preference Optimization (DPO)框架,通过使用偏好数据直接微调生成过程,同时保持对参考分布的保真度。

ID: 2503.08295v1来源: arxiv发布时间: 2025-03-12