Interpretable Transformation and Analysis of Timelines through Learning via Surprisability

作者: Osnat Mokryn, Teddy Lazebnik, Hagit Ben Shoshan

研究方向: 时间序列数据分析与异常检测

本文提出了一种名为“通过惊讶度学习”(Learning via Surprisability, LvS)的新方法,用于转换和分析高维时间序列数据。LvS通过量化并优先处理时间序列数据中的异常值,将认知科学中的惊讶度概念与计算方法相结合,从而在保留关键上下文的同时检测异常和变化,为复杂数据集提供新的解释视角。

ID: 2503.04502v1来源: arxiv发布时间: 2025-03-08

ReynoldsFlow: Exquisite Flow Estimation via Reynolds Transport Theorem

作者: Yu-Hsi Chen, Chin-Tien Wu

研究方向: 计算机视觉,运动估计,光学流估计

本文提出了一种名为ReynoldsFlow的新型光学流估计方法,该方法基于Reynolds运输定理,旨在解决传统光学流方法在复杂场景中的局限性,如亮度恒定假设、计算需求高、对噪声敏感等问题。

ID: 2503.04500v1来源: arxiv发布时间: 2025-03-07

Generalized Interpolating Discrete Diffusion

作者: Dimitri von Rütte, Janis Fluri, Yuhui Ding, Antonio Orvieto, Bernhard Schölkopf, Thomas Hofmann

研究方向: 自然语言处理,生成模型,扩散模型

本文提出了一种名为广义插值离散扩散(GIDD)的扩散模型,用于自然语言生成。GIDD通过引入混合噪声和改进的训练目标,提高了模型在文本生成方面的性能,并实现了自我纠错的能力。

ID: 2503.04482v1来源: arxiv发布时间: 2025-03-08

ToolFuzz -- Automated Agent Tool Testing

作者: Ivan Milev, Mislav Balunović, Maximilian Baader, Martin Vechev

研究方向: 人工智能与机器学习

本文研究了大型语言模型(LLM)在现实世界应用中的工具使用问题,提出了TOOLFUZZ,一种自动测试工具文档的方法,旨在提高LLM代理的可靠性。

ID: 2503.04479v1来源: arxiv发布时间: 2025-03-07

DAST: Difficulty-Adaptive Slow-Thinking for Large Reasoning Models

作者: Yi Shen, Jian Zhang, Jieyun Huang, Shuming Shi, Wenjing Zhang, Jiangze Yan, Ning Wang, Kai Wang, Shiguo Lian

研究方向: 自然语言处理,大型推理模型,自适应推理

本文提出了 Difficulty-Adaptive Slow-Thinking (DAST) 框架,该框架能够根据问题难度自动调整 Chain-of-Thought (CoT) 的长度。通过引入 Token Length Budget (TLB) 指标来量化问题难度,并利用长度感知奖励塑造和长度偏好优化来实现 DAST。DAST 对简单任务的过长响应进行惩罚,同时鼓励复杂问题的充分推理。

ID: 2503.04472v1来源: arxiv发布时间: 2025-03-07

TPC: Cross-Temporal Prediction Connection for Vision-Language Model Hallucination Reduction

作者: Chao Wang, Weiwei Fu, Yang Zhou

研究方向: 视觉语言模型(VLM)与幻觉减少

本文研究了视觉语言模型(VLM)中幻觉问题,提出了跨时间预测连接(TPC)方法,通过连接不同时间步的logits来增强语义一致性,从而减少幻觉。

ID: 2503.04457v1来源: arxiv发布时间: 2025-03-07

Privacy Preserving and Robust Aggregation for Cross-Silo Federated Learning in Non-IID Settings

作者: Marco Arazzi, Mert Cihangiroglu, Antonino Nocera

研究方向: 联邦学习

该研究提出了一种针对非独立同分布(non-IID)环境下跨数据孤岛联邦学习的隐私保护和鲁棒聚合策略。该策略通过引入类感知梯度掩码,有效解决了联邦学习在非独立同分布数据设置下的性能退化问题,同时提高了隐私保护和鲁棒性。

ID: 2503.04451v1来源: arxiv发布时间: 2025-03-07

Activation Space Interventions Can Be Transferred Between Large Language Models

作者: Narmeen Oozeer, Dhruv Nathawani, Nirmalendu Prakash, Michael Lan, Abir Harrasse, Amirali Abdullah

研究方向: 人工智能安全,大型语言模型

该研究探讨了通过学习映射共享激活空间,在大型语言模型(LLMs)之间转移激活空间干预的可能性。研究主要集中在两个AI安全任务上:后门移除和拒绝有害提示,并引入了一个新的任务,即损坏能力,以测试模型区分有用技能和后门的能力。

ID: 2503.04429v1来源: arxiv发布时间: 2025-03-08

PDX: A Data Layout for Vector Similarity Search

作者: Leonardo Kuffo, Elena Krippner, Peter Boncz

研究方向: 向量相似度搜索(Vector Similarity Search)

提出了PDX数据布局,该布局旨在优化向量相似度搜索的性能,特别是通过改进现有维度剪枝算法(如ADSampling和BSA)的效率。

ID: 2503.04422v1来源: arxiv发布时间: 2025-03-07

From Idea to CAD: A Language Model-Driven Multi-Agent System for Collaborative Design

作者: Felix Ocker, Stefan Menzel, Ahmed Sadik, Thiago Rios

研究方向: 计算机辅助设计 (CAD) 与大型语言模型 (LLM) 在工程设计中的应用

该研究提出了一种基于视觉语言模型 (VLM) 的多智能体系统 (MAS),用于协作设计过程。该系统模仿了工程设计过程中的关键阶段,如需求获取、模型创建、验证和验证,并结合了要求工程师、CAD 工程师和基于视觉的质量保证工程师的智能代理。

ID: 2503.04417v1来源: arxiv发布时间: 2025-03-07