Learning Transformer-based World Models with Contrastive Predictive Coding

作者: Maxime Burchi, Radu Timofte

研究方向: 深度强化学习与模型强化学习

本文提出了一种名为TWISTER的基于Transformer的强化学习算法,该算法通过引入动作条件对比预测编码(AC-CPC)来学习高级时间特征表示,从而提高智能体的性能。

ID: 2503.04416v1来源: arxiv发布时间: 2025-03-07

Wider or Deeper? Scaling LLM Inference-Time Compute with Adaptive Branching Tree Search

作者: Kou Misaki, Yuichi Inoue, Yuki Imajuku, So Kuroki, Taishi Nakamura, Takuya Akiba

研究方向: 大型语言模型(LLM)推理时间计算扩展

该研究提出了一种名为AB-MCTS(自适应分支蒙特卡洛树搜索)的推理时间框架,用于扩展大型语言模型(LLM)的推理时间计算。该方法通过多轮探索和利用,有效地平衡了响应多样性和解决方案细化,从而提高了LLM在复杂任务上的推理性能。

ID: 2503.04412v1来源: arxiv发布时间: 2025-03-07

Training-Free Graph Filtering via Multimodal Feature Refinement for Extremely Fast Multimodal Recommendation

作者: Yu-Seung Roh, Joo-Young Kim, Jin-Duk Park, Won-Yong Shin

研究方向: 多模态推荐系统(Multimodal Recommender Systems)

本文提出了一种名为 MultiModal-Graph Filtering (MM-GF) 的训练-free 多模态推荐方法,旨在解决基于 GCN 的多模态推荐系统在处理多模态信息时计算开销大的问题。MM-GF 通过构建多个相似性图和优化融合不同模态的信息,实现了高效且准确的多模态推荐。

ID: 2503.04406v1来源: arxiv发布时间: 2025-03-08

Speculative MoE: Communication Efficient Parallel MoE Inference with Speculative Token and Expert Pre-scheduling

作者: Yan Li, Pengfei Zheng, Shuang Chen, Zewei Xu, Yuanhao Lai, Yunfei Du, Zhengang Wang

研究方向: 大规模语言模型(LLM)的并行推理优化

本文研究了大规模语言模型(LLM)中MoE(Mixture of Experts)架构的并行推理优化,针对现有MoE推理框架在通信开销方面的瓶颈,提出了一种名为Speculative MoE(s-MoE)的优化方法。该方法通过预测并预调度token和expert,有效地减少了通信开销,从而提升了MoE推理的效率。

ID: 2503.04398v2来源: arxiv发布时间: 2025-03-10

Speculative MoE: Communication Efficient Parallel MoE Inference with Speculative Token and Expert Pre-scheduling

作者: Yan Li, Pengfei Zheng, Shuang Chen, Zewei Xu, Yunfei Du, Zhengang Wang

研究方向: 大规模语言模型(LLM)推理中的并行化和通信优化

本文研究了大规模语言模型(LLM)推理中的并行化和通信优化问题,特别是针对MoE(Mixture of Experts)模型的并行推理。作者提出了一种名为Speculative MoE(s-MoE)的框架,通过预测并预先调度令牌和专家,有效减少了MoE推理中的通信开销,从而提高了推理效率和可扩展性。

ID: 2503.04398v1来源: arxiv发布时间: 2025-03-07

AgentSafe: Safeguarding Large Language Model-based Multi-agent Systems via Hierarchical Data Management

作者: Junyuan Mao, Fanci Meng, Yifan Duan, Miao Yu, Xiaojun Jia, Junfeng Fang, Yuxuan Liang, Kun Wang, Qingsong Wen

研究方向: 大型语言模型(LLM)驱动的多智能体系统(MAS)的安全保障

本文提出了一种名为AgentSafe的框架,旨在通过分层信息管理和内存保护来增强LLM驱动的MAS的安全性。AgentSafe通过分类信息的安全级别,限制敏感数据只对授权智能体访问。它包含两个组件:ThreatSieve和HierarCache。ThreatSieve通过验证信息权威性和防止冒充来确保通信安全;HierarCache是一个自适应内存管理系统,用于防御未经授权的访问和恶意中毒,是针对智能体内存的第一个系统化防御机制。

ID: 2503.04392v1来源: arxiv发布时间: 2025-03-07

Dedicated Feedback and Edit Models Empower Inference-Time Scaling for Open-Ended General-Domain Tasks

作者: Zhilin Wang, Jiaqi Zeng, Olivier Delalleau, Daniel Egert, Ellie Evans, Hoo-Chang Shin, Felipe Soares, Yi Dong, Oleksii Kuchaiev

研究方向: 自然语言处理,人工智能,模型优化

本文研究了如何通过训练专门的反馈和编辑模型来提升开放域任务中的推理时间缩放能力。研究者通过收集大量数据,并训练反馈和编辑模型,使得模型能够根据反馈进行响应的编辑,从而提升模型在开放域任务中的表现。

ID: 2503.04378v1来源: arxiv发布时间: 2025-03-07

Causally Reliable Concept Bottleneck Models

作者: Giovanni De Felice, Arianna Casanova Flores, Francesco De Santis, Silvia Santini, Johannes Schneider, Pietro Barbiero, Alberto Termine

研究方向: 机器学习与因果推理

本文提出了一种名为Causally Reliable Concept Bottleneck Models (C[2]BMs)的概念模型,旨在通过将概念瓶颈与真实世界的因果机制相结构化,提高因果可靠性。

ID: 2503.04363v1来源: arxiv发布时间: 2025-03-07

A Generalist Cross-Domain Molecular Learning Framework for Structure-Based Drug Discovery

作者: Yiheng Zhu, Mingyang Li, Junlong Liu, Kun Fu, Jiansheng Wu, Qiuyi Li, Mingze Yin, Jieping Ye, Jian Wu, Zheng Wang

研究方向: 结构化药物发现(SBDD)和分子表示学习

提出了一种名为BIT(生物分子交互转换器)的通用基础模型,用于结构化药物发现。BIT能够编码多种生物分子实体,包括小分子、蛋白质和蛋白质-配体复合物,以及各种数据格式,包括2D和3D结构。该模型通过混合域专家(MoDE)和混合结构专家(MoSE)方法,实现了深度融合和域特定编码,有效地捕捉了蛋白质-配体复合物中的细粒度分子相互作用。

ID: 2503.04362v1来源: arxiv发布时间: 2025-03-07

scDD: Latent Codes Based scRNA-seq Dataset Distillation with Foundation Model Knowledge

作者: Zhen Yu, Jianan Han, Yang Liu, Qingchao Chen

研究方向: 单细胞RNA测序(scRNA-seq)数据分析和数据蒸馏

该研究提出了一种名为scDD的基于潜在代码的scRNA-seq数据蒸馏框架,用于从原始数据集中提取和蒸馏基础模型知识,并将其转化为紧凑的潜在空间。此外,研究还提出了一种单步条件扩散生成器(SCDG),用于优化蒸馏质量和避免梯度衰减。通过在多个数据分析和任务中进行评估,验证了该方法的有效性。

ID: 2503.04357v1来源: arxiv发布时间: 2025-03-07