SE(3)-Equivariant Ternary Complex Prediction Towards Target Protein Degradation

作者: Fanglei Xue, Meihan Zhang, Shuqi Li, Xinyu Gao, James A. Wohlschlegel, Wenbing Huang, Yi Yang, Weixian Deng

研究方向: 药物发现、蛋白质降解、深度学习

本文介绍了一种名为DeepTernary的深度学习模型,用于预测由PROTACs和MG(D)s诱导的蛋白质降解过程中的三元复合物结构。该模型利用SE(3)-等变图神经网络,通过编码器-解码器架构直接预测三元结构,并展示了在现有PROTAC基准测试中的优异准确性和速度。

ID: 2502.18875v1来源: arxiv发布时间: 2025-02-27

Learning to Align Multi-Faceted Evaluation: A Unified and Robust Framework

作者: Kaishuai Xu, Tiezheng Yu, Wenjun Hou, Yi Cheng, Liangyou Li, Xin Jiang, Lifeng Shang, Qun Liu, Wenjie Li

研究方向: 自然语言处理,大型语言模型评估

本文提出了一种名为ARJudge的评估框架,用于评估大型语言模型(LLM)的输出。该框架通过自适应地生成评估标准,并综合文本分析和代码驱动分析,以全面评估LLM的输出。

ID: 2502.18874v1来源: arxiv发布时间: 2025-02-27

Multi-LLM Collaborative Search for Complex Problem Solving

作者: Sen Yang, Yafu Li, Wai Lam, Yu Cheng

研究方向: 复杂问题解决中的多语言模型协同搜索

本文提出了一种名为MOSA的新范式,通过结合多个语言模型的独立探索和迭代改进来增强推理多样性和准确性。MOSA利用蒙特卡洛树搜索(MCTS)作为基础,通过多个智能体提出和汇总推理步骤,从而提高推理准确性。

ID: 2502.18873v1来源: arxiv发布时间: 2025-02-27

A Theoretical Perspective: How to Prevent Model Collapse in Self-consuming Training Loops

作者: Shi Fu, Yingjie Wang, Yuzhu Chen, Xinmei Tian, Dacheng Tao

研究方向: 生成式人工智能与自消耗训练循环

本文研究了在自消耗训练循环(STLs)中防止模型崩溃的理论和方法。STLs 是一种使用模型自身生成的数据来进一步训练生成模型的方法,旨在减少对外部数据集的依赖。然而,STLs 的实际效果不一致,一些模型会退化或崩溃,而另一些则可以成功避免这些失败。本文通过引入递归稳定性概念,分析了模型架构和真实与合成数据比例对 STLs 成功的影响。

ID: 2502.18865v1来源: arxiv发布时间: 2025-02-27

Towards an AI co-scientist

作者: Juraj Gottweis, Wei-Hung Weng, Alexander Daryin, Tao Tu, Anil Palepu, Petar Sirkovic, Artiom Myaskovsky, Felix Weissenberger, Keran Rong, Ryutaro Tanno, Khaled Saab, Dan Popovici, Jacob Blum, Fan Zhang, Katherine Chou, Avinatan Hassidim, Burak Gokturk, Amin Vahdat, Pushmeet Kohli, Yossi Matias, Andrew Carroll, Kavita Kulkarni, Nenad Tomasev, Yuan Guan, Vikram Dhillon, Eeshit Dhaval Vaishnav, Byron Lee, Tiago R D Costa, José R Penadés, Gary Peltz, Yunhan Xu, Annalisa Pawlosky, Alan Karthikesalingam, Vivek Natarajan

研究方向: 人工智能辅助科学研究

该论文介绍了一种名为AI co-scientist的多智能体系统,旨在辅助科学家进行科学研究。该系统基于Gemini 2.0模型,通过模拟科学方法中的推理过程,帮助科学家生成新的研究假设和实验方案。

ID: 2502.18864v1来源: arxiv发布时间: 2025-02-27

Sherlock: Towards Multi-scene Video Abnormal Event Extraction and Localization via a Global-local Spatial-sensitive LLM

作者: Junxiao Ma, Jingjing Wang, Jiamin Luo, Peiying Yu, Guodong Zhou

研究方向: 视频理解与异常检测

本文提出了一种名为Sherlock的多场景视频异常事件提取和定位方法,旨在从视频中提取异常事件四元组(主体、事件类型、对象、场景)并定位这些事件。Sherlock模型通过全局-局部空间敏感的大语言模型(LLM)设计,包括全局-局部空间增强混合专家(MoE)模块和空间不平衡调节器(SIR),以解决全局-局部空间建模和平衡的挑战。

ID: 2502.18863v1来源: arxiv发布时间: 2025-02-27

Investigating Generalization of One-shot LLM Steering Vectors

作者: Jacob Dunefsky, Arman Cohan

研究方向: 大型语言模型(LLM)的引导向量优化与应用

本文研究了通过在单个训练示例上直接优化引导向量来引导LLM的行为,并评估了这些引导向量的泛化能力。

ID: 2502.18862v1来源: arxiv发布时间: 2025-02-28

Scalable Equilibrium Sampling with Sequential Boltzmann Generators

作者: Charlie B. Tan, Avishek Joey Bose, Chen Lin, Leon Klein, Michael M. Bronstein, Alexander Tong

研究方向: 统计物理与机器学习

本文研究了一种名为Sequential Boltzmann Generators (SBG)的采样方法,旨在解决统计物理中分子状态在热力学平衡下的可扩展采样问题。SBG通过结合强大的正态化流和重要性采样,在目标分布下获得统计独立的样本。

ID: 2502.18462v1来源: arxiv发布时间: 2025-02-27

FRIDA to the Rescue! Analyzing Synthetic Data Effectiveness in Object-Based Common Sense Reasoning for Disaster Response

作者: Mollie Shichman, Claire Bonial, Austin Blodgett, Taylor Hudson, Francis Ferraro, Rachel Rudinger

研究方向: 自然语言处理与灾难响应

该研究旨在通过使用合成数据来增强小型语言模型(LLM)在灾难响应领域的常识推理能力。研究者们开发了一种名为FRIDA的模型,通过专家和语言学家的合作生成高质量的种子数据,进而生成用于微调的合成数据。

ID: 2502.18452v1来源: arxiv发布时间: 2025-02-27

SWE-RL: Advancing LLM Reasoning via Reinforcement Learning on Open Software Evolution

作者: Yuxiang Wei, Olivier Duchenne, Jade Copet, Quentin Carbonneaux, Lingming Zhang, Daniel Fried, Gabriel Synnaeve, Rishabh Singh, Sida I. Wang

研究方向: 软件工程与大型语言模型

该研究提出了一种名为SWE-RL的强化学习方法,用于增强大型语言模型(LLMs)在软件工程任务上的能力。该方法利用软件演化数据(如PRs)和基于规则的奖励来训练LLMs,使其能够解决现实世界中的软件问题。

ID: 2502.18449v1来源: arxiv发布时间: 2025-02-27