Efficient Membership Inference Attacks by Bayesian Neural Network

作者: Zhenlong Liu, Wenyu Jiang, Feng Zhou, Hongxin Wei

研究方向: 机器学习,隐私保护,成员推理攻击

本文提出了一种基于贝叶斯神经网络的成员推理攻击方法(BMIA),旨在通过贝叶斯推理进行条件攻击,以估计特定数据点是否被用于给定模型的训练。该方法通过拉普拉斯近似将参考模型转换为贝叶斯神经网络,从而直接估计条件得分分布。

ID: 2503.07482v1来源: arxiv发布时间: 2025-03-11

Advancing Vietnamese Information Retrieval with Learning Objective and Benchmark

作者: Phu-Vinh Nguyen, Minh-Nam Tran, Long Nguyen, Dien Dinh

研究方向: 越南信息检索与自然语言处理

本文旨在推动越南信息检索(IR)领域的研究,通过构建一个新的基准(VCS)和改进的训练目标函数,提高越南嵌入语言模型在检索和重排序任务中的性能。

ID: 2503.07470v1来源: arxiv发布时间: 2025-03-11

MedAgentsBench: Benchmarking Thinking Models and Agent Frameworks for Complex Medical Reasoning

作者: Xiangru Tang, Daniel Shao, Jiwoong Sohn, Jiapeng Chen, Jiayi Zhang, Jinyu Xiang, Fang Wu, Yilun Zhao, Chenglin Wu, Wenqi Shi, Arman Cohan, Mark Gerstein

研究方向: 医疗推理和智能辅助诊断

本文介绍了MEDAGENTSBENCH,一个针对复杂医疗推理任务而设计的基准,旨在评估大型语言模型(LLMs)在医疗推理中的能力。通过对多个医疗数据集的分析和实验,评估了不同模型和推理方法在复杂医疗推理任务中的性能,并分析了性能、成本和推理时间之间的关系。

ID: 2503.07459v1来源: arxiv发布时间: 2025-03-11

Is a Good Foundation Necessary for Efficient Reinforcement Learning? The Computational Role of the Base Model in Exploration

作者: Dylan J. Foster, Zakaria Mhammedi, Dhruv Rohatgi

研究方向: 自然语言处理、强化学习、生成模型

本文研究了在强化学习中利用预训练语言模型进行高效探索的方法,重点关注线性 softmax 政策参数化,并提出了新的算法和理论界限,以阐明预训练模型在计算高效学习中的关键作用。

ID: 2503.07453v1来源: arxiv发布时间: 2025-03-11

From Idea to Implementation: Evaluating the Influence of Large Language Models in Software Development -- An Opinion Paper

作者: Sargam Yadav, Asifa Mehmood Qureshi, Abhishek Kaushik, Shubham Sharma, Roisin Loughran, Subramaniam Kazhuparambil, Andrew Shaw, Mohammed Sabry, Niamh St John Lynch, . Nikhil Singh, Padraic O'Hara, Pranay Jaiswal, Roshan Chandru, David Lillis

研究方向: 软件工程与人工智能

本文研究大型语言模型(LLM)在软件工程中的应用,通过调查11位专家的意见,分析LLM在代码生成、代码审查、自然语言理解、质量保证、预测分析和协作软件开发等方面的应用和潜在问题。

ID: 2503.07450v1来源: arxiv发布时间: 2025-03-11

Divide and Conquer Self-Supervised Learning for High-Content Imaging

作者: Lucas Farndale, Paul Henderson, Edward W Roberts, Ke Yuan

研究方向: 计算机视觉,自监督学习,高内容成像

本文提出了一种名为SpliCER的新的自监督学习架构,用于高内容成像。该架构将图像分割成多个组件,并从每个组件中提取信息,以指导模型学习更微妙和复杂的特征,同时不牺牲简单特征。SpliCER可以与任何自监督损失函数兼容,并且可以集成到现有方法中而无需修改。

ID: 2503.07444v1来源: arxiv发布时间: 2025-03-11

From Text to Visuals: Using LLMs to Generate Math Diagrams with Vector Graphics

作者: Jaewook Lee, Jeongah Lee, Wanyong Feng, Andrew Lan

研究方向: 利用大型语言模型(LLMs)自动生成数学图表以辅助数学教育

本文探讨了使用LLMs自动生成数学问题中的图表,并通过中间SVG表示来伴随文本提示。研究旨在解决三个问题:如何自动生成数学图表、SVG是否是有效的中间表示以及LLMs生成准确SVG图表所需的提示策略和格式。

ID: 2503.07429v1来源: arxiv发布时间: 2025-03-11

RePO: ReLU-based Preference Optimization

作者: Junkang Wu, Kexin Huang, Xue Wang, Jinyang Gao, Bolin Ding, Jiancan Wu, Xiangnan He, Xiang Wang

研究方向: 机器学习,自然语言处理,偏好优化

本文提出了一种名为RePO的基于ReLU的偏好优化算法,旨在解决大型语言模型(LLM)与人类偏好对齐的问题。该算法通过简化SimPO算法,消除了超参数β,并采用ReLU激活函数,实现了一种更高效、更鲁棒的偏好优化方法。

ID: 2503.07426v1来源: arxiv发布时间: 2025-03-11

Brain Inspired Adaptive Memory Dual-Net for Few-Shot Image Classification

作者: Kexin Di, Xiuxing Li, Yuyang Han, Ziyu Li, Qing Li, Xia Wu

研究方向: 计算机视觉,少样本图像分类,生物启发式方法

本文提出了一种名为SCAM-Net的少样本图像分类方法,该方法受人类大脑的通用优化系统巩固机制启发,通过构建海马体-新皮层双网络结构,模拟系统巩固过程,以解决少样本场景下特征识别困难的问题。

ID: 2503.07396v1来源: arxiv发布时间: 2025-03-11

TRCE: Towards Reliable Malicious Concept Erasure in Text-to-Image Diffusion Models

作者: Ruidong Chen, Honglin Guo, Lanjun Wang, Chenyu Zhang, Weizhi Nie, An-An Liu

研究方向: 计算机视觉,文本到图像模型,恶意内容消除

本文提出了一种名为TRCE的方法,旨在解决文本到图像扩散模型中恶意概念的可靠消除问题。该方法通过两阶段消除策略,在可靠消除和知识保留之间取得了良好的平衡。

ID: 2503.07389v1来源: arxiv发布时间: 2025-03-11