Is My Text in Your AI Model? Gradient-based Membership Inference Test applied to LLMs

作者: Gonzalo Mancera, Daniel de Alcala, Julian Fierrez, Ruben Tolosana, Aythami Morales

研究方向: 自然语言处理(NLP)与机器学习模型隐私保护

本文研究如何使用基于梯度的成员推理测试(gMINT)来检测特定文本是否被用于训练语言模型。该方法通过分析模型在训练过程中对数据样本的梯度反应,来识别数据样本是否属于训练集。

ID: 2503.07384v1来源: arxiv发布时间: 2025-03-11

Artificial Utopia: Simulation and Intelligent Agents for a Democratised Future

作者: Yannick Oswald

研究方向: 模拟乌托邦:通过模拟和智能代理实现民主化的未来

本文提出了一种新的研究议程,名为“模拟乌托邦”,旨在通过计算机模拟探索替代经济和政治系统,研究自下而上的集体决策在创新环境中的本质。文章重点关注公民大会和民主企业这两种民主决策系统,并讨论了现代模拟和人工智能方法如何帮助我们理解这些挑战。

ID: 2503.07364v1来源: arxiv发布时间: 2025-03-11

Encoding Argumentation Frameworks to Propositional Logic Systems

作者: Shuai Tang, Jiachao Wu, Ning Zhou

研究方向: 人工智能与逻辑学交叉领域,特别是论证框架(AF)与命题逻辑系统(PLS)之间的关系研究

该论文将论证框架(AF)编码为不同命题逻辑系统中的逻辑公式,研究了AF的模型与命题逻辑系统中的编码公式的模型之间的关系,包括Dung的经典语义和Gabbay的等式语义。论文补充了将AF编码到二元命题逻辑系统中的正则编码函数的证明,并将AF编码到三值命题逻辑系统和模糊命题逻辑系统中,探讨了模型之间的关系。

ID: 2503.07351v1来源: arxiv发布时间: 2025-03-11

The Economics of p(doom): Scenarios of Existential Risk and Economic Growth in the Age of Transformative AI

作者: Jakub Growiec, Klaus Prettner

研究方向: 人工智能(AI)安全与伦理,以及经济影响评估

本文研究了可变革性人工智能(TAI)的潜在影响,包括其对人类生存和经济增长的正面和负面效应。文章分析了AI接管后可能出现的不同情景,评估了其概率和与之相关的生存风险和经济效益,并强调了在TAI开发前进行AI安全和AI对齐研究的重要性。

ID: 2503.07341v1来源: arxiv发布时间: 2025-03-11

Research and Design on Intelligent Recognition of Unordered Targets for Robots Based on Reinforcement Learning

作者: Yiting Mao, Dajun Tao, Shengyuan Zhang, Tian Qi, Keqin Li

研究方向: 智能机器人目标识别

本文针对智能机器人在复杂环境中对无序目标进行识别的难题,提出了一种基于强化学习的智能机器人无序目标识别方法。该方法首先利用双边滤波算法对采集到的目标图像进行处理,分解为低光照图像和反射图像,然后分别对这两部分图像进行压缩和增强处理,最后融合两部分图像生成新的图像。在此基础上,将深度学习与强化学习算法深度融合,将增强后的目标图像输入到深度强化学习模型中进行训练,从而实现智能机器人对无序目标的快速、准确识别。

ID: 2503.07340v1来源: arxiv发布时间: 2025-03-11

Temporal Triplane Transformers as Occupancy World Models

作者: Haoran Xu, Peixi Peng, Guang Tan, Yiqian Chang, Yisen Zhao, Yonghong Tian

研究方向: 自动驾驶与三维环境建模

该研究提出了一种名为T[3]Former的新四维占用世界模型,用于自动驾驶中的环境建模和运动规划。该模型通过压缩3D占用数据,提取多尺度时间运动特征,并使用自回归方法迭代预测未来的占用状态和运动轨迹。

ID: 2503.07338v1来源: arxiv发布时间: 2025-03-11

Mitigating Hallucinations in YOLO-based Object Detection Models: A Revisit to Out-of-Distribution Detection

作者: Weicheng He, Changshun Wu, Chih-Hong Cheng, Xiaowei Huang, Saddek Bensalem

研究方向: 目标检测中的过拟合问题及分布外检测技术

该研究针对YOLO系列目标检测模型在处理分布外(OoD)样本时容易产生幻觉(过度自信的预测)的问题,提出了一种改进的OoD检测方法,旨在减少检测中的幻觉误差。

ID: 2503.07330v1来源: arxiv发布时间: 2025-03-11

Assessing the Macro and Micro Effects of Random Seeds on Fine-Tuning Large Language Models

作者: Hao Zhou, Guergana Savova, Lijing Wang

研究方向: 自然语言处理(NLP)

本研究探讨了随机种子在微调和评估大型语言模型(LLM)性能中的影响,通过分析宏观数据和微观数据,揭示了随机种子对模型性能的潜在影响。

ID: 2503.07329v1来源: arxiv发布时间: 2025-03-11

AI Biases as Asymmetries: A Review to Guide Practice

作者: Gabriella Waters, Phillip Honenberger

研究方向: 人工智能与机器学习中的偏见问题

本文通过分析人工智能系统中的偏见,提出了将偏见视为“对称性标准违反”的观点,并区分了三种主要的偏见类型:错误偏见、不平等偏见和过程偏见。作者进一步探讨了在不同AI开发和应用阶段,这些偏见可能带来的影响,以及如何评估和应对这些偏见。

ID: 2503.07326v1来源: arxiv发布时间: 2025-03-11

Dynamic Path Navigation for Motion Agents with LLM Reasoning

作者: Yubo Zhao, Qi Wu, Yifan Wang, Yu-Wing Tai, Chi-Keung Tang

研究方向: 人工智能,机器学习,路径规划,动态导航

该研究主要探索了大型语言模型(LLM)在动态环境中进行路径规划和动态导航的能力。研究人员构建了一个基于LLM的导航系统,该系统可以处理多智能体协调、动态碰撞解决和复杂场景的路径规划。

ID: 2503.07323v1来源: arxiv发布时间: 2025-03-11