AuthSim: Towards Authentic and Effective Safety-critical Scenario Generation for Autonomous Driving Tests

作者: Yukuan Yang, Xucheng Lu, Zhili Zhang, Zepeng Wu, Guoqi Li, Lingzhong Meng, Yunzhi Xue

研究方向: 自动驾驶安全测试与模拟

该研究旨在通过模拟生成自动驾驶汽车的安全关键场景,以测试和验证自动驾驶系统的安全性和可靠性。研究提出了一种名为AuthSim的模拟平台,该平台结合了三层相对安全区域模型和强化学习,以生成更真实和有效的安全关键场景。

ID: 2502.21100v1来源: arxiv发布时间: 2025-03-03

Re-evaluating Theory of Mind evaluation in large language models

作者: Jennifer Hu, Felix Sosa, Tomer Ullman

研究方向: 大型语言模型(LLM)的元认知能力评估

本文探讨了大型语言模型(LLM)是否具备理论心智(ToM)能力。理论心智是指理解他人心理状态的能力,是社交互动和语言理解的核心。文章分析了LLM在ToM任务上的表现,指出了现有评估方法的不足,并提出了未来研究方向。

ID: 2502.21098v1来源: arxiv发布时间: 2025-03-03

An LLM-based Delphi Study to Predict GenAI Evolution

作者: Francesco Bertolotti, Luca Mari

研究方向: 人工智能与预测方法

本文提出了一种基于大型语言模型(LLM)的德尔菲研究方法,用于预测复杂系统的未来发展趋势。该方法通过LLM生成文本来模拟专家意见,从而在数据稀缺或不可靠的情况下进行定性预测。

ID: 2502.21092v1来源: arxiv发布时间: 2025-03-03

PASemiQA: Plan-Assisted Agent for Question Answering on Semi-Structured Data with Text and Relational Information

作者: Hansi Yang, Qi Zhang, Wei Jiang, Jianguo Li

研究方向: 自然语言处理,问答系统,半结构化数据

该研究提出了一种名为 PASemiQA 的方法,用于在半结构化数据上通过文本和关系信息进行问答。PASemiQA 通过生成计划来识别相关的文本和关系信息,然后使用大型语言模型 (LLM) 代理遍历半结构化数据并提取必要的信息。

ID: 2502.21087v1来源: arxiv发布时间: 2025-03-03

Are foundation models useful feature extractors for electroencephalography analysis?

作者: Özgün Turgut, Felix S. Bott, Markus Ploner, Daniel Rueckert

研究方向: 医学信号处理与人工智能

研究利用基础模型在电生理学领域,特别是脑电图(EEG)分析中的应用,评估其作为特征提取器的有效性。

ID: 2502.21086v1来源: arxiv发布时间: 2025-03-03

Enhancing deep neural networks through complex-valued representations and Kuramoto synchronization dynamics

作者: Sabine Muzellec, Andrea Alamia, Thomas Serre, Rufin VanRullen

研究方向: 人工智能,神经科学,计算机视觉

本研究提出了一种名为KomplexNet的复杂值神经网络,结合了Kuramoto动态和同步机制,以增强多对象分类的性能。该模型通过利用神经同步性来解决问题绑定,从而提高深度学习模型在复杂视觉分类任务中的性能、鲁棒性和泛化能力。

ID: 2502.21077v1来源: arxiv发布时间: 2025-03-03

Robust Deterministic Policy Gradient for Disturbance Attenuation and Its Application to Quadrotor Control

作者: Taeho Lee, Donghwan Lee

研究方向: 无人机控制、深度强化学习、鲁棒控制

本文提出了鲁棒确定性策略梯度(RDPG)算法,用于解决无人机控制中的干扰抑制问题。RDPG通过将H∞控制问题转化为双人零和动态博弈,增强了深度强化学习算法的鲁棒性。同时,结合TD3算法,提出了鲁棒深度确定性策略梯度(RDDPG),进一步提升了控制策略的稳定性和学习效率。

ID: 2502.21057v1来源: arxiv发布时间: 2025-03-03

Synthesizing Individualized Aging Brains in Health and Disease with Generative Models and Parallel Transport

作者: Jingru Fu, Yuqi Zheng, Neel Dey, Daniel Ferreira, Rodrigo Moreno

研究方向: 医学影像生成与神经退行性疾病研究

该研究提出了一种名为InBrainSyn的框架,用于生成个体化的纵向MRI扫描,以模拟阿尔茨海默病(AD)和正常老化过程中的神经退变。InBrainSyn利用生成式深度模板网络学习人群水平的衰老轨迹,并通过并行传输算法进行个性化调整,从而生成与个体大脑图像一致的图像。

ID: 2502.21049v1来源: arxiv发布时间: 2025-03-03

Fast Adversarial Training against Sparse Attacks Requires Loss Smoothing

作者: Xuyang Zhong, Yixiao Huang, Chen Liu

研究方向: 网络安全与机器学习

该论文研究了针对稀疏对抗扰动的快速对抗训练,特别是针对由l0范数约束的扰动。论文分析了在快速对抗训练中使用单步攻击的挑战,包括性能下降和灾难性过拟合(CO)。论文提出了一种名为Fast-LS-l0的方法,通过引入软标签和权衡损失函数来平滑对抗损失景观,从而提高快速对抗训练的性能。

ID: 2502.21041v1来源: arxiv发布时间: 2025-03-03

Reward Learning from Multiple Feedback Types

作者: Yannick Metz, András Geiszl, Raphaël Baur, Mennatallah El-Assady

研究方向: 强化学习与人类反馈

本文研究了从多种反馈类型中学习奖励的方法,旨在提高强化学习(RL)模型的性能和鲁棒性。研究人员定义了六种不同的反馈类型,包括评价、比较、演示、纠正、描述和描述性偏好,并设计了生成模拟反馈的方法。然后,他们实现了针对这些反馈类型的奖励模型,并在多个环境中进行实验,以评估不同类型反馈的有效性和互补性。

ID: 2502.21038v1来源: arxiv发布时间: 2025-03-03