FLEKE: Federated Locate-then-Edit Knowledge Editing

作者: Zongkai Zhao, Guozeng Xu, Xiuhua Li, Kaiwen Wei, Jiang Zhong

研究方向: 联邦学习与知识编辑

本文提出了一种名为FLEKE的联邦知识编辑任务,旨在解决大型语言模型(LLMs)在多客户端场景下的知识更新问题。通过引入FedEdit框架,实现了多个客户端在保持隐私和降低计算开销的情况下,协同进行知识编辑。

ID: 2502.15677v1来源: arxiv发布时间: 2025-02-25

AutoToM: Automated Bayesian Inverse Planning and Model Discovery for Open-ended Theory of Mind

作者: Zhining Zhang, Chuanyang Jin, Mung Yao Jia, Tianmin Shu

研究方向: 机器理论思维(Machine Theory of Mind)

本文介绍了一种名为AutoToM的自动化贝叶斯理论思维方法,旨在实现开放式的机器理论思维。AutoToM能够在任何领域工作,推断任何心理变量,并执行任何阶数的鲁棒理论思维推理。

ID: 2502.15676v1来源: arxiv发布时间: 2025-02-25

VaViM and VaVAM: Autonomous Driving through Video Generative Modeling

作者: Florent Bartoccioni, Elias Ramzi, Victor Besnier, Shashanka Venkataramanan, Tuan-Hung Vu, Yihong Xu, Loick Chambon, Spyros Gidaris, Serkan Odabas, David Hurych, Renaud Marlet, Alexandre Boulch, Mickael Chen, Éloi Zablocki, Andrei Bursuc, Eduardo Valle, Matthieu Cord

研究方向: 自动驾驶,视频生成模型,视觉语言动作模型

本文研究了大规模生成视频模型在自动驾驶中的应用,引入了开源自回归视频模型VaViM及其伴随的视频动作模型VaVAM,以探究视频预训练如何迁移到现实世界的驾驶中。

ID: 2502.15672v1来源: arxiv发布时间: 2025-02-25

Almost AI, Almost Human: The Challenge of Detecting AI-Polished Writing

作者: Shoumik Saha, Soheil Feizi

研究方向: 人工智能文本检测与评估

本文研究了使用大型语言模型(LLMs)进行文本生成,并评估了现有AI文本检测器在检测AI润色文本方面的性能。研究者创建了一个名为APT-Eval的数据集,包含经过不同程度AI润色的文本样本,并使用11种最先进的AI文本检测器进行评估。

ID: 2502.15666v1来源: arxiv发布时间: 2025-02-25

Machine-generated text detection prevents language model collapse

作者: George Drayson, Vasileios Lampos

研究方向: 人工智能,自然语言处理,语言模型

该研究探讨了大型语言模型(LLM)在训练过程中由于使用机器生成文本导致模型性能下降的问题,即所谓的“模型崩溃”。研究通过分析解码策略对模型崩溃的影响,设计了一种基于机器生成文本检测器的数据重采样方法,以防止模型崩溃并提高模型性能。

ID: 2502.15654v1来源: arxiv发布时间: 2025-02-25

Logit Disagreement: OoD Detection with Bayesian Neural Networks

作者: Kevin Raina

研究方向: 机器学习,深度学习,贝叶斯方法,异常检测

该研究提出了一种基于贝叶斯神经网络的异常检测方法,特别针对分布外检测(OoD)。通过测量模型参数后验样本中logits的分歧来估计认知不确定性,该方法在多个实验中取得了优于传统方法的表现。

ID: 2502.15648v1来源: arxiv发布时间: 2025-02-25

Loop unrolling: formal definition and application to testing

作者: Li Huang, Bertrand Meyer, Reto Weber

研究方向: 软件测试与验证

本文研究了循环展开在软件测试中的应用,通过数学模型和形式化方法对循环展开进行了定义和形式化分析,并设计了一种名为SCU的自动测试生成策略,将循环展开应用于测试生成中,以提高测试覆盖率。

ID: 2502.15535v1来源: arxiv发布时间: 2025-02-25

Programmers Aren't Obsolete Yet: A Syllabus for Teaching CS Students to Responsibly Use Large Language Models for Code Generation

作者: Bruno Pereira Cipriano, Lúcio Studer Ferreira

研究方向: 大型语言模型(LLM)在计算机科学教育中的应用

本文探讨了大型语言模型(LLM)在代码生成中的潜力及其在计算机科学教育中的整合。文章强调了在LLM辅助下进行软件开发的重要性,同时指出学生需要具备扎实的编程基础以负责任地使用这些工具。

ID: 2502.15493v1来源: arxiv发布时间: 2025-02-25

FaultGPT: Industrial Fault Diagnosis Question Answering System by Vision Language Models

作者: Jiao Chen, Ruyi Huang, Zuohong Lv, Jianhua Tang, Weihua Li

研究方向: 工业故障诊断

本文提出了一种名为FaultGPT的新型工业故障诊断问答系统,该系统利用大型视觉语言模型(LVLM)直接从原始振动信号中生成故障诊断报告。

ID: 2502.15481v1来源: arxiv发布时间: 2025-02-25

LServe: Efficient Long-sequence LLM Serving with Unified Sparse Attention

作者: Shang Yang, Junxian Guo, Haotian Tang, Qinghao Hu, Guangxuan Xiao, Jiaming Tang, Yujun Lin, Zhijian Liu, Yao Lu, Song Han

研究方向: 长序列大型语言模型服务

LServe是一个高效的系统,用于加速长序列大型语言模型(LLM)的服务。它通过混合稀疏注意力机制来减少计算复杂性和内存占用,从而提高服务效率。

ID: 2502.14866v1来源: arxiv发布时间: 2025-02-23 22:28:00