Semantic Shift Estimation via Dual-Projection and Classifier Reconstruction for Exemplar-Free Class-Incremental Learning

作者: Run He, Di Fang, Yicheng Xu, Yawen Cui, Ming Li, Cen Chen, Ziqian Zeng, Huiping Zhuang

研究方向: 机器学习,持续学习,类增量学习

该论文提出了一种名为DPCR的EFCIL(无样本类增量学习)方法,旨在解决在持续学习过程中遇到的语义偏移和决策偏差问题。DPCR通过双重投影和分类器重建技术,有效地平衡了稳定性和塑性,提高了模型在新任务上的表现。

ID: 2503.05423v1来源: arxiv发布时间: 2025-03-10

Ontology Generation using Large Language Models

作者: Anna Sofia Lippolis, Mohammad Javad Saeedizade, Robin Keskisärkkä, Sara Zuppiroli, Miguel Ceriani, Aldo Gangemi, Eva Blomqvist, Andrea Giovanni Nuzzolese

研究方向: 本体工程与大型语言模型

本研究探讨了大型语言模型(LLMs)在自动化本体工程中的应用潜力,通过用户故事和竞争力问题描述本体需求,直接生成有效的OWL本体草稿。

ID: 2503.05388v1来源: arxiv发布时间: 2025-03-10

VLMs Play StarCraft II: A Benchmark and Multimodal Decision Method

作者: Weiyu Ma, Yuqian Fu, Zecheng Zhang, Guohao Li

研究方向: 多模态游戏人工智能与多智能体强化学习

该研究提出了一种名为VLM-Attention的多模态StarCraft II环境,旨在使人工智能代理的感知与人类游戏体验相一致。该环境通过结合RGB视觉输入和自然语言观察,更接近人类在游戏中的认知过程,从而解决传统框架中抽象状态表示与人类感知之间的差异。

ID: 2503.05383v1来源: arxiv发布时间: 2025-03-10

Shifting Perspectives: Steering Vector Ensembles for Robust Bias Mitigation in LLMs

作者: Zara Siddique, Irtaza Khalid, Liam D. Turner, Luis Espinosa-Anke

研究方向: 大型语言模型(LLMs)中的偏见缓解与社会公平

本文提出了一种新的方法,通过应用引导矢量来修改大型语言模型(LLMs)的前向激活,以减轻LLMs中的偏见。该方法利用贝叶斯优化系统地识别有效的对比数据集,并引入了引导矢量集成(SVE),这是一种通过组合针对特定偏见轴的多个单独优化的引导矢量来平均多个引导矢量以修改激活的方法。

ID: 2503.05371v1来源: arxiv发布时间: 2025-03-10

Improving Hate Speech Classification with Cross-Taxonomy Dataset Integration

作者: Jan Fillies, Adrian Paschke

研究方向: 仇恨言论检测与分类

该研究旨在通过整合不同定义和标注的仇恨言论数据集,提高仇恨言论检测的准确性和效率。研究提出了一个通用的仇恨言论分类法和一个分类器,能够在一个框架内检测多种定义的仇恨言论。

ID: 2503.05357v1来源: arxiv发布时间: 2025-03-10

Spatial Distillation based Distribution Alignment (SDDA) for Cross-Headset EEG Classification

作者: Dingkun Liu, Siyang Li, Ziwei Wang, Wei Li, Dongrui Wu

研究方向: 脑-机接口(BCI)与迁移学习

该研究提出了一种名为SDDA(基于空间蒸馏的分布对齐)的方法,用于解决不同脑电头戴式设备之间的脑-机接口(BCI)数据迁移学习问题。SDDA通过空间蒸馏和分布对齐策略,有效地将源域的知识迁移到目标域,从而提高跨头戴式设备的BCI分类性能。

ID: 2503.05349v1来源: arxiv发布时间: 2025-03-10

AutoIOT: LLM-Driven Automated Natural Language Programming for AIoT Applications

作者: Leming Shen, Qiang Yang, Yuanqing Zheng, Mo Li

研究方向: 人工智能与物联网(AIoT)

本文提出了一种名为AutoIOT的基于大型语言模型(LLM)的自动化编程生成器,用于AIoT应用开发。AutoIOT允许用户使用自然语言描述需求,并自动生成可解释的程序和文档。该系统通过模块化编程、自动化程序合成和代码改进模块,实现了AIoT应用的自动化开发,提高了开发效率,降低了隐私风险和通信成本。

ID: 2503.05346v1来源: arxiv发布时间: 2025-03-10

Toward an Evaluation Science for Generative AI Systems

作者: Laura Weidinger, Deb Raji, Hanna Wallach, Margaret Mitchell, Angelina Wang, Olawale Salaudeen, Rishi Bommasani, Sayash Kapoor, Deep Ganguli, Sanmi Koyejo, William Isaac

研究方向: 生成式AI系统评估科学

本文探讨了生成式AI系统在现实世界部署中的性能和安全性评估问题。指出当前评估体系存在不足,如静态基准测试的有效性挑战和个案方法的可扩展性不足。提出借鉴其他领域如交通、航空航天和制药工程的安全评估实践,强调评估指标应适用于现实世界性能,指标应迭代优化,并建立评估机构和规范。

ID: 2503.05336v1来源: arxiv发布时间: 2025-03-10

Speculative Decoding for Multi-Sample Inference

作者: Yiwei Li, Jiayi Shi, Shaoxiong Feng, Peiwen Yuan, Xinglin Wang, Yueqi Zhang, Ji Zhang, Chuyi Tan, Boyuan Pan, Yao Hu, Kan Li

研究方向: 自然语言处理与机器学习

提出了一种针对多样本推理场景的推测解码方法,旨在提高大型语言模型(LLM)在复杂推理任务中的预测准确性和效率。

ID: 2503.05330v1来源: arxiv发布时间: 2025-03-10

Dynamic Knowledge Integration for Evidence-Driven Counter-Argument Generation with Large Language Models

作者: Anar Yeginbergen, Maite Oronoz, Rodrigo Agerri

研究方向: 自然语言处理(NLP)中的论证与反驳生成

本研究探讨了动态外部知识整合在利用大型语言模型(LLM)生成反驳论证中的作用。研究人员通过构建一个平衡论证复杂性和评估可行性的手动编纂数据集,并引入了一种新的基于LLM的评估方法,以改进反驳论证的质量。实验结果表明,从网络中整合动态外部知识可以显著提高生成反驳论证的质量,特别是在相关性、说服力和事实性方面。

ID: 2503.05328v1来源: arxiv发布时间: 2025-03-10