FMT:A Multimodal Pneumonia Detection Model Based on Stacking MOE Framework

作者: Jingyu Xu, Yang Wang

研究方向: 医学图像分析与肺炎诊断

本文提出了一种名为FMT的多模态肺炎检测模型,该模型结合了深度学习和多模态数据,旨在提高肺炎诊断的准确性。

ID: 2503.05626v1来源: arxiv发布时间: 2025-03-10

Learning LLM Preference over Intra-Dialogue Pairs: A Framework for Utterance-level Understandings

作者: Xuanqing Liu, Luyang Kong, Wei Niu, Afshin Khashei, Belinda Zeng, Steve Johnson, Jon Jay, Davor Golac, Matt Pope

研究方向: 对话理解与任务导向对话系统

本文提出了一种利用大型语言模型(LLM)生成标签并在此基础上进行微调的框架,旨在解决实时对话理解中数据标注成本高、效率低的问题。该框架通过偏好学习机制,结合少量高质量人工标注数据和大量LLM生成的低质量标签,实现了在保持较高准确率的同时,提高模型的处理速度。

ID: 2503.05620v1来源: arxiv发布时间: 2025-03-10

A Survey on Sparse Autoencoders: Interpreting the Internal Mechanisms of Large Language Models

作者: Dong Shu, Xuansheng Wu, Haiyan Zhao, Daking Rai, Ziyu Yao, Ninghao Liu, Mengnan Du

研究方向: 稀疏自动编码器在大型语言模型中的内部机制解释

本文对稀疏自动编码器(Sparse Autoencoders,SAEs)在解释大型语言模型(LLMs)内部机制中的应用进行了全面调查。SAEs通过学习一个稀疏的表示来分解LLMs中的复杂特征,从而提供更可解释的内部表示。

ID: 2503.05613v1来源: arxiv发布时间: 2025-03-10

CACTUS: An Open Dataset and Framework for Automated Cardiac Assessment and Classification of Ultrasound Images Using Deep Transfer Learning

作者: Hanae Elmekki, Ahmed Alagha, Hani Sami, Amanda Spilkin, Antonela Mariel Zanuttini, Ehsan Zakeri, Jamal Bentahar, Lyes Kadem, Wen-Fang Xie, Philippe Pibarot, Rabeb Mizouni, Hadi Otrok, Shakti Singh, Azzam Mourad

研究方向: 心血管超声图像的自动评估与分类

该研究旨在通过深度学习技术自动评估和分类心血管超声图像,以提高医疗诊断的效率和准确性。

ID: 2503.05604v1来源: arxiv发布时间: 2025-03-10

R1-Searcher: Incentivizing the Search Capability in LLMs via Reinforcement Learning

作者: Huatong Song, Jinhao Jiang, Yingqian Min, Jie Chen, Zhipeng Chen, Wayne Xin Zhao, Lei Fang, Ji-Rong Wen

研究方向: 大语言模型(LLMs)的搜索能力增强

本文提出了一种名为R1-Searcher的框架,旨在通过强化学习(RL)增强LLMs的搜索能力。该框架允许LLMs在推理过程中自主调用外部搜索系统来访问额外的知识,以提高推理的准确性和效率。

ID: 2503.05592v1来源: arxiv发布时间: 2025-03-10

Quantifying the Robustness of Retrieval-Augmented Language Models Against Spurious Features in Grounding Data

作者: Shiping Yang, Jie Wu, Wenbiao Ding, Ning Wu, Shining Liang, Ming Gong, Hengyuan Zhang, Dongmei Zhang

研究方向: 检索增强语言模型(RAG)的鲁棒性研究

该研究主要针对检索增强语言模型在真实世界应用中的鲁棒性问题,特别是针对数据中的虚假特征(隐式噪声)对模型的影响进行了深入分析。

ID: 2503.05587v1来源: arxiv发布时间: 2025-03-10

InDRiVE: Intrinsic Disagreement based Reinforcement for Vehicle Exploration through Curiosity Driven Generalized World Model

作者: Feeza Khan Khanzada, Jaerock Kwon

研究方向: 自动驾驶与强化学习

该研究提出了一种名为InDRiVE的基于模型增强的强化学习方法,用于自动驾驶。InDRiVE通过利用内部模型之间的不一致性来驱动车辆探索,从而实现无需任务特定反馈的自主探索。该方法旨在通过内禀探索提高样本效率和鲁棒性,并在零样本或少量样本的情况下快速适应下游驾驶任务。

ID: 2503.05573v1来源: arxiv发布时间: 2025-03-10

Compliance of AI Systems

作者: Julius Schöning, Niklas Kruse

研究方向: 人工智能法律合规与可解释人工智能

本文系统地研究了人工智能系统在欧盟人工智能法案和数据集合规方面的合规性。重点关注边缘设备在部署人工智能应用时面临的挑战,并提出了一套最佳实践方法,以确保人工智能系统的法律合规性。文章强调了数据集合规性对于确保人工智能系统的可信度、透明度和可解释性的重要性。

ID: 2503.05571v1来源: arxiv发布时间: 2025-03-10

Impoola: The Power of Average Pooling for Image-Based Deep Reinforcement Learning

作者: Raphael Trumpp, Ansgar Schäfftlein, Mirco Theile, Marco Caccamo

研究方向: 深度强化学习,特别是基于图像的深度强化学习

该论文研究了基于图像的深度强化学习中的网络架构和训练方法,提出了Impoola-CNN模型,通过引入全局平均池化层来提高图像编码器的性能。

ID: 2503.05546v1来源: arxiv发布时间: 2025-03-10

Post-Hoc Concept Disentanglement: From Correlated to Isolated Concept Representations

作者: Eren Erogullari, Sebastian Lapuschkin, Wojciech Samek, Frederik Pahde

研究方向: 可解释人工智能(XAI)与深度学习模型的可解释性和透明度

该研究提出了一种后处理概念解耦方法,旨在通过引入非正交性损失,识别正交的概念方向,同时保留方向正确性,以解决神经网络中相关概念(如“胡子”和“领带”)的激活方向相互纠缠的问题。

ID: 2503.05522v1来源: arxiv发布时间: 2025-03-10