MsaMIL-Net: An End-to-End Multi-Scale Aware Multiple Instance Learning Network for Efficient Whole Slide Image Classification

作者: Jiangping Wen, Jinyu Wen, Meie Fang

发布时间: 2025-03-13

来源: arxiv

研究方向: 医学图像分析、深度学习、全切片图像分类、多尺度特征提取、多实例学习

主要内容

MsaMIL-Net是一种基于多尺度多实例学习网络框架的端到端全切片图像分类方法。该方法通过结合多尺度特征提取和多实例学习,有效提升了全切片图像的分类性能。

主要贡献

1. 提出了一种端到端可微的多尺度感知多实例学习网络框架(MsaMIL-Net)。

2. 设计了语义特征过滤模块(SFFM)、多尺度特征提取模块(MSFEM)和实例感知注意力模块(IAAM)。

3. 采用端到端训练策略,同时优化特征提取网络和多实例学习网络。

4. 在多个公开数据集上进行了实验,证明了MsaMIL-Net的有效性和优越性。

研究方法

1. 多尺度特征提取

2. 多实例学习

3. 端到端训练

4. 语义特征过滤

5. 实例感知注意力机制

6. 梯度累积和梯度检查点技术

实验结果

MsaMIL-Net在多个公开数据集上取得了优异的分类性能,AUC和ACC指标均达到了目前最先进的水平。与现有的单尺度和多尺度多实例学习方法相比,MsaMIL-Net在分类精度和AUC指标上均有显著提升。端到端训练方法在训练时间和分类性能方面优于传统的自监督预训练方法。

未来工作

进一步优化多尺度特征提取和融合机制,探索更有效的特征过滤方法,将MsaMIL-Net扩展到其他医学图像分析任务中。