MsaMIL-Net: An End-to-End Multi-Scale Aware Multiple Instance Learning Network for Efficient Whole Slide Image Classification

作者: Jiangping Wen, Jinyu Wen, Emei Fang

发布时间: 2025-03-12

来源: arxiv

研究方向: 医学图像分析,特别是全切片图像(WSI)的分类

主要内容

提出了一种名为MsaMIL-Net的端到端多尺度感知多个实例学习网络框架,用于高效的全切片图像分类。该框架结合了多尺度特征提取和多实例学习,旨在提高WSI分类的性能。

主要贡献

1. 提出了一个端到端的多尺度WSI分类框架,结合了多尺度特征提取和多实例学习。

2. 设计了语义特征过滤模块、多尺度特征提取模块和多尺度融合模块。

3. 提出了一个端到端的训练策略,同时优化特征提取器和MIL网络。

4. 在多个公开数据集上进行了实验,证明了该方法在准确率和AUC指标上优于现有方法。

研究方法

1. 多尺度特征提取:使用不同放大倍数的原始图像块(20x、10x、5x)提取多尺度特征。

2. 多尺度融合MIL模块:对全局进行建模并高效融合多尺度特征。

3. 语义特征过滤模块:使用UNet++在低放大倍数下分割病变区域,减少非病变区域的干扰。

4. 端到端训练策略:通过梯度累积等技术同时优化特征提取器和MIL网络。

实验结果

在DigestPath2019、BCNB和UBC-OCEAN三个数据集上进行了实验,结果表明MsaMIL-Net在准确率和AUC指标上均优于现有方法。

未来工作

进一步优化多尺度特征提取和融合机制,探索更有效的特征过滤方法,将MsaMIL-Net扩展到其他医学图像分析任务。