MsaMIL-Net: An End-to-End Multi-Scale Aware Multiple Instance Learning Network for Efficient Whole Slide Image Classification
作者: Jiangping Wen, Jinyu Wen, Emei Fang
发布时间: 2025-03-12
来源: arxiv
研究方向: 医学图像分析,特别是全切片图像(WSI)的分类
主要内容
提出了一种名为MsaMIL-Net的端到端多尺度感知多个实例学习网络框架,用于高效的全切片图像分类。该框架结合了多尺度特征提取和多实例学习,旨在提高WSI分类的性能。
主要贡献
1. 提出了一个端到端的多尺度WSI分类框架,结合了多尺度特征提取和多实例学习。
2. 设计了语义特征过滤模块、多尺度特征提取模块和多尺度融合模块。
3. 提出了一个端到端的训练策略,同时优化特征提取器和MIL网络。
4. 在多个公开数据集上进行了实验,证明了该方法在准确率和AUC指标上优于现有方法。
研究方法
1. 多尺度特征提取:使用不同放大倍数的原始图像块(20x、10x、5x)提取多尺度特征。
2. 多尺度融合MIL模块:对全局进行建模并高效融合多尺度特征。
3. 语义特征过滤模块:使用UNet++在低放大倍数下分割病变区域,减少非病变区域的干扰。
4. 端到端训练策略:通过梯度累积等技术同时优化特征提取器和MIL网络。
实验结果
在DigestPath2019、BCNB和UBC-OCEAN三个数据集上进行了实验,结果表明MsaMIL-Net在准确率和AUC指标上均优于现有方法。
未来工作
进一步优化多尺度特征提取和融合机制,探索更有效的特征过滤方法,将MsaMIL-Net扩展到其他医学图像分析任务。