摘要
本发明公开了一种基于Swin Transformer的多模态宫颈癌前病变区域分割方法。本发明提出MSS‑Net神经网络,旨在克服现有方法的不足,充分利用Swin Transformer的特征提取能力,实现醋酸实验图像和碘实验图像的多模态融合。首先,收集并标注阴道镜图像中的HSIL+区域。然后,使用目标检查算法提取宫颈区域,剔除非宫颈区域的噪声。接着,将预处理后的醋酸溶液图像和碘溶液图像分别输入Swin Transformer特征提取网络,得到多层次的特征图。通过多模注意力模块加权融合特征图后,输入解码器模块,通过级联上采样生成最终的分割结果。最后,使用Dice系数和交叉熵损失函数训练神经网络MSS‑Net,得到训练好的模型。本发明通过多模态数据融合和增强特征提取能力,实现了对宫颈癌前病变区域的较为精确分割。
技术关键词
宫颈癌前病变
阴道镜
区域分割方法
图像
注意力
权重特征
特征提取网络
醋酸
溶液
特征提取能力
检查算法
上采样
解码器
标注工具
多模态数据融合
通道
算法模型
模块
训练集
系统为您推荐了相关专利信息
密度测量方法
X射线成像
固体颗粒
图像
X射线发射源