本技术属于卵巢癌图像研究与分析技术领域,具体涉及一种基于自适应融合网络的卵巢癌图像深度分析方法,包括随机水平翻转、颜色抖动、随机裁剪与擦除,实现了训练数据的多样化,从而提高了模型的泛化能力;通过层次化特征提取机制,引入卷积神经网络(CNN)与视觉变换器(ViT)两种模型,分别捕捉图像的低级细节特征与高级语义特征;通过特征自适应融合方法,能够根据任务需求动态调整CNN与ViT的权重,将低级与高级特征动态融合,使模型能够全面学习图像的局部细节和全局结构信息;引入Focal Loss和Dice Loss结合的损失函数Balanced Dice Loss,调整了难易样本的权重,解决了数据类别不平衡和模型在微小区域预测困难问题,从而实现更准确的卵巢癌图像分类。
背景技术
卵巢癌是一种异质性强且高度致命的妇科恶性肿瘤,其发展伴随着复杂的分子生物学特征和多阶段病理变化。图像分析在卵巢癌的早期诊断中发挥着至关重要的作用,通过医学影像,能够有效地检测和监测卵巢癌的肿瘤形态、位置及其扩散情况。卵巢癌图像数据具有高度异质性,不同患者的病变区域表现形式各异,肿瘤大小、形状、密度及其与周围组织的关系存在很大差异,现有方法在对卵巢癌图像进行分类时未考虑其高异质性。
实现思路