基于深度学习的医学图像分析域自适应研究

时间:2024-09-02 09:36:02 来源:网友投稿

李佳燨 刘红英 万亮

摘 要:深度学习技术的广泛应用有力推动了医学图像分析领域的发展,然而大多数深度学习方法通常假设训练集和测试集是独立同分布的,这个假设在模型临床部署时很难保证实现,因此常出现模型性能下降、场景泛化能力不强的困境。基于深度学习的域自适应技术是提升模型迁移能力的主流方法,其目的是使在一个数据集上训练的模型能够在另一个没有或只有少量标签的数据集上也获得较好结果。由于医学图像存在着样本获取和标注困难、图像性质特殊、模态差异等情况,这给域自适应技术带来很多现实挑战。首先介绍域自适应的定义及面临的主要挑战,进而从技术角度分类总结了近年来的相关算法,并对比分析其优缺点;
然后详细介绍了域自适应常用的医学图像数据集以及相关算法结果情况;
最后,从发展瓶颈、技术手段、交叉领域等方面,展望了面向医学图像分析的域自适应的未来研究方向。

关键词:医学图像分析;

域自适应;

域间偏移;

源域;

目标域

中图分类号:TP311   文献标志码:A   文章编号:1001-3695(2024)05-002-1291-10

doi:10.19734/j.issn.1001-3695.2023.08.0379

Survey of medical image analysis domain adaptation based on deep learning

Abstract:The wide application of deep learning techniques has strongly promoted the development of the medical image analysis field. Most deep learning methods usually assume that the training and test sets are independent and identically distributed. However, the assumption is problematic to guarantee when the model. Resulting in the dilemma of model performance degradation and poor scene generalization ability. Deep learning-based domain adaptation techniques are the mainstream methods for improving model migration ability,which aims to enable the model trained on one dataset to obtain better results on another dataset with no or only a small amount of labels. Due to the difficulties in sample acquisition and labelling, unique image properties and modal differences in medical images,it brings many practical challenges to domain adaptive technology. This paper firstly introduced the definition and primary challenges of the domain adaptation and then classified and summarized related algorithms in recent years from a technical point of view, compared and analyzed their advantages and disadvantages, and then introduced the medical image datasets commonly used in domain adaptation and related algorithm results in detail. Finally, this paper prospected the future research direction of domain adaptation for medical image analysis regarding development bottlenecks, technical means, and cross-cutting areas.

Key words:medical image analysis; domain adaptation; domain shift; source domain; target domain

0 引言

近年來,深度学习技术已广泛应用于医学图像分析领域,并在分类[1]、分割[2, 3]、检测[4]等任务中取得了出色的表现。然而,大部分方法在临床部署时性能会出现显著下降,这是由于在现实临床场景中模型不可避免地会应用于不同的医院、扫描设备、患者群体等情况,导致其训练集和测试集之间存在分布差异,即域间偏移现象。一种直接的解决方案是在每个应用的新场景中都重新收集数据并进行训练,但医学图像数据的样本获取和标注都非常困难,特别是标注通常需要经验丰富的医生完成,过程耗时耗力且成本较高,因此这种方法是不切合实际的。由于基于深度学习的域自适应方法能够减轻域间偏移对模型造成的影响,从而提升模型在现实世界面对复杂多样的数据分布时的适应能力,吸引了大量研究人员深入探索,已成为目前医学图像分析领域的研究热点[5]。域自适应(domain adaptation,DA)是在深度学习框架下,利用带有标注的数据集(即源域)和没有标注或只有少量标注的数据集(即目标域)学习给定的任务模型,使其在测试数据集所属的目标域中表现良好。然而,医学图像具有大规模数据集难获取、图像性质特殊(例如低对比度、边界模糊等)以及成像原理不同导致图像呈现显著差异等特有挑战。因此,为了充分发挥域自适应在医学图像领域的应用优势,大量研究人员从多种技术角度,例如领域对齐[6~9]、解耦学习[10~12]和学习策略[13~15]等,解决上述挑战,并取得了显著的成果,极大地提升了深度学习模型在临床场景的迁移能力。

本文区别于已有的域自适应综述[5,16,17]有以下四点不同:a)重点梳理了面向医学图像分析的域自適应研究方法,以技术手段作为划分依据,全面地总结和分析了现有的相关工作;
b)结合医学图像的特点,详细分析了当前域自适应领域面临的挑战;
c)结合不同方法在常用公开数据集的评估结果,比较和分析不同类型研究方法的优势和限制;
d)从发展瓶颈与解决方案、可探索的技术手段及交叉领域研究三个方面详尽讨论了域自适应在医学图像分析领域未来的发展趋势,为今后进一步研究提供参考。

1 域自适应问题的形式化定义

在域自适应问题中,数据分布之间的偏移是导致模型性能下降的主要原因,因此为了确定样本空间上的特定分布,本文首先定义域的概念,由此引出域自适应的定义,最后归纳出域自适应的研究目标,以便为后续研究方法的总结提供基础。

定义2 域自适应。解决的问题是当源域和目标域的输入空间和输出空间保持一致,而联合概率分布发生变化的情况。在域自适应问题中,存在一个有标注数据集Ds (源域)和一个无标注或只有少量标注数据集Dt(目标域),两个域所对应的联合分布不同,即FsXY≠FtXY,学习算法的目标是使得模型在目标域泛化的误差尽可能小,这一过程如图1所示。

2 域自适应在医学图像分析中的挑战

相较于自然图像,医学图像的特殊性体现在图像特点、采集方式、数据集大小等多个方面。这些差异导致适用于自然图像的方法难以在医学图像数据集上取得好的效果。

1)医学图像的性质

医学图像的采集过程中,大多数成像方式的医学图像通常会存在低分辨率、高噪声水平、低对比度、几何变形以及成像伪影等问题。这些通用的医学图像分析挑战也影响着域自适应算法的性能。同时,医学图像中通常包含有疾病病灶信息,这些信息对于疾病的分类、检测、分割等任务都是至关重要的。在域自适应中,如果未能保留病变或异常的特定语义信息,会损害模型的性能。因此,医学图像本身的特殊性质是在域自适应算法设计中一个需要重点考虑的问题。

2)跨模态应用场景下的域自适应

与一般由光学设备拍摄的自然图像不同,医学放射图像是通过不同的成像方式获得的,如计算机断层扫描 (computed tomography,CT) 和磁共振成像 (magnetic resonance imaging,MRI) 。由于不同的成像原理,这两个模态的数据分布明显不匹配,同时其解剖结构呈现不同外观。如图2(a)所示,心脏解剖结构在MR和CT两个模态之间存在严重域间偏移现象[18]。因此,将在其中一个模态上训练的模型直接应用到另一个模态上时,模型性能会显著下降,如图2(b)所示。与一般的域自适应任务相比,跨模态医学图像的域自适应更具挑战性。

3)少量样本/标注驱动下的域自适应

深度学习算法通常依赖大量数据,然而医学图像数据的获取涉及患者隐私、数据安全等问题,难以收集大量样本,同时医学图像数据的标注通常需要经验丰富的医生,标注过程耗时耗力,成本较高。常用的自然数据集ImageNet包含超过1 400万的标注图像,而大多医学图像数据集整体规模较小,仅包含几十到几百个病例。因此,在源域或目标域仅有少量样本/标注驱动的情况下,大部分基于深度学习的域自适应方法难以保持其本身的性能。

4)医学图像分析中特殊任务的域自适应

在医学图像分析领域,疾病诊断任务是十分常见的,通常涉及离散和独立标签的分类,类别间没有相关性。然而,离散且有序的标签在医学领域同样被广泛应用。例如,典型的糖尿病视网膜病变系统中的五个等级对应五个严重级别[19],如图3所示。这类标签是根据其严重程度设定的,因此该任务在域自适应的挑战是如何建模才能够迁移有序的类间相关结构[20]。与之类似,根据医学图像预测生存时间等回归任务,医学图像重建任务,异常检测任务等,都还未充分探索域间偏移问题。域自适应针对以上医学图像分析中的特殊任务也存在一定的挑战。

最后,在实际的临床场景中,上述挑战往往并不是单一出现,多类困难并存的情形也十分常见。因此,面向医学图像分析的域自适应仍然存在着诸多挑战亟需解决。

3 基于深度学习的域自适应研究方法

从解决域自适应问题的不同角度,现有研究方法大致可以分为领域对齐、解耦学习和学习策略三类。2017年,基于领域对齐的域自适应方法首次应用于医学图像分析领域[7],而后这类方法在文献数量和算法性能上逐渐展现出优势,是当前域自适应的主流方法之一。为了增强特征提取的可解释性,2019年部分方法开始采用解耦学习技术[10~12],相较于其他方法有了一定的竞争力。同年,受半监督和无监督学习等领域的影响,基于学习策略的方法被提出[13~15],这类方法不仅能很好地解决医学图像标注不足等问题,而且起到了良好的辅助作用,进一步提升了方法的性能,是目前正在迅速发展的一类研究方法。

3.1 基于领域对齐的域自适应方法

基于领域对齐的方法可以分为四类,其核心思想在于从不同空间减小源域和目标域间的差异。a)基于特征空间对齐的方法,该类方法将源域和目标域的图像映射到一个共同的潜在特征空间中,通过对抗学习或差异度量的方式减小域间差异;
b)基于图像空间对齐的方法,通常基于生成对抗网络,试图直接在图像空间转换源域或目标域图像的风格,以此来达到减轻域偏移的目的;
c)基于输出空间对齐的方法,主要思想是鼓励跨域共享输出空间,使源域和目标域产生一致的预测,达到输出适应的目的;
d)以上三类方法的不同组合,称为基于联合对齐的方法。

3.1.1 基于特征对齐的方法

早期工作主要以显式的方式测量域间差异,其中大多数方法致力于解决自然图像中的分类任务。例如,Long等人[21]最小化了最大平均差异 (maximum mean discrepancy,MMD) 损失和特定任务损失,以在潜在特征空间中对齐域。在医学图像分析领域,受这类思想启发,文献[6]提出了一种域间差异度量指标,通过构建CFDNet将源域和目标域映射到一个公共的特征空间,分别提取两个域的特征信息(即多尺度特征融合结果)。为了使两个分布对齐,算法将不连续傅里叶频率空间估计分布的特征函数之间的距离作为损失函数,达到显式对齐域的目的。虽然CFDNet已被证明是有效的,但它需要与图像重建和先验匹配技术相结合才能达到与其他方法相当的性能。这类通过直接度量分布差异的方法,强制地对齐跨域特征,无差别地减小融合特征间的分布距离,可能会造成负迁移。

另一种方法是基于对抗学习隐式地对齐源域和目标域分布。对抗学习的思想来源于生成对抗网络(generative adversarial network,GAN)[22],主要包含生成器和鉴别器两个子网络,网络以一种最小最大化的方式迭代训练。在一般的域自适应方法中,特征提取器通常充当生成器的角色,而鉴别器负责分辨特征来自哪一个域,这迫使提取出的特征具有域不变性,使鉴别器难以区分,从而在特征层面实现跨域对齐。Kamnitsas等人[7]最早提出在医学图像分析领域应用对抗思想解决域自适应问题,该算法利用卷积神经网络提取特征,加之域判别器判断特征来源,以对抗损失作为监督,来更好地提取具有域不变性的高质量特征。然而,上述算法虽然提高了域自适应的性能,但在适应过程中没有考虑医学图像本身特殊的性质,导致不能很好地处理图像具有复杂纹理背景、强度分布不均的问题。为此,Zhu等人[8]设计了一种边界加权的域自适应网络BOWDA-Net,该算法为了解决分割中弱边界的问题,提出了鉴别器的边界加权转移损失,来提高鉴别器识别边界的能力,使信息传递的过程更多地集中在边界上。针对更加具有挑战性的跨模特域自适应,Dou等人[9]提出一种即插即用的对抗性域自适应网络PnP-AdaNet应用于MRI和CT间的适应,如图4所示。算法遵循一个直接的思想:源域和目标域之间的分布变化主要存在于低级细节纹理特征,而高级的语义特征是一致的。因此,在目标域适应阶段,重用源域训练好的较高层特征提取网络,而更新较浅层网络参数来在特征空间中进行分布映射,应用对抗思想达到特征层面的对齐。该框架在实际应用中具有灵活性和轻量性,然而其选择调整浅层网络的层数d是一个对结果影响较大的超参数,若选择不当容易产生次优的结果。

变分自编码器 (variational auto-encoder,VAE) 是一种深度生成模型,使用VAE可以用正态分布来近似潜在变量的后验分布。这个属性能够将来自不同领域的特征驱动到潜在空间中的一个公共的参数化变量。部分域自适应方法利用这个属性,实现源域和目标域在潜在空间中特征的隐式对齐。Ouyang等人[23]将VAE和对抗网络相结合,前者的作用是在源和目标域图像的共享特征空间上引入先验正则化,迫使源和目标域的先验分布接近正态分布,从而更好地匹配域间特征分布;
后者则加强外观不变性,进一步减小域偏移。为了探索更加轻量级的解决方案,Chanti等人[24]提出一种基于VAE和最优传输 (optimal transport,OT) 理论的方法OLVA,算法将先验正态分布用于建模分割的形状,从而学习跨域公共的几何空间,该空间被约束遵循使用VAE实现分布匹配,进一步依靠OT损失来对齐潜在空间中两个域之间的剩余差异。上述方法结合了VAE和其他技术共同减小域间分布差异,而Wu等人 [25]提出的VarDA方法仅利用了VAE模型的独特性质,在心脏结构分割任务上达到了良好的性能。如图5所示,该框架包括源域VAE,目标域VAE和域差异损失。源域VAE编码器将源域图像映射到共享潜在特征空间,通过模型近似后验概率,从分布中采样潜在特征,输入分割器和重建解码器,目标域VAE具有类似的结构。对于域差异,两个VAE模型分别估计变分近似分布,通过计算两者之间的距离来对域差异进行正则化。

3.1.2 基于图像对齐的方法

跨域数據的域偏移体现在图像外观的改变上,例如MRI和CT这两种不同模态的医学图像在外观上存在明显差异。基于图像空间对齐的方法,通过跨域图像转换的方式使源域和目标域在图像外观上保持一致,解决数据本身存在的域偏移,从而使模型能够同时处理跨域数据,提升下游任务的表现。与特征对齐相比,这类方法可通过对转换后图像进行视觉检查获得更好的可解释性。

随着循环一致性生成对抗网络(cycle-consistent generative adversarial network,CycleGAN) 在无配对图像转换方面的成功,涌现出许多应用于医学图像分析领域的基于CycleGAN改进的域自适应算法。Chartisias等人[26]引入了一个两阶段框架,先利用CycleGAN从源域CT图像生成目标域MR图像,在对抗以及一致性损失的帮助下迫使生成的伪MR图像与真实的MR图像难以区分,同时保证伪MR图像与输入CT图像之间的对应关系,两者具有一致的分割标签,最后,使用生成的伪MR图像训练独立的分割网络,结果表现良好,揭示了循环一致性生成网络在域自适应领域的应用前景。然而,简单地使用CycleGAN可能导致生成图像在语义结构上的失真,这是因为其内部并没有显式地约束循环内每个生成器的输出,这意味着当图像从一个域转换到另一个域时,可能会发生几何畸变,但从鉴别器的角度来看,由于训练数据的形状是任意的,几何畸变不会改变合成图像的真实感。为了缓解这个问题,Hiasa等人[27]扩展了CycleGAN方法,利用梯度相关损失增加了真实图像和合成图像之间梯度的一致性,以提高边界的精度;
Cai等人[28]在CycleGAN的基础上引入了形状一致性损失,利用分割网络有监督地约束生成器合成图像;
Tomar等人[29]利用一个可学习的自注意力模块学习空间语义信息,然后将其送入解码器,根据注意信息对解码器层的输出进行重新规范化,同时提出了注意力正则化损失以鼓励注意力图彼此正交,确保每个注意力图聚焦于特定的解剖区域,促进了不同解剖结构的转换过程。为实现基于CycleGAN的图像转换,不可避免地需要使用大量样本。IB-GAN算法[30]即使使用了信息瓶颈技术保留转换图像的语义信息,同时在多个任务中都展现出了优越的性能,但是仍然在仅使用192张结肠镜图像作为训练样本时出现转换失败。因此,这类方法通常受限于样本数量的限制,同时依赖于生成对抗网络生成的跨域图像是否在合理的范围内,即保证真实性和语义不变性,从图像层面解决域偏移问题。

3.1.3 基于输出对齐的方法

域自适应定义表明,源域和目标域的标签空间相同,模型的输出应独立于域的变化,因此通过对抗学习鼓励跨域共享输出空间,使源域和目标域产生一致的预测是方法的基本思想。

Wang等人[31]首先提出了基于块级别的输出空间对抗性学习框架pOSAL,如图6所示。算法同时将源域和目标域图像输入任务模型,在对抗性损失的引导下,任务模型被训练产生真实的预测,用于欺骗鉴别器,同时鉴别器试图对源域的真实标签和目标域的预测标签进行区分,以学习高阶标签统计量之间的差异。同时,为了实现对局部分割细节的细粒度识别,算法将普通的鉴别器替换为一个块级别 (patch-level)的鉴别器,用于从源域的标签分布中学习空間和形状信息,同时捕获分割细节信息,引导分割网络关注图像局部结构的相似性。为了缓解医学图像对比度较低,造成分割结果产生不准确的边界预测,Wang等人[32]进一步提出了BEAL算法来判别模型输出的边界和熵图,鼓励模型生成精确的边界和抑制高不确定性区域。面对更具有挑战性的跨模态间的适应场景,Vesal等人[33]在算法中集成多种输出形式约束模型学习跨域不变的特征,包括基于点云引入额外的形状信息输出、预测熵输出及预测结果的输出形式。通过多种输出形式对齐带来的互补效应,使算法进一步弥合测试时源和目标之间的性能差距。

3.1.4 基于联合对齐的方法

上文分别介绍了从特征空间、图像空间和输出空间使源域和目标域对齐的方法,每种方法都有相应的优势及限制。因此,很多算法将不同的空间对齐策略集成到一个统一的框架中,使不同视角的对齐方法能够相互促进,进一步解决域自适应问题。

经典的联合对齐方法SIFA[34]结合了图像空间和特征空间对齐,算法在使用CycleGAN将源域图像转换为目标域图像外观的基础上,进一步采用多级特征自适应技术弥补生成图像与真实图像之间的剩余差距。实际上,图像空间对齐和特征空间对齐的主流方案都存在一定程度的不足。首先,现有图像空间对齐的流行架构是生成对抗网络,它通过对抗训练生成视觉上属于目标域的图像。但是,当生成器连续生成具有相似模式的图像时,基于GAN的模型可能会崩溃[35],导致生成图像的多样性受到限制。为此,Liu等人[36]提出的GFDA策略在图像空间对齐策略上采用傅里叶变换解耦风格和内容信息,然后替换低层次的频谱来统一它们的风格,从而在不失真的情况下减少源域和目标域在外观层面的域差异。其次,对于大部分的特征空间对齐方法,在提取高级语义方面存在不足,它们通常使用图像重建损失、对抗损失等间接地影响域不变表示学习,而没有明确地对语义特征部分进行约束。进一步,Liu等人[37]将特征空间和输出空间对齐的方法相结合,引入注意力机制,可以根据特征内容自适应地为不同的特征空间区域分配不同的权值,实现了源域到目标域的细粒度特征比对,同时在输出端增加鉴别器辅助分割结果对齐,互补地实现跨模态适应。语义信息的保护和对齐是跨域适应中影响结果的关键因素,合理地运用类别层面分布的约束,有利于目标域任务精度的提升。Han等人[18]提出了DSAN算法,该算法从三个不同的视角进行了有效的约束对齐,如图7所示。在图像空间,算法基于对抗损失在框架中设计了两个图像转换子网络,分别将图像从源域转换到目标域和从目标域转换到源域,同时引入重构损失,以更好地维护语义信息;
在特征空间,算法在两个转换子网络和分割子网络之间共享编码器,以实现双向特征对齐;
在输出空间,转换后的图像和原始图像得到的分割结果输入鉴别器判断来源,以缓解域之间的明显差异。这种基于联合对齐的算法和其他算法相比,在两个跨模态的适应任务上都具有显著优势。

3.2 基于解耦学习的域自适应方法

解耦表示学习旨在学习一种模型,该模型能够以表征的形式识别和解开隐藏在可观察数据中的潜在因素。将潜在的变化因素分离为具有意义的变量的过程,有利于学习数据的可解释表示,它模仿了人类在观察对象或关系时的理解过程。解耦学习已经在计算机视觉的广泛场景中证明了它在提高模型的解释性、可控性以及泛化性方面的强大能力。近两年,基于解耦学习的技术逐渐被应用到域自适应中,算法通常将来自源域和目标域的样本映射到特征空间分解为域不变特征和域特定特征,利用跨域不变特征的性质提高目标域的适应能力。

Yang等人[10]第一次将特征解耦的思想用于多模态肝脏分割任务,所提DADR算法通过寻找共享的语义空间并交换风格信息,以恢复域之间的多对多映射,捕获复杂的跨域关系。如图8所示,模型由编码器和生成器两部分组成,用于重建的VAE;
用于对抗训练的判别器鼓励对潜在空间进行解耦,将其分解为内容和风格子空间。在完成特征的解耦后,模型使用生成的仅含有语义结构的图像实现跨模态的肝脏分割任务。该算法也有一定的缺点,从图8可以看出,其模型结构复杂,损失函数较多,不易优化。

上述工作更为关注域不变特征,而域特定特征同样能够为网络提供有效的信息,探索合理利用领域特定信息的方式,能促使模型更有效地解耦。Pei等人[11]引入了零损失以强制不同领域间的域特定信息的交集尽可能接近于零,其背后的思想是假设编码器只能从源域提取域特定特征,那么它从目标域图像中提取的信息应为零。该方法证明了来自不同域的域特定特征,图像的重建和分割。ODADA算法[12]也充分利用域特定信息来帮助提取域不变特征,考虑到域特定特征和域不变特征之间的关系应该是独立的,算法通过正交损失来模拟这种关系。

3.3 基于学习策略的域自适应方法

对于无监督/半监督域自适应问题来说,如何在没有监督的情况下充分利用目标域信息是提升性能的关键。得益于半监督学习、无监督学习等领域的快速发展,近年来一些域自适应方法结合这些领域中的通用学习策略,不仅解决了医学图像中样本标注困难的挑战,而且提升了目标域的任务精度。

3.3.1 基于自训练的方法

自训练是一种半监督学习方法,是根据模型预测对未标记样本分配伪标签,并以伪标签作为监督信息对模型进行再训练的技术。为了充分利用目标域中未标记样本的信息,这类方法尝试选择可靠的伪标签或调整伪标签实现有效的监督。

伪标签去噪保留可靠性高的部分监督未标记样本,是一类直接的方法。Chen等人[13]提出了一种两级伪标签去噪方案DPL,如图9所示。在像素级,利用来自模型预测的像素级不确定性信息表明分割图上每个像素伪标签的不可靠性,过滤掉其中不可靠的像素;
在类级,遵循可靠的伪标签应该更接近它对应的类别质心这一原则对伪标签去噪,实现了目标域的良好预测。但这类方法存在一定问题,当本身的伪标签质量很低时,直接将不可靠的伪标签舍弃,会导致有限数量的正类伪标签难以实现所需的模型自适应。

除此之外,在训练过程中自适应地调整伪标签也可以最大限度减少噪声导致的错误监督。Jin等人[38]提出了一种双域增强自校正学习机制。在每个训练周期中,分割模型以真实源数据和伪标签目标数据混合作为输入,并在每个周期结束时更新目标域的伪标签。为了进一步缓解伪标签的不正确分割,算法通过水平和垂直翻转来增强目标域,然后将这些增强的预测进行聚合,以提高伪标签的可靠性。类似地,还有一些方法引入课程学习(curriculum learning,CL)策略由易到难地学习样本,防止训练初期的伪标签质量过差,不利于模型学习。例如:Cho等人[39]利用CL策略逐步更新优化伪标签;
Liu等人[40]使用自步调的学习策略,该方法主要基于适应良好的像素特征与同类原型接近而与其他类原型距离较远的假设,随着类别原型的逐步细化,可以通过自步调的方式生成更可靠的信息性伪标签,从而便于对目标域样本进行监督。

3.3.2 基于自集成学习的方法

近年来,基于自集成策略的半监督学习方法在医学图像分析中受到关注,其中应用最为广泛的架构是基于学生网络权重的指数移动平均(exponential moving average,EMA)建立的平均教师(mean teacher,MT)模型[41],通过利用不同的增强策略,迫使网络对目标样本作出一致的预测。Perone等人[14]首次应用自集成学习策略扩展了无监督域适应的方法用于医学图像中的语义分割任务,实验证明即使在使用少量未标记数据时,自集成依旧可以改善模型的泛化。如图10所示,源域图像通过增强转换送入学生模型,源域标签作为监督信号与预测结果计算分割损失,教师模型的参数用学生模型权重的指数移动平均进行更新;
而对于无标注的目标域数据,增强和原始图像则分别通过学生和教师模型,利用一致性损失强制学生和教师预测之间的一致性。自集成学习同样可以辅助处理跨域偏移大的场景,Li等人[42]设计了一个双教师模型,域内教师负责将目标域的知识转移到学生模型,域间教师采用图像转换模型CycleGAN缩小跨域外观差距后,通过知识蒸馏将源域的先验知识转移到学生模型。由此,学生模型隐式地掌握由两位教师传递的辅助领域内和领域间知识进行全面的整合和开发,在跨模态适应任务中显示了该方法的优越性。

3.3.3 基于自监督学习的方法

自监督学习主要是利用辅助任务 (pretext task)从大规模的无监督数据中人为构造监督信息,学习到对下游任务有价值的表征。在医学图像分析领域,自监督学习用来解决医学图像标注数据困难和域适应的双重挑战。在这种设置中,模型由来自数据本身的信息监督,无须任何额外的手动注释。

基于对比学习的方法是自监督学习中一种流行的范式,其指导原则是:通过学习对两个事物的相似或不相似进行编码来构建表征,即通过构建正负样本,度量正负样本的距离来实现自监督学习。Abbet等人[15]探索了对比学习与域自适应相结合的方式,克服在少量样本标注的情况下驱动模型适应的挑战。该算法通过域内和跨域自监督学习捕获视觉相似性来利用两个域的信息:在同一域内,利用数据增强创建正样本对,同时维护一个负样本队列,使用对比学习方法共同优化它们的相似性,捕获域内特征分布;
在不同域间,算法度量跨越样本的相似性,从而学习域无关的特征,提高域匹配的一致性。

3.4 域自适应算法小结

基于以上对域自适应算法的详细介绍,可以分析出现有不同方法的相应优势和不足,如表1所示。算法逐渐朝着解决医学影像中的挑战在不断地优化。例如:针对跨模态场景,大部分方法采用联合对齐的技术,从多个角度共同减小域差异,以互相促进的方式弥补单一对齐方法的不足;
针对医学图像样本和标注获取困难的情况,使用基于VAE的结构高效使用数据,避免了对抗学习需要大量训练样本的限制;
将算法与半监督及无监督领域的学习策略相结合,促进了少量数据标注驱动下域自适应的发展;
特征解耦方法则增强了算法的可解释性。

然而,当前面向医学图像分析的域自适应方法仍存在一些问题亟待解决。例如:算法的任务场景单一,当前算法多局限于分割任务,因此拓展到更多样的任务中是发展趋势之一;
大部分算法仅专注于2D层面的数据处理和分析,对于MRI、CT等固有3D信息的模态来说,切片为2D处理缺失了深度的語义信息,同时一些任务会因2D医学图像的前景和背景不平衡的问题损害模型性能,所以将算法扩展到3D实现是必要的。

4 医学图像数据集统计及算法性能对比分析

4.1 医学图像常见模态简介

医学图像的模态可以根据不同的成像方式划分,在域自适应的研究中,最常见的医学图像模态是计算机断层扫描CT和磁共振成像MRI。

1)计算机断层扫描CT

计算机断层扫描是一种使用X射线技术来生成身体内部图像的成像方式,其成像速度快、器官的运动伪影较小。该成像方式通过利用病灶和非软组织之间强度不同的特点,可以清晰显示病灶区域,同时准确地探测各种不同组织间密度的微小差别[43]。如图11所示,在腹部多器官MALB-CV数据集[44]中,CT图像以不同的灰度来反映器官和组织对X射线的吸收程度,密度高的组织(骨骼)在CT图像中显示为白色;
密度低则表现为黑色(脂肪)。

2)磁共振成像MRI

磁共振成像是一种非侵入、性能良好的软组织对比成像方式[43]。与CT图像不同,MR图像反映的是组织信号的强度,越亮的区域代表组织信号的强度越高,反之则信号强度越低。同时,MRI可以通过调节成像参数来生成不同的扫描序列,以提供丰富的诊断信息。如图12所示,在BraTS2018数据集[45]中,每位患者有四种序列的MRI成像方式,不同序列的图像捕获了解剖结构的不同特定特征。其中,T2和FLAIR图像适用于检测病灶周围的水肿情况,T1和T1c适用于检测病灶核心[43]。

4.2 常用医学图像数据集统计

表2总结了医学图像分析领域常用于检验域自适应算法有效性的六个任务。本文主要介绍和比较相关任务所使用的数据集信息(包括名称、图像类型、样本量、标签种类)以及任务对应的适应类型。

a)皮肤病变分类。该任务有五个常用的公开数据集[46~50],每个数据集都是由不同的皮肤镜(dermoscopy) 设备采集。在这种情况下,分布变化主要源于摄影特性、患者特性和疾病特性等因素;同时不同数据集的样本量差距大,类别种类不平衡。因此,该任务驱动了领域数据/类别不平衡条件下域自适应的发展。

b)视杯视盘分割。眼底图像的视杯视盘分割任务包括三个常用数据集[41~53]。这些数据集由不同机构的不同光学相干断层扫描仪(optical coherence tomography, OCT) 获取。

c)脑部肿瘤分割。该任务常用的BraTS2018数据集[45]共包含285例患者。每位患者有四种序列的MRI成像方式。该任务在MRI多序列的适应场景中用于评估算法的性能,这种场景相对于MRI多中心/设备的场景的分布偏移更大,更具挑战性。

d)心脏结构分割。该任务中包含三个常用数据集:M&Ms数据集[54]包含320个受试者,分别来自四个不同供应商;
MS-CMRSeg数据集[55]提供了三个MRI序列,文献[26]在多序列的适应场景下完成了深度域适应算法的验证;
MM-WHS数据集[56]包括40名患者的20例MRI和20例CT图像。

e)腹部多器官分割。腹部多器官的跨模态适应任务由两个公开数据集组成:CHAOS公开数据集[57],共20例腹部MRI病例;
MALB-CV公开数据集[44],包括30个病例的CT数据。部分工作[22,58]选择这个数据集作为跨模态域适应场景下的算法检验标准。

f)息肉检测。CVC-ClinicDB数据集[59]通过内窥镜(endoscopy)采集自23例患者的612个标准清晰度(standard definition,SD)帧;
ETIS-LARIB数据集[60]包含采集自34例患者的196个高清(high definition,HD)帧。两个数据集分别在不同的临床中心和记录设备上获取。

4.3 算法性能对比分析

表3 展示了在无监督域适应(unsupervised domain adaptation,UDA)的研究设置下,域自适应算法在使用最为广泛的多模态心脏分割数据集两个适应方向上的评估结果。本文采用戴斯相似系数(Dice similarity coefficient,DSC)和平均表面距离(average surface distance,ASD)两种常用的分割算法评估指标,结合这两种指标综合地对比不同算法的性能。

从表3可以看出,在MR到CT的适应方向上,Pnp-AdaNet[9]算法是最早尝试解决跨模态间适应的工作,其采用了基于对抗学习的特征对齐方法,算法的DSC指标虽然只有57.7%,但是为后续工作的开展奠定了良好的基础。随后,SIFA-v2[34]引入了图像对齐的策略,模型性能有了大幅度的提升。这一定程度上证明了转换图像外观实现适应的方法对于跨模态数据集来说是非常有效的。而后,大部分方法都开始采用联合对齐的策略,以从多个角度弥补较大的分布差異,例如DSAN[18]、UMDA[37]、ICMSC[58]等算法。通过这种策略,模型的DSC指标逐渐从70%提升到80%以上。然而,即使这类方法已经取得了出色的性能,但是对抗训练的众多弊端也不能忽视。因此,基于VAE的OLVA[24]等算法应运而生。值得注意的是,OLVA算法虽然仅使用了VAE的结构和OT最优传输损失,但是其仍然和大部分基于对抗学习的算法性能相当,这体现出基于VAE的算法在域自适应中有巨大潜力。与此同时,基于解耦学习的DDFseg[11]、DLasT[61]等算法不断发展,也展现出强大的竞争力。该数据集中达到最高性能85.8%的算法是基于联合对齐的SD-UDA[62],而它也使用了3D网络结构,这也体现出补充3D的信息能够进一步提升性能。

5 域自适应算法在医学图像分析领域的应用

由于医学图像数据的稀缺性以及实际临床场景中存在的域偏移现象等现实问题,医学图像分析是域自适应的重要应用领域之一。

在医学图像分析领域,目前研究工作更多地将域自适应算法应用于分割任务中,并在多个公开数据集上取得了优异的性能。图像分割相关的应用可以分为器官分割和病灶分割两类。其中:器官分割任务有心脏结构分割[6,9,34]、腹部器官分割[22,60]、前列腺分割[32]、视杯视盘分割[13,31~32]、视网膜层分割[65]、骨髓灰质分割[14]、踝关节骨分割[66]、小肠分割[67]等;
病灶分割应用包括脑部肿瘤分割[29]、肺部肿瘤分割[68]、胰腺肿瘤分割[69]、息肉分割[70]等。还有部分工作集中在疾病诊断任务的域自适应研究,例如肺炎诊断[71]、糖尿病视网膜病变的分类[20]、先天性心脏病的诊断[20]以及肝纤维化的分期[72]等应用。此外,域自适应算法也应用在病变的检测任务中,例如乳腺结节的检测[73]、息肉检测[73]以及视网膜病变的检测[74]等。

域自适应算法除了广泛应用于上述医学图像分析的基本任务中,还在一些特殊任务上也进行了初步的尝试,如内窥镜的深度估计[75]、心胸比估计[76]等。从现有工作可以看出,域自适应作为一个能够提高模型在现实临床场景适应能力的研究领域,已经应用在多样的医学图像分析任务中。目前,大多数算法针对特定的数据集设计,不能实现模型适应的通用性。在未来的研究中,可以考虑提高算法的普适性,从而能够同时应用在多种任务中。此外,对于一些同样在医学图像分析中具有重要意义的应用,例如图像重建任务、图像配准任务、异常检测任务等,都未充分探索域间偏移问题。如何使域适应算法成功应用到医学图像处理领域中更多的任务上,也是未来域自适应算法的一个发展趋势。

6 域自适应在医学图像分析领域的研究展望

基于深度学习的域自适应是医学图像分析中一个重要的研究领域,是算法设计与实际临床应用之间的桥梁。然而,现有的域自适应方法还有一定的局限性,例如算法无法适应于现实临床应用场景中的一些情况,距离实际落地应用面临技术瓶颈等。因此,下面将从三个方面展望其未来发展趋势并提出研究建议。

6.1 域自适应的发展瓶颈与解决方案

1)面对类别分布差异情况的研究

类别分布差异是指源域和目标域每个类别的样本比例不同。例如,由于疫苗接种覆盖率的差异,肝脏疾病的患病率在不同地区之间存在显著差異。这种标签分布的变化在医学诊断中是常见的,因为疾病通常分布在不同的位置和时间。Park等人[77]在多个疾病分类模型中证明类别分布偏移会导致不合理的预测。尽管在许多实际应用中已经观察到类别分布偏移的问题,且严重阻碍了深度模型在临床实践中的大规模部署,但目前仅有文献[72]尝试解决这个问题。

2)面对噪声标签情况的研究

标注错误的标签通常被称为噪声标签,其会损害模型性能。由于医学图像标注的质量很大程度依赖于有经验的医生。所以,在实际场景中,域移位和噪声标签问题经常同时出现。这使得现有的域自适应方法失去了效率,同时也引发了另一个问题,即噪声监督下的域适应。目前仅有少量工作关注该问题,Liu等人[78]建议利用高置信度的干净的标注数据训练一个鲁棒模型来解决噪声监督下的域适应问题,并提出了一种具有两个对等网络的自清理无监督域适应框架,以识别高置信度的干净数据和噪声数据。最终算法在具有域移位和污染标签的数据上训练了一个鲁棒的医学图像分割模型。

6.2 域自适应可探索的技术手段

1)基准网络架构应用

随着域自适应的不断发展,近年来大量的研究方法被提出,但它们大多基于经典的网络架构,如ResNet[79]、U-Net[2]等。Hoyer等人[80]证明使用过时的网络结构会限制域适应的整体性能,揭示了Transformer[81]结构在UDA语义分割方面的潜力。然而,在医学图像分析领域,基准网络架构的影响还没有得到系统研究。未来,探索如何设计和改进基准网络架构以提升医学图像分析的准确率仍是一个有意义的方向。

2)大规模自监督学习

近年来,大规模自监督学习(预训练模型)得到了快速发展,如BERT[82]、GPT-3[83]等。首先在大规模数据集上预训练模型,然后在下游任务上对模型进行微调。受医学图像及标注获取困难、数据量小等限制,如果能够合理利用自然图像预训练好的大模型,解决下游任务和预训练数据集之间的分布变化,那么设计出具有良好适应能力的高效自学习方法是未来一个有希望的方向。

6.3 域自适应的交叉领域研究

1)少样本学习与域自适应

传统的域自适应设置通常假设目标域中存在大量未标记的样本。然而,在实际临床场景下,这可能难以实现。例如,试图在医院新进的图像扫描设备上部署模型,那么此时目标域也许仅能获取一个或几个未标记的样本。为了解决目标领域特定的样本稀缺性问题,需要采用适应策略来充分利用可用数据集。这时可以将少样本学习技术,例如度量学习、元学习等,结合深度域适应技术,共同解决实际问题。

2)增量学习与域自适应

增量学习的目标是希望模型能够不断地处理现实世界中连续的信息流,在吸收新知识的同时保留甚至整合、优化旧知识的能力[84]。现有域自适应的研究大多隐含地假设源域是固定的,一个模型只需要学习一次。然而,在实践中,源域很可能是增量引入的。例如,模型应用于实际临床场景时,不可避免地会有新的数据引入,如果能利用这些数据进行连续的领域适应,有效地更新模型,就可以大大增强模型在现实场景中的连续应用能力。今后,结合增量学习领域知识的域自适应研究也将成为医学图像分析中不可或缺的关键研究内容。

7 结束语

本文就医学图像分析领域中的重要问题,基于深度学习的域自适应为主题展开综述。首先从形式化定义出发,理清域适应的概念、研究目标,并分类介绍了医学图像分析面临的主要挑战;
接下来,详细概括归纳了近年来域自适应在医学图像分析领域的相关算法;
此外,还统计了域自适应中常用的医学公开数据集并比较分析了相关算法的性能;
最后,展望了深度域适应未来的发展趋势。

参考文献:

[1]Zhang Jiapeng, Xie Yutong, Xia Yong, et al. Attention residual learning for skin lesion classification[J]. IEEE Trans on Medical Imaging, 2019,38(9):
2092-2103.

[2]Ronneberger O, Fischer P, Brox T. U-Net:
convolutional networks for biomedical image segmentation[C]//Proc of the 18th Internatio-nal Conference on Medical Image Computing and Computer-Assisted Intervention. Berlin:
Springer, 2015:
234-241.

[3]Havaei M, Davy A, Warde-Farley D, et al. Brain tumor segmentation with deep neural networks[J]. Medical Image Analysis, 2017,35:18-31.

[4]Xie Hongtao, Yang Dongbao, Sun Nannan, et al. Automated pulmonary nodule detection in CT images using deep convolutional neural networks[J]. Pattern Recognition, 2019, 85:
109-119.

[5]Guan Hao, Liu Mingxia. Domain adaptation for medical image analysis:
a survey[J]. IEEE Trans on Biomedical Engineering, 2021,69(3):
1173-1185.

[6]Wu Fuping, Zhuang Xiahai. CF distance:
a new domain discrepancy metric and application to explicit domain adaptation for cross-modality cardiac image segmentation[J]. IEEE Trans on Medical Imaging, 2020,39(12):
4274-4285.

[7]Kamnitsas K, Baumgartner C, Ledig C, et al. Unsupervised domain adaptation in brain lesion segmentation with adversarial networks[C]//Proc of the 27th International Conference on Information Processing in Medical Imaging. Berlin:
Springer, 2017:
597-609.

[8]Zhu Qikui, Du Bo, Yan Pingkun. Boundary-weighted domain adaptive neural network for prostate MR image segmentation[J]. IEEE Trans on Medical Imaging, 2019,39(3):
753-763.

[9]Dou Qi, Ouyang Cheng, Chen Cheng, et al. Unsupervised cross-modality domain adaptation of convnets for biomedical image segmentations with adversarial loss[C]//Proc of the 27th International Joint Conference on Artificial Intelligence.Palo Alto, CA:
AAAI Press, 2018:
691-697.

[10]Yang Junlin, Dvornek N C, Zhang Fan, et al. Unsupervised domain adaptation via disentangled representations:
application to cross-modality liver segmentation[C]//Proc of the 22nd International Conference on Medical Image Computing and Computer-Assisted Intervention. Berlin:
Springer, 2019:
255-263.

[11]Pei Chenhao, Wu Fuping, Huang Liqin, et al. Disentangle domain features for cross-modality cardiac image segmentation[J]. Medical Image Analysis, 2021, 71:
102078.

[12]Sun Yongheng, Dai Duwei, Xu Songhua. Rethinking adversarial domain adaptation:
orthogonal decomposition for unsupervised domain adaptation in medical image segmentation[J]. Medical Image Analysis, 2022,82:102623.

[13]Chen Cheng, Liu Quande, Jin Yueming, et al. Source-free domain adaptive fundus image segmentation with denoised pseudo-labeling[C]//Proc of the 24th International Conference on Medical Image Computing and Computer-Assisted Intervention. Berlin:
Springer, 2021:
225-235.

[14]Perone C S, Ballester P, Barros R C, et al. Unsupervised domain adaptation for medical imaging segmentation with self-ensembling[J]. NeuroImage, 2019, 194:
1-11.

[15]Abbet C, Studer L, Fischer A, et al. Self-rule to multi-adapt:generalized multi-source feature learning using unsupervised domain adaptation for colorectal cancer tissue detection[J]. Medical Image Analysis, 2022,79:
102473.

[16]范苍宁, 刘鹏, 肖婷, 等. 深度域适应综述:
一般情况与复杂情况 [J]. 自动化学报, 2021,47(3):
515-548. (Fan Cangning, Liu Peng, Xiao Ting, et al. A review of deep domain adaptation:
general situation and complex situation[J]. Acta Automatica Si-nica, 2021,47(3):
515-548.)

[17]孫琦钰, 赵超强, 唐漾, 等. 基于无监督域自适应的计算机视觉任务研究进展[J]. 中国科学:
技术科学, 2022,52(1):
26-54. (Sun Qiyu, Zhao Chaoqiang, Tang Yang, et al. A survey on unsupervised domain adaptation in computer vision tasks[J]. Scientia Sinica Technologica, 2022,52(1):
26-54.)

[18]Han Xiaoting, Qi Lei, Yu Qian, et al. Deep symmetric adaptation network for cross-modality medical image segmentation[J]. IEEE Trans on Medical Imaging, 2021,41(1):
121-132.

[19]Liang Liming, Dong Xin, Li Renjie, et al. Classification algorithm of retinopathy based on attention mechanism and multi feature fusion[J]. Opto-Electronic Engineering, 2023,50(1):
220199.

[20]Liu Xiaofeng, Li Site, Ge Yubin, et al. Ordinal unsupervised domain adaptation with recursively conditional Gaussian imposed variational disentanglement[J/OL]. IEEE Trans on Pattern Analysis and Machine Intelligence. (2022-06-15). https://doi.org/10.1109/TPAMI.2022.3183115.

[21]Long Mingsheng, Cao Yue, Wang Jianmin, et al. Learning transfe-rable features with deep adaptation networks[C]//Proc of the 32nd International Conference on Machine Learning. New York:
ACM Press, 2015:
97-105.

[22]Goodfellow I, Pouget-Abadie J, Mirza M, et al. Generative adversa-rial networks[J]. Communications of the ACM, 2020,63(11):
139-144.

[23]Ouyang C, Kamnitsas K, Biffi C, et al. Data efficient unsupervised domain adaptation for cross-modality image segmentation[C]//Proc of the 22nd International Conference on Medical Image Computing and Computer-Assisted Intervention. Berlin:
Springer, 2019:
669-677.

[24]Chanti D A, Mateus D. OLVA:
optimal latent vector alignment for unsupervised domain adaptation in medical image segmentation[C]//Proc of the 24th International Conference on Medical Image Computing and Computer-Assisted Intervention. Berlin:
Springer, 2021:
261-271.

[25]Wu Fuping, Zhuang Xiahai. Unsupervised domain adaptation with va-riational approximation for cardiac segmentation[J]. IEEE Trans on Medical Imaging, 2021,40(12):
3555-3567.

[26]Chartsias A, Joyce T, Dharmakumar R, et al. Adversarial image synthesis for unpaired multi-modal cardiac data[C]//Proc of Interna-tional workshop on Simulation and Synthesis in Medical Imaging. Berlin:
Springer, 2017:
3-13.

[27]Hiasa Y, Otake Y, Takao M, et al. Cross-modality image synthesis from unpaired data using CycleGAN[C]//Proc of International Workshop on Simulation and Synthesis in Medical Imaging. Berlin:
Sprin-ger, 2018:
31-41.

[28]Cai Jinzheng, Zhang Zizhao, Cui Lei, et al. Towards cross-modal organ translation and segmentation:
a cycle-and shape-consistent generative adversarial network[J]. Medical Image Analysis, 2019, 52:
174-184.

[29]Tomar D,Lortkipanidze M,Vray G,et al. Self-attentive spatial adaptive normalization for cross-modality domain adaptation[J]. IEEE Trans on Medical Imaging, 2021,40(10):
2926-2938.

[30]Chen Jiawei, Zhang Ziqi, Xie Xinpeng, et al. Beyond mutual information:
generative adversarial network for domain adaptation using information bottleneck constraint[J]. IEEE Trans on Medical Imaging, 2021,41(3):
595-607.

[31]Wang Shujun, Yu Lequan, Yang Xin, et al. Patch-based output space adversarial learning for joint optic disc and cup segmentation[J]. IEEE Trans on Medical Imaging, 2019, 38(11):
2485-2495.

[32]Wang Shujun, Yu Lequan, Li Kang, et al. Boundary and entropy-driven adversarial learning for fundus image segmentation[C]//Proc of the 22nd International Conference on Medical Image Computing and Computer-Assisted Intervention. Berlin:
Springer, 2019:
102-110.

[33]Vesal S, Gu Mingxuan, Kosti R, et al. Adapt everywhere:
unsupervised adaptation of point-clouds and entropy minimization for multi-modal cardiac image segmentation[J]. IEEE Trans on Medical Imaging, 2021, 40(7):
1838-1851.

[34]Chen Cheng, Dou Qi, Chen Hao, et al. Unsupervised bidirectional cross-modality adaptation via deeply synergistic image and feature alignment for medical image segmentation[J]. IEEE Trans on Me-dical Imaging, 2020,39(7):
2494-2505.

[35]Creswell A, White T, Dumoulin V, et al. Generative adversarial networks:
an overview[J]. IEEE Signal Processing Magazine, 2018, 35(1):
53-65.

[36]Liu Xinyu, Guo Xiaoqing, Liu Yajie, et al. Consolidated domain adaptive detection and localization framework for cross-device colonoscopic images[J]. Medical Image Analysis, 2021, 71:
102052.

[37]Liu Jinping, Liu Hui, Gong Subo, et al. Automated cardiac segmentation of cross-modal medical images using unsupervised multi-domain adaptation and spatial neural attention structure[J]. Medical Image Analysis, 2021, 72:
102135.

[38]Jin Qiangguo, Cui Hui, Sun Changming, et al. Domain adaptation based self-correction model for COVID-19 infection segmentation in CT images[J]. Expert Systems with Applications, 2021, 176:
114848.

[39]Cho H, Nishimura K, Watanabe K, et al. Effective pseudo-labeling based on heatmap for unsupervised domain adaptation in cell detection[J]. Medical Image Analysis, 2022, 79:
102436.

[40]Liu Zhizhe, Zhu Zhengfeng, Zheng Shuai, et al. Margin preserving self-paced contrastive learning towards domain adaptation for medical image segmentation[J]. IEEE Journal of Biomedical and Health Informatics, 2022, 26(2):
638-647.

[41]Tarvainen A, Valpola H. Mean teachers are better role models:
weight-averaged consistency targets improve semi-supervised deep learning results[C]//Proc of the 31st International Conference on Neural Information Processing Systems. Red Hook, NY:
Curran Associates Inc., 2017:
1195-1204.

[42]Li Kang, Wang Shujun, Yu Lequan, et al. Dual-teacher+:
exploiting intra-domain and inter-domain knowledge with reliable transfer for cardiac segmentation[J]. IEEE Trans on Medical Imaging, 2020, 40(10):
2771-2782.

[43]楊鸿杰, 徐巧枝, 于磊. 基于深度学习的多模态医学影像分割研究综述[J]. 计算机应用研究, 2022,39(5):1297-1306. (Yang Hongjie, Xu Qiaozhi, Yu Lei. Survey of multi-modal medical image segmentation based on deep learning[J]. Application Research of Computers, 2022,39(5):
1297-1306.)

[44]SYNAPSE. Multi-Atlas labeling beyond cranial vault-workshop challenge[EB/OL]. (2015-04-09). https://doi.org/10.7303/syn3193805.

[45]Menze B H, Jakab A, Bauer S, et al. The multimodal brain tumor image segmentation benchmark[J]. IEEE Trans on Medical Imaging, 2014, 34(10):
1993-2024.

[46]Tschandl P, Rosendahl C, Kittler H. The HAM10000 dataset, a large collection of multi-source dermatoscopic images of common pigmented skin lesions[J]. Scientific Data, 2018, 5(1):
1-9.

[47]Ballerini L, Fisher R B, Aldridge B, et al. A color and texture based hierarchical K-NN approach to the classification of non-melanoma skin lesions[M]//Celebi M, Schaefer G. Color Medical Image Analysis. Dordrecht:
Springer, 2013:
63-86.

[48]Kawahara J, Daneshvar S, Argenziano G, et al. Seven-point checklist and skin lesion classification using multitask multimodal neural nets[J]. IEEE Journal of Biomedical and Health Informatics, 2018, 23(2):
538-546.

[49]Codella N C F, Gutman D, Celebi M E, et al. Skin lesion analysis toward melanoma detection:
a challenge at the 2017 international symposium on biomedical imaging, hosted by the international skin imaging collaboration[C]//Proc of the 15th International Symposium on Biomedical Imaging. Piscataway, NJ:
IEEE Press, 2018:
168-172.

[50]Mendona T, Ferreira P M, Marques J S, et al. PH2—a dermoscopic image database for research and benchmarking[C]//Proc the 35th Annual International Conference of the IEEE Engineering in Medicine and Biology Society. Piscataway, NJ:
IEEE Press, 2013:
5437-5440.

[51]Orlando J I, Fu Huazhu, Breda J B, et al. Refuge challenge:
a unified framework for evaluating automated methods for glaucoma assessment from fundus photographs[J]. Medical Image Analysis, 2020, 59:
101570.

[52]Sivaswamy J, Krishnadas S, Chakravarty A, et al. A comprehensive retinal image dataset for the assessment of glaucoma from the optic nerve head analysis[J]. JSM Biomedical Imaging Data Papers, 2015, 2(1):
1004.

[53]Fumero F, Alayon S, Sanchez J L, et al. RIM-ONE:
an open retinal image database for optic nerve evaluation[C]//Proc of the 24th International Symposium on Computer-Based Medical Systems. Pisca-taway, NJ:
IEEE Press, 2011:
1-6.

[54]Campello V M, Gkontra P, Izquierdo C, et al. Multi-centre, multi-vendor and multi-disease cardiac segmentation:
the M&Ms challenge[J]. IEEE Trans on Medical Imaging, 2021,40(12):
3543-3554.

[55]Zhuang Xiahai, Xu Jiahang, Luo Xinzhe, et al. Cardiac segmentation on late gadolinium enhancement MRI:
a benchmark study from multi-sequence cardiac MR segmentation challenge[J]. Medical Image Analysis, 2022, 81:
102528.

[56]Zhuang Xiahai, Shen Juan. Multi-scale patch and multi-modality atlases for whole heart segmentation of MRI[J]. Medical Image Analysis, 2016, 31:
77-87.

[57]Kavur A E, Gezer N S, Bar瘙塂 M, et al. CHAOS challenge-combined(CT-MR) healthy abdominal organ segmentation[J]. Medical Image Analysis, 2021, 69:101950.

[58]Zeng Guodong, Lerch T D, Schmaranzer F, et al. Semantic consistent unsupervised domain adaptation for cross-modality medical image segmentation[C]//Proc of the 24th International Conference on Medical Image Computing and Computer-Assisted Intervention. Berlin:
Sprin-ger, 2021:
201-210.

[59]Bernal J, Sánchez F J, Fernández-Esparrach G, et al. WM-DOVA maps for accurate polyp highlighting in colonoscopy:
validation vs. saliency maps from physicians[J]. Computerized Medical Imaging and Graphics, 2015, 43:
99-111.

[60]Silva J, Histace A, Romain O, et al. Toward embedded detection of polyps in WCE images for early diagnosis of colorectal cancer[J]. International Journal of Computer Assisted Radiology and Surgery, 2014, 9(2):
283-293.

[61]Xie Qingsong, Li Yuexiang, He Nanjun, et al. Unsupervised domain adaptation for medical image segmentation by disentanglement learning and self-training[J]. IEEE Trans on Medical Imaging, 2024, 43(1):
4-14.

[62]Cui Zhiming, Li Changjian, Du Zhixu, et al. Structure-driven unsupervised domain adaptation for cross-modality cardiac segmentation[J]. IEEE Trans on Medical Imaging, 2021, 40(12):
3604-3616.

[63]Dong Shunjie, Pan Zixuan, Fu Yu, et al. Partial unbalanced feature transport for cross-modality cardiac image segmentation[J]. IEEE Trans on Medical Imaging, 2023, 42(6):
1758-1773.

[64]Xian Junlin, Li Xiang, Tu Dandan, et al. Unsupervised cross-modality adaptation via dual structural-oriented guidance for 3D medical image segmentation[J]. IEEE Trans on Medical Imaging, 2023, 42(6):
1774-1785.

[65]He Yufan, Carass A, Zuo Lianrui, et al. Autoencoder based self-supervised test-time adaptation for medical image analysis[J]. Medical Image Analysis, 2021, 72:
102136.

[66]Zeng Guodong, Lerch T D, Schmaranzer F, et al. Semantic consis-tent unsupervised domain adaptation for cross-modality medical image segmentation[C]//Proc of the 24th International Conference on Me-dical Image Computing and Computer-Assisted Intervention. Berlin:
Springer, 2021:
201-210.

[67]Shin S Y, Lee S, Summers R M. Unsupervised domain adaptation for small bowel segmentation using disentangled representation[C]//Proc of the 24th International Conference on Medical Image Computing and Computer-Assisted Intervention. Berlin:
Springer, 2021:
282-292.

[68]Jiang Jue, Hu Yuchi, Tyagi N, et al. Tumor-aware, adversarial domain adaptation from CT to MRI for lung cancer segmentation[C]//Proc of International Workshop on Simulation and Synthesis in Medical Imaging. Berlin:
Springer, 2018:
777-785.

[69]Li Jun, Feng Chaolu, Lin Xiaozhu, et al. Utilizing GCN and meta-learning strategy in unsupervised domain adaptation for pancreatic cancer segmentation[J]. IEEE Journal of Biomedical and Health Informatics, 2021, 26(1):
79-89.

[70]Yang Chen,Guo Xiaoqing,Chen Zhen,et al. Source free domain adaptation for medical image segmentation with Fourier style mining[J]. Medical Image Analysis, 2022, 79:
102457.

[71]Feng Yangqin, Wang Zizhou, Xu Xinxing, et al. Contrastive domain adaptation with consistency match for automated pneumonia diagnosis[J]. Medical Image Analysis, 2023, 83:
102664.

[72]Ma Wennao, Chen Cheng, Zheng Shuang, et al. Test-time adaptation with calibration of medical image classification nets for label distribution shift[C]//Proc of the 25th International Conference on Medical Image Computing and Computer-Assisted Intervention. Berlin:
Sprin-ger, 2022:
313-323.

[73]Chen Chaoqi, Wang Jiexiang, Pan Junwen, et al. GraphSKT:
graph-guided structured knowledge transfer for domain adaptive lesion detection[J]. IEEE Trans on Medical Imaging, 2022, 42(2):
507-518.

[74]Ju Lie, Wang Xin, Zhao Xin, et al. Leveraging regular fundus images for training UWF fundus diagnosis models via adversarial learning and pseudo-labeling[J]. IEEE Trans on Medical Imaging, 2021, 40(10):
2911-2925.

[75]Mahmood F, Chen R, Durr N J. Unsupervised reverse domain adaptation for synthetic medical images via adversarial training[J]. IEEE Trans on Medical Imaging, 2018, 37(12):
2572-2581.

[76]Dong Nanqing, Kampffmeyer M, Liang Xiaodan, et al. Unsupervised domain adaptation for automatic estimation of cardiothoracic ratio[C]//Proc of International Workshop on Simulation and Synthesis in Medical Imaging. Berlin:
Springer, 2018:
544-552.

[77]Park C, Awadalla A, Kohno T, et al. Reliable and trustworthy machine learning for health using dataset shift detection[J]. Advances in Neural Information Processing Systems, 2021, 34:
3043-3056.

[78]Liu Luyan,Zhang Zhengdong,Li Shuai,et al.S-CUDA:self-cleansing unsupervised domain adaptation for medical image segmentation[J]. Medical Image Analysis, 2021, 74:
102214.

[79]He Kaiming, Zhang Xiangyu, Ren Shaoqing, et al. Deep residual learning for image recognition[C]//Proc of IEEE Conference on Computer Vision and Pattern Recognition. Piscataway, NJ:
IEEE Press, 2016:
770-778.

[80]Hoyer L, Dai Dengxin, Van Gool L. DAFormer:
improving network architectures and training strategies for domain-adaptive semantic segmentation[C]//Proc of IEEE Conference on Computer Vision and Pattern Recognition. Piscataway, NJ:
IEEE Press, 2022:
9924-9935.

[81]Xie Enze, Wang Wenhai, Yu Zhiding, et al. SegFormer:
simple and efficient design for semantic segmentation with transformers[J]. Advances in Neural Information Processing Systems, 2021, 34:
12077-12090.

[82]Devlin J, Chang Mingwei, Lee K, et al. BERT:
pre-training of deep bidirectional transformers for language understanding[EB/OL]. (2019-05-24). https://arxiv.org/abs/1810.04805.

[83]Brown T, Mann B, Ryder N, et al. Language models are few-shot learners[J]. Advances in Neural Information Processing Systems, 2020, 33:
1877-1901.

[84]Chen Zhiyuan, Liu Bing. Lifelong machine learning[M]. [S.l.]:
Morgan & Claypool Publishers, 2018.

猜你喜欢 源域 多源域适应方法综述计算机技术与发展(2024年3期)2024-03-25基于参数字典的多源域自适应学习算法计算机技术与发展(2020年11期)2020-12-04论科技英语新词的隐喻理据科技资讯(2018年1期)2018-06-05英文新闻标题中的隐喻文学教育·中旬版(2017年12期)2018-01-01认知隐喻视角下禅宗话语机锋的特征分析现代语文(2017年10期)2017-12-03狄金森诗歌中的新奇隐喻解读教育界·下旬(2016年12期)2017-04-19浅析《离骚》中的跨域映射现象北方文学·中旬(2017年2期)2017-03-25可迁移测度准则下的协变量偏移修正多源集成方法电子与信息学报(2015年12期)2015-08-17

推荐访问:自适应 深度 图像