A Dual-Branch Framework with Prior Knowledge for Precise Segmentation of Lung Nodules in Challenging CT Scans

Abstract 肺癌是全球最致命的癌症之一,早期诊断对于患者的生存至关重要。肺结节是早期肺癌的主要表现,通常通过 CT 扫描进行评估。如今,计算机辅助诊断系统被广泛用于辅助医生进行疾病诊断。肺结节的准确分割受到内部异质性和外部数据因素的影响。为了克服结节的细微、混合、粘附型、良性和不确定类别的分割挑战,提出了一种新的混合手动特征网络,可增强灵敏度和准确性。该方法通过双分支网络框架和多维融合模块集成特征信息。通过使用多个数据源和不同数据质量进行训练和验证,我们的方法在 LUNA16、多厚度切片图像数据集 (Multi-thickness Slice Image dataset)、LIDC 和 UniToChest 上表现出领先的性能,Dice 相似系数达到 86.89%、75.72%、84.12% 和 80.74分别超过了当前大多数肺结节分割方法。我们的方法进一步提高了肺结节分割任务的准确性、可靠性和稳定性,即使是在具有挑战性的 CT 扫描中也是如此。本研究中使用的代码发布在 GitHub 上,可通过以下 URL (https://github.com/BITEWKRER/DBNet) 获取。 Introduction 肺癌是全球癌症相关死亡的主要原因[1]。仅在美国,预计 2023 年将有 127,070 人死于肺癌,占所有癌症死亡的 21% [2]。不幸的是,超过 50% 的肺癌病例发生在发展中国家或不发达国家,与发达国家相比,这些国家的医疗资源有限[3]。 为了增加生存机会,早期诊断和治疗肺癌仍然至关重要。在中国,研究表明,小于1厘米的I期肺癌的5年生存率为92%。然而,晚期肺癌的5年生存率低得多,仅为7.0%[4]。利用计算机断层扫描 (CT) 进行肺癌筛查已显示出可大幅降低死亡率的潜力 [5]、[6]。低剂量CT是目前肺癌筛查最常用的方法。此外,移动CT的引入有助于解决欠发达国家和偏远地区缺乏CT扫描仪的问题[6]。由于可能没有明显的症状,检测早期肺癌的存在可能会带来重大挑战。 这种医学背景数据可以直接借鉴,Chatgpt润色改写就完事儿 在 CT 图像上识别肺结节提供了疾病的关键指标 [1], [3]。这些结节代表圆形异常,其大小各异,直径范围为 3 至 30 毫米 [7]。为了进一步研究肺结节,美国国家癌症研究所组装了“肺部图像数据库联盟和图像数据库资源计划(LIDC)”数据集[8]。 欠发达地区设备不足、人员不足,导致医生的诊断和治疗时间有限[9]。在这种情况下,医生的工作量很大、重复且耗时[10]、[5]。此外,由于与CT切片相比,肺部结节性病变占据相对较小的面积,长时间和密集的CT筛查可能会导致漏检小的、细微的或 GGO (肺磨玻璃结节) [3],[6]。为了解决这些问题,计算机辅助诊断系统(CAD)出现并得到了快速发展,特别是随着基于深度学习技术的诊断方法的进步。 CAD系统大大减轻了医生的工作量,最大限度地降低了未发现结节的风险,并提高了肺结节诊断的效率和可靠性。然而,当前用于肺结节分割的 CAD 系统仍然面临一些挑战。 下面详细阐述了肺结节分割的几个现有挑战,可以从这些挑战入手 首先,放射科医生标记的肺结节包含九个诊断特征[11],异质性表型阻碍了肺结节分割的发展。如图1所示,实心结节(a,b)具有清晰的形状和边界,而微妙的GGO结节(e)具有低对比度和模糊的边界[4],使得网络很容易将它们分类为背景区域。空洞(g)结节降低了网络分割的敏感性,并且由于背景和分割目标之间的极度不平衡,小结节很容易被遗漏[12]。 由于周围多余的组织结构,血管旁或胸膜旁(c、d、f)可能会导致网络分类错误[13]。此外,部分实性结节(h)比纯GGO更致密,产生更复杂的异质纹理,更容易发展成恶性结节[14]。 其次,肺结节内部因素造成的分割困难在于医生注释、层厚、数据来源和数据质量。数据质量差或不同医生的经验可能会导致不同的注释和注释者数量。由多名医生注释的病变区域通常更可靠,减少了潜在的临床风险。在资源有限的地区,由于 CT 扫描仪短缺和成像设备陈旧,CT 扫描质量差的情况很常见。较厚的切片更有可能产生“体积平均效应”和伪影,使医生难以达成一致的诊断。即使使用移动 CT 扫描仪也可能无法提供完整的诊断详细信息。最后,目前大多数肺结节分割方法都是基于2D图像,但这些方法忽略了空间关系,因此提出一种有效的3D肺结节分割模型来捕获肺结节的空间位置、纹理和其他详细信息变得越来越重要以避免误诊和漏诊。 Challenge: 异质性: 肺结节的形状多异 (实心结节、磨玻璃结节 (GGO) 、空洞结节、血管和胸膜旁边的结节) ...

March 3, 2024 · 4 min · SwimmingLiu

U-NET V2: RETHINKING THE SKIP CONNECTIONS OF U-NET FOR MEDICAL IMAGE SEGMENTATION

Abstract 在本文中,我们介绍了 U-Net v2,这是一种用于医学图像分割的新的稳健且高效的 U-Net 变体。它的目的是增强语义信息在低级特征中的注入,同时用更精细的细节来细化高级特征。对于输入图像,我们首先使用深度神经网络编码器提取多级特征。接下来,我们通过注入来自更高级别特征的语义信息并通过 Hadamard 乘积集成来自较低级别特征的更精细的细节来增强每个级别的特征图。我们新颖的跳跃连接赋予所有级别的功能以丰富的语义特征和复杂的细节。改进后的特征随后被传输到解码器以进行进一步处理和分割。我们的方法可以无缝集成到任何编码器-解码器网络中。我们在几个公共医学图像分割数据集上评估了我们的方法,用于皮肤病变分割和息肉分割,实验结果证明了我们的新方法相对于最先进的方法的分割准确性,同时保留了内存和计算效率。代码位于:https://github.com/yaoppeng/U-Net_v2。 主要工作就在于中间的skip-connection Introduction 随着现代深度神经网络的进步,语义图像分割取得了重大进展。语义图像分割的典型范例涉及具有跳跃连接的编码器-解码器网络[1]。在此框架中,编码器从输入图像中提取层次和抽象特征,而解码器获取编码器生成的特征图并重建像素级分割掩模或图,为输入图像中的每个像素分配类标签。人们进行了一系列研究[2, 3],将全局信息纳入特征图中并增强多尺度特征,从而大大提高了分割性能。 在医学图像分析领域,精确的图像分割在计算机辅助诊断和分析中起着至关重要的作用。 U-Net [4] 最初是为了医学图像分割而引入的,利用跳跃连接来连接每个级别的编码器和解码器阶段。跳跃连接使解码器能够访问早期编码器阶段的特征,从而保留高级语义信息和细粒度空间细节。这种方法有助于精确描绘对象边界并提取医学图像中的小结构。此外,还应用了密集连接机制,通过连接所有级别和所有阶段的特征来减少编码器和解码器中特征之间的差异[5]。设计了一种机制来通过连接较高和较低级别的不同尺度的特征来增强特征[6]。 然而,基于 U-Net 的模型中的这些连接在集成低级和高级特征方面可能不够有效。例如,在 ResNet [7] 中,深度神经网络是作为多个浅层网络的集合而形成的,并且显式添加的残差连接表明,即使在百万规模的训练中,网络也很难学习恒等映射函数图像数据集。 对于编码器提取的特征,低级特征通常保留更多细节,但缺乏足够的语义信息,并且可能包含不需要的噪声。相反,高级特征包含更多语义信息,但由于分辨率显着降低而缺乏精确的细节(例如对象边界)。通过串联简单地融合特征将在很大程度上依赖于网络的学习能力,这通常与训练数据集的大小成正比。这是一个具有挑战性的问题,特别是在医学成像领域,通常受到有限数据的限制。这种信息融合是通过密集连接跨多个级别连接低级和高级特征来实现的,可能会限制来自不同级别的信息的贡献并可能引入噪声。另一方面,尽管引入的额外卷积并没有显着增加参数数量,但 GPU 内存消耗将会增加,因为必须存储所有中间特征图和相应的梯度以进行前向传递和后向梯度计算。这会导致 GPU 内存使用量和浮点运算 (FLOP) 增加。 (a) U-Net v2 模型的整体架构,由编码器、SDI(语义和细节注入)模块和解码器组成。 (b) SDI模块的架构。为简单起见,我们仅显示第三级特征的细化(l = 3)。 SmoothConv 表示用于特征平滑的 3 × 3 卷积。$\bigotimes$ 表示哈达玛积。 在[8]中,利用反向注意力来明确地建立多尺度特征之间的联系。在[9]中,ReLU激活应用于较高级别的特征,并将激活的特征与较低级别的特征相乘。此外,在[10]中,作者提出分别从 CNN 和 Transformer 模型中提取特征,在多个级别上组合来自 CNN 和 Transformer 分支的特征来增强特征图。然而,这些方法都很复杂,而且它们的性能仍然不是很令人满意,因此需要进一步改进。 在本文中,我们提出了 U-Net v2,这是一种基于 U-Net 的新分割框架,具有简单且高效的跳跃连接。我们的模型首先使用 CNN 或 Transformer 编码器提取多级特征图。接下来,对于第 i 层的特征图,我们通过简单的哈达玛乘积操作显式地注入高层特征(包含更多语义信息)和低层特征(捕获更精细的细节),从而增强语义和细节第 i 级特征。随后,细化的特征被传输到解码器进行分辨率重建和分割。我们的方法可以无缝集成到任何编码器-解码器网络中。 我们使用公开的数据集在两个医学图像分割任务(皮肤病变分割和息肉分割)上评估我们的新方法。实验结果表明,我们的 U-Net v2 在这些分割任务中始终优于最先进的方法,同时保持 FLOP 和 GPU 内存效率。 ...

December 11, 2023 · 3 min · SwimmingLiu

Uncertainty-Aware Attention Mechanism:利用不确定性感知注意机制进行肺结节分割和不确定区域预测

Abstract 放射科医生拥有不同的培训和临床经验,导致肺结节的分割注释存在差异,从而导致分割的不确定性。传统方法通常选择单个注释作为学习目标或尝试学习包含多个注释的潜在空间。 然而,这些方法无法利用多个注释之间的共识和分歧所固有的有价值的信息。在本文中,我们提出了一种不确定性感知注意机制(UAAM),它利用多个注释之间的共识和分歧来促进更好的分割。为此,我们引入了多置信度掩模(MCM),它结合了低置信度(LC)掩模和高置信度(HC)掩模。 LC 掩模表示分割置信度较低的区域,放射科医生可能有不同的分割选择。继UAAM之后,我们进一步设计了一个不确定性引导多置信分割网络(UGMCS-Net),它包含三个模块:一个捕获肺结节一般特征的特征提取模块,一个为肺结节产生三个特征的不确定性感知模块。注释的并集、交集和注释集,以及一个交集并集约束模块,该模块使用三个特征之间的距离来平衡最终分割和 MCM 的预测。为了全面展示我们方法的性能,我们提出了 LIDC-IDRI 上的复杂结节验证,它测试了 UGMCS-Net 对使用常规方法难以分割的肺结节的分割性能。实验结果表明,我们的方法可以显着提高传统方法难以分割的结节的分割性能。 INTRODUCTION 肺结节分割在肺癌计算机辅助诊断 (CAD) 系统中至关重要 [1],可提供结节大小、形状和其他重要医学特征等关键信息。然而,对于深度学习方法的一般训练和测试范例,每个结节图像数据只有一个由一名放射科医生描绘的注释掩模[2]-[6]。因此,网络每次只能提供结节区域的单个预测。 然而,在临床实践中,不同的放射科医生由于其不同的培训和临床经验可能会为肺结节提供不同的分割注释[7]-[9]。 因此,基于单一注释的传统方法无法反映临床经验的多样性,限制了深度学习方法的应用。 解决放射科医生之间注释不同问题的一个直接解决方案是为每个肺结节图像合并多个注释。这导致了另一个问题:多个注释不可避免地会带来不确定性和冲突,因为放射科医生可能会对同一区域进行不同的注释。为了克服这个问题,Kohl 等人在 2018 年提出了一种概率 U-Net,它利用条件变分自动编码器将多个分割变体编码到低维潜在空间中 [8]、[10]。通过从该空间采样,网络可以影响相应的分割图。基于这项研究,Hu等人提出将真实不确定性与概率UNet相结合,这可以提高预测不确定性估计、样本准确性和样本多样性[7]。这些方法依赖于潜在空间和该空间中的随机样本。因此,这些方法只能通过多次预测来提供不确定区域。 在本文中,我们提出了一个论点,即多个注释之间的不确定性遵循特定的模式。 为了演示这种现象,我们引入了多重置信掩码 (MCM),它结合了高置信度 (HC) 掩码和低置信度 (LC) 掩码,如图 1 所示。 A. 交叉掩码等于 HC mask,代表所有注释的交集。 联合掩码是所有注释的联合。 LC掩模是交集掩模和并集掩模之间的差异。当在 LIDC-IDRI 数据集 [11] 上计算 HC 和 LC 的 Hounsfield 单位 (HU) 核估计时,如图 1.B 所示,我们可以观察到 LC 和 HC 掩模之间的 HU 分布存在明显区别。具体地,LC区域具有比HC区域更低的HU值。从像素分布来看,HU值越低,对应区域的密度越低。就CT图像特征而言,LC区域主要由结节边缘、毛刺和磨玻璃特征等边界相关特征组成,而HC区域主要分布在结节核心内。因此,我们提出了这样的假设:导致放射科医生之间差异的区域主要与低密度组织和边界相关特征有关。 与其他方法不同,我们建议利用 MCM (多重置信掩码) ** 和注释集作为具有不同分割确定性的特征的学习指导**,有助于更好的分割性能。我们将这种训练称为UncertaintyAware Attention Mechanism,如图2所示。按照这种机制,我们进一步设计了用于肺结节分割的Uncertainty-Guide Multi-Confidence Segmentation Network(UGMCS-Net)。 ...

December 4, 2023 · 5 min · SwimmingLiu

Prior Attention Network: 用于医学图像中多病灶分割的预先注意网络

Prior Attention Network: 用于医学图像中多病灶分割的预先注意网络 Abstract 医学图像中邻近组织的多种类型病变的准确分割在临床实践中具有重要意义。基于从粗到精策略的卷积神经网络(CNN)已广泛应用于该领域。然而,由于组织的大小、对比度和高类间相似性的不确定性,多病灶分割仍然具有挑战性。此外,普遍采用的级联策略对硬件要求较高,限制了临床部署的潜力。为了解决上述问题,我们提出了一种新颖的先验注意网络(PANet),它遵循从粗到细的策略来在医学图像中执行多病灶分割。所提出的网络通过在网络中插入与病变相关的空间注意机制,在单个网络中实现了两个步骤的分割。此外,我们还提出了中间监督策略,用于生成与病变相关的注意力来获取感兴趣区域(ROI),这加速了收敛并明显提高了分割性能。我们在两个应用中研究了所提出的分割框架:肺部 CT 切片中多发性肺部感染的 2D 分割和脑 MRI 中多发性病变的 3D 分割。实验结果表明,与级联网络相比,在 2D 和 3D 分割任务中,我们提出的网络以更少的计算成本实现了更好的性能。所提出的网络可以被视为 2D 和 3D 任务中多病灶分割的通用解决方案。源代码可在 https://github.com/hsiangyuzhao/PANet 获取 问题导向: ①组织的大小、对比度和高类间相似性的不确定性 ②多类别病灶分割 ③普遍采用的级联策略对硬件要求较高 Introduction 医学图像分割对于疾病的准确筛查和患者的预后具有重要意义。基于病灶分割的病灶评估提供了疾病进展的信息,帮助医生提高临床诊断和治疗的质量。然而,手动病变分割相当主观且费力,这限制了其潜在的临床应用。近年来,随着人工智能的快速发展,基于深度学习的算法得到了广泛的应用,并在医学图像分割方面取得了最先进的性能[1]。卷积神经网络(CNN)由于其高分割质量而在医学图像中的病变分割中很受欢迎。此类算法通常具有深度编码器,可从输入图像中自动提取特征,并通过以下操作生成密集预测。例如,Long等人[2]提出了一种用于图像语义分割的全卷积网络,该网络颇具影响力,并启发了后来的医学分割中的端到端框架。 Ronneberger等人[3]提出了一种用于医学图像分割的U形网络(U-Net),该网络在医学分割的许多领域都显示出了可喜的结果,并已成为许多医学分割任务的虚拟基准。 这一段都可以当成经典医学图像分割的背景引入 然而,尽管医学分割取得了这些突破,但目前的医学分割方法主要集中在病灶的二元分割上,即区分病灶(前景)和其他一切(背景)。尽管二元分割确实有助于隔离某些感兴趣区域并允许对医学图像进行精确分析,但在某些需要对病变进行多类分割的场景中,二元分割还不够。与二元分割相比,由于组织的类间相似性,这种情况要困难得多,因为不同类型的病变在纹理、大小和形状上可能相似。具有从粗到细策略的级联网络已广泛应用于此类场景,例如肝脏和病变的分割、脑肿瘤分割[4]、[5][6]、[7]。 此类网络通常由两个独立的网络组成,其中第一个网络执行粗分割,第二个网络基于从第一个网络分割的 ROI 细化分割。然而,尽管级联网络已广泛应用于医学图像的多病灶分割,但级联策略也有其缺点。由于级联网络由两个独立的网络组成,参数量和显存占用通常是单个网络的两倍,这对硬件要求较高,限制了其在临床使用的潜力。更重要的是,由于级联网络中的两个网络通常是独立的,因此级联网络的训练过程有时比单个网络更困难,这可能导致欠拟合。 级联网络:参数量大、容易欠拟合。 在本文中,我们提出了一种名为先验注意网络(PANet)的新型网络结构,用于在医学图像中执行多病灶分割。所提出的网络由一个用于特征提取的编码器和两个分别生成病变区域注意力和最终预测的解码器组成。该网络与注意力机制结合在一起。为了减少参数大小和硬件占用,我们使用网络编码器的深层、语义丰富的特征来生成病变区域的空间注意力。 然后,编码器生成的特征表示通过空间注意力进行细化,并将其发送到解码器以进行最终的多类预测。为了提高分割性能并加速收敛,我们还在网络结构中引入了中间监督和深度监督。通过这些改进,与传统的级联网络相比,所提出的网络以显着降低的参数大小和计算成本实现了有竞争力的结果。 利用网络编码器的深层、特征信息来生成空间注意力(WTF ???) 中间监督、深度监督 (不错不错, 好多一区和顶会的文章都用深度监督) 这项工作的贡献体现在三个方面。首先,我们提出了一种新颖的网络架构,通过将传统级联网络中的两个分割步骤结合在单个网络中,遵循 2D 和 3D 医学图像中多病灶分割的从粗到细的策略。与级联网络相比,所提出的架构以更少的额外计算成本实现了有竞争力的分割性能,更容易训练和部署到生产环境。其次,我们提出了一种监督空间注意力机制,将病变区域的注意力与网络提取的特征相结合,将多病变分割分解为两个更容易的阶段,并且与当前基于注意力的方法相比具有更好的可解释性。第三,所提出的网络已在两个实际应用中得到验证,包括肺部 CT 切片中的 COVID-19 病变的 2D 分割和多模态 MRI 中的脑肿瘤的 3D 分割。所提出的网络在 2D 和 3D 任务中都优于前沿方法,并且在参数和计算成本方面比当前网络更高效。 一个网络、监督空间注意力机制、参数和计算成本方面比当前网络更高效。 Related Work 1)图像分割的网络结构:用于图像分割的典型卷积神经网络通常由一个卷积特征提取器组成,其拓扑类似于常见的分类网络,自动从输入图像中提取特征,并进行基于卷积的操作以生成最终的密集预测。在自然图像分割领域,FCN [2]、DeepLab [8]、PSPNet [9] 和 SegNet [10] 因其性能和效率而颇受欢迎。对于医学分割,U-Net [3] 在许多任务中相当流行,并且已被修改为许多改进版本,例如 Attention U-Net [11]、U-Net++ [12]、V-Net [13] 和H-DenseUNet [14]在某些领域获得更好的性能。 ...

November 28, 2023 · 4 min · SwimmingLiu

ACC-UNet: A Completely Convolutional UNet model for the 2020s (MICCAI2023)

ACC-UNet: A Completely Convolutional UNet model for the 2020s (MICCAI2023) 1. Abstract 由于ViT (Vision Transformer)的引入,UNet和Transformer融合已成为大趋势。最近,又有很多研究人员开始重新思考卷积模型,比如将ConvNext嵌入到ResNet,能够达到Swin Transformer的水平。受此启发,作者提出了一个纯粹的卷积UNET模型 (ACC-UNet),并且超越基于Transfomer的模型(如Swin-UNET或UCTransNet)。 作者研究了基于Transfomer的UNET模型优点:长范围依赖关系和跨级别跳过连接。 ACC-UNet结合了卷积神经网络(ConvNets)的内在归纳偏差和Transformer的设计决策 卷积神经网络(ConvNets)的内在归纳偏差:卷积神经网络具有天生的归纳偏差,这意味着它们在处理图像等数据时具有一些固有的假设和特点。例如,卷积神经网络擅长处理局部特征、平移不变性等,这些特点使它们在图像处理任务中表现出色。 Transformer的设计决策:Transformer是一种不同的神经网络架构,它采用了一些独特的设计决策,例如自注意力机制和位置编码等。这些设计决策使得Transformer在处理长距离依赖性、全局关系等方面表现出色,适合处理序列数据和具有远程依赖的任务。 ACC-UNet 在 5 个不同的医学图像分割基准上进行了评估,并且始终优于卷积网络、Transfomer及其混合网络。 2.Introduction 语义分割是计算机辅助医学图像分析的重要组成部分,可识别并突出显示各种诊断任务中感兴趣的区域。然而,由于涉及图像模态和采集以及病理和生物变化的各种因素,这通常变得复杂[18]。深度学习在这一领域的应用无疑在这方面受益匪浅。最值得注意的是,自推出以来,UNet 模型 [19] 在医学图像分割方面表现出了惊人的功效。结果,UNet 及其衍生品已成为事实上的标准[25]。 学习一下这里的背景描述 原始的 UNet 模型包含对称的编码器-解码器架构(图 1a)并采用跳跃连接,这为解码器提供了在编码器的池化操作期间可能丢失的空间信息。尽管通过简单串联的信息传播提高了性能,但编码器-解码器特征图之间可能存在语义差距。这导致了第二类 UNet 的发展(图 1b)。 U-Net++ [26] 利用密集连接,而 MultiResUNet [11] 在跳过连接上添加了额外的卷积块作为潜在的补救措施。到目前为止,UNet 的历史上所有创新都是使用 CNN 进行的。然而,2020 年的十年给计算机视觉领域带来了根本性的变化。 CNN 在视觉领域的长期主导地位被视觉转换器打破了 [7]。 Swin Transformers [15] 进一步针对一般视觉应用调整了变压器。因此,UNet 模型开始采用 Transformer [5]。 Swin-Unet [9] 用 Swin Transformer 块取代了卷积块,从而开创了一类新的模型(图 1c)。尽管如此,CNN 在图像分割方面仍然具有各种优点,导致了融合这两者的发展[2]。这种混合类 UNet 模型(图 1d)在编码器-解码器中采用卷积块,并沿跳跃连接使用变换器层。 UCTransNet [22]和MCTrans[24]是此类的两个代表性模型。最后,还尝试开发全变压器 UNet 架构(图 1e),例如,SMESwin Unet [27] 在编码器-解码器块和跳跃连接中都使用变压器。 ...

November 12, 2023 · 2 min · SwimmingLiu