基于深度学习的CT图像分割技术在自动勾画中的研究进展与应用
Advances and Applications of Deep Learning-Based CT Image Segmentation Techniques for Automatic Delineation
摘要: 计算机断层扫描(CT)在现代临床诊疗中发挥着不可替代的作用,尤其在肿瘤靶区勾画、术前评估和放疗规划等环节中对图像标注的精准性提出了更高要求。然而,传统人工勾画方式存在主观性强、效率低、重复性差等问题,制约了其标准化推广。近年来,人工智能技术迅速发展,特别是基于深度学习的图像分割模型(如U-Net、3D U-Net、TransUNet等)在CT影像结构识别中展现出卓越性能。本文系统梳理了AI辅助CT勾画的关键技术路径与模型演化趋势,分析了其在肝脏、肺部、脑部等典型病种中的应用实践,探讨了系统部署中面临的可解释性、数据安全及泛化能力问题,并展望了联邦学习、主动学习、大模型融合等新兴技术对临床智能化发展的推动作用。旨在为CT影像勾画的标准化、智能化与多中心应用提供理论依据与实践参考。
Abstract: Computed tomography (CT) plays a pivotal role in modern clinical diagnosis and treatment planning, especially in tasks such as tumor target delineation, preoperative evaluation, and radiotherapy design. However, conventional manual contouring remains labor-intensive, time-consuming, and subject to significant inter-operator variability, limiting its scalability and standardization. Recent advances in artificial intelligence (AI), particularly deep learning-based segmentation models such as U-Net, 3D U-Net, and TransUNet, have demonstrated promising performance in automatic structure identification on CT images. This review provides a comprehensive overview of the core methodologies and technical evolution underlying AI-assisted CT delineation. We analyze representative applications in liver, lung, and brain disease scenarios, highlighting model design strategies, data preparation pipelines, and integration with clinical workflows. Challenges associated with real-world deployment—such as model interpretability, domain generalization, and data privacy—are critically discussed. Furthermore, we explore the potential of federated learning, self-supervised learning, and multimodal foundation models to enhance robustness, scalability, and cross-institutional adaptation. By synthesizing technological advances with clinical demands, this review aims to support the development of intelligent, standardized, and privacy-preserving CT annotation systems that can be reliably deployed in multicenter clinical environments.
文章引用:路德昊, 王媛菲, 张景然. 基于深度学习的CT图像分割技术在自动勾画中的研究进展与应用[J]. 临床医学进展, 2025, 15(7): 689-699. https://doi.org/10.12677/acm.2025.1572041

1. 引言

计算机断层扫描(computed tomography, CT)作为现代医学影像学的重要组成部分,广泛应用于肿瘤分期、靶区勾画、术前规划及疾病随访等临床诊疗环节。尤其在放射治疗计划制定、介入路径评估及病灶进展监测等任务中,依赖CT图像进行准确解剖结构和病变区域的手动勾画,已成为提升治疗精度和个体化诊疗水平的关键一环[1] [2]

然而,传统的手工勾画方法在实际应用中面临诸多挑战:首先,该过程高度依赖经验丰富的影像科或临床医生,操作繁琐且主观性强;其次,在处理多切面、大体积图像数据时,勾画工作耗时巨大,且重复性较差;再者,不同操作者之间的一致性差异亦限制了多中心临床研究的可比性[3]。因此,亟需引入高效、稳定且可推广的自动化技术,以实现影像勾画的标准化与智能化。

近年来,随着人工智能技术的迅猛发展,基于深度学习的图像分割方法在医学图像处理领域取得了突破性进展。特别是在二维/三维卷积神经网络、注意力机制与Transformer架构的推动下,AI模型已逐步具备处理复杂解剖结构与多尺度病灶的能力,在CT影像勾画中展现出卓越的效率与精度[4] [5]

本文旨在系统梳理人工智能在CT图像勾画中的最新研究进展,回顾主流技术路径,剖析典型应用案例,并深入探讨临床部署面临的挑战与未来发展方向,以期为智能化医学图像标注系统的临床落地提供理论参考与实践借鉴。

2. CT影像勾画的临床应用现状与传统方法回顾

2.1. 多病种场景下的解剖结构与病灶标注需求

在现代临床实践中,基于CT图像的结构勾画已成为多种疾病诊疗流程中的关键步骤。尤其在肿瘤学领域,精准的靶区delineation是放射治疗计划制定与剂量控制的基础,对治疗效果与并发症控制具有直接影响[6]。例如,肝癌治疗中需要对肝脏、肿瘤病灶、门静脉、肝静脉等多解剖结构进行精细标注,以辅助术前评估与术中导航;在肺癌中,则需结合肺窗和纵隔窗影像完成病灶、气管、纵隔及周围重要器官的分割。

此外,CT图像勾画也在脑部卒中评估、冠脉钙化定量、骨折三维重建等领域发挥着不可替代的作用。高精度、多器官、多时间点的解剖结构分割能力,已逐渐成为临床辅助系统智能化发展的核心目标。

2.2. 经典图像处理算法在分割任务中的应用

在人工智能尚未大规模应用之前,传统图像处理方法是CT影像分割的主要技术路线。这些方法主要基于图像的灰度、边缘、纹理等低层视觉特征,常见算法包括区域生长法、阈值分割法、边缘检测法(如Canny算子)、水平集与主动轮廓模型(Active Contour Model, ACM)等[7] [8]

这些方法在特征对比度明显、边界连续的解剖结构中效果较好,曾广泛应用于肝脏、肺叶、肾脏等结构的分割任务中。例如,基于区域生长法的肝脏勾画方法可在增强CT中快速分离实质结构,但在病灶边界模糊、信号不均匀等情况下准确率显著下降。ACM类方法则可通过内外力场的平衡实现轮廓演化,对局部边缘拟合效果良好,然而对初始轮廓与参数高度敏感,易陷入局部最优。

2.3. 传统分割方法的技术瓶颈与局限性分析

尽管传统方法在特定条件下具有一定实用性,但在面对复杂临床场景时,其普适性和稳定性受到明显制约。首先,CT图像中常存在低对比、伪影干扰、器官间界限模糊等问题,使得基于固定规则的算法难以有效区分组织边界[9];其次,不同设备采集参数、重建算法及病人状态导致图像表现高度异质,进一步增加了算法泛化的难度。

更重要的是,这类方法大多依赖预定义的参数设置与启发式规则,缺乏对全局上下文的建模能力,难以适应变异结构或非典型病灶。在多中心研究或大规模临床部署中,其鲁棒性和效率远不能满足实际需求。因此,研究者亟需探索更具适应性和学习能力的技术路径,以推动图像勾画向智能化、标准化方向演进。

3. 人工智能辅助CT勾画的核心技术原理

3.1. 深度学习在医学图像分析中的发展概况

深度学习(Deep Learning)是近年来人工智能领域的重要突破,其在计算机视觉任务中表现出的强大特征提取和模式识别能力,使其迅速成为医学图像分析的核心技术路线。尤其在图像分割任务中,通过构建多层神经网络结构,深度学习模型能够自动从数据中学习多尺度、多语义层次的特征表示,从而实现对复杂医学图像结构的精准识别[10]

相比传统基于规则的分割算法,深度神经网络具有更强的非线性建模能力和数据驱动的特性,可广泛适应解剖结构变异、图像质量差异及多病种异质性等实际挑战。在CT影像勾画任务中,深度学习模型已逐步实现从二维平面到三维体素级预测的跨越,有效提升了勾画效率与空间一致性,是实现智能化影像标注的基础工具。

3.2. 主流网络结构与模型演化路径

3.2.1. 基于卷积神经网络的二维与三维分割架构

卷积神经网络(Convolutional Neural Network, CNN)是医学图像分割中应用最广泛的深度学习架构。其中,U-Net模型被视为医学分割任务的经典范式,其采用“编码器–解码器”结构,通过跨层跳跃连接实现高分辨率细节的恢复,在肝脏、肺部、前列腺等多器官CT分割中表现优异[4]。后续研究在U-Net基础上发展出ResUNet、Attention-UNet等结构,进一步提升对边界信息与小体积病灶的建模能力。

此外,针对三维CT体数据的空间连续性,研究者提出了3D U-Net、V-Net等模型,利用三维卷积操作同时提取空间上下文信息,广泛应用于肝癌靶区、脑部病灶、淋巴结等结构的精细勾画[11]。这些网络虽计算量较大,但可显著减少层间不连续问题,是实现体素级精准勾画的重要途径。

3.2.2. 引入自注意力机制的Transformer式模型

近年来,Transformer结构以其强大的全局建模能力在自然语言处理和计算机视觉领域获得广泛应用。基于此思想,医学图像分割中涌现出一系列融合自注意力机制的模型,如TransUNet、Swin-UNet等[5]。这类模型通过构建跨空间位置的信息交互机制,有效克服了卷积操作感受野受限的问题,在多尺度结构识别、长程依赖建模方面展现出显著优势。

Transformer模型特别适用于勾画结构复杂、边界模糊、纹理异质的病灶区域,适合在肝门区、肺门区、脑干周围等“高解剖密度”区域展开精细分割任务,成为新一代CT影像勾画工具的核心构件之一。

3.2.3. 多模态融合与跨尺度学习策略

在复杂临床场景中,单一模态CT图像往往存在信息不全、对比度低等问题。为提升模型泛化性能与语义感知能力,研究者逐渐引入多模态融合机制,如CT与MRI、PET、甚至临床结构化数据(年龄、性别、病理类型)进行联合建模[12]。此外,跨尺度学习机制也成为主流策略之一,如金字塔特征提取、级联多分辨率分支、空洞卷积等结构,均可增强模型对局部细节与全局上下文的综合识别能力。

3.2.4. 模型性能对比与评估

为了更清晰评估主流深度学习模型在CT图像勾画中的适用性,需引入系统性的性能对比与指标分析。经典2D U-Net结构以其高效的计算性能和良好的边界恢复能力,仍在多种常见任务中占据主导地位。然而,其缺乏对三维空间信息的建模能力,易导致层间不一致性,限制了在精细解剖结构勾画中的应用表现[4]

3D U-Net作为体素级分割代表,在维持高空间一致性的同时,Dice系数普遍高于0.90,Hausdorff距离显著下降,尤其适合多切片联合建模如肝脏肿瘤、脑肿瘤等任务[11]。但其计算资源需求大,模型推理时间长,不利于实时部署。

Transformer架构如TransUNet与Swin-UNet引入全局注意力机制,在复杂结构(如边界模糊病灶、重叠器官)分割中展现出更强的建模能力与泛化表现[5]。在Synapse、AMOS等基准数据集上,TransUNet的平均Dice高出U-Net约2.5~3个百分点,特别是在小体积器官和长程依赖场景中具有优势。但与此同时,Transformer类模型的训练数据依赖性和计算成本仍是其应用瓶颈。

在临床部署可行性方面,2D U-Net部署简便、运行快速,适合在放疗科、远程阅片等常规场景中使用;3D U-Net适合用于术前评估与三维重建,提升空间表达准确性;而Transformer模型适合集成于辅助决策系统中,以提升诊断敏感度。综上,模型选择应依据临床任务复杂度、部署资源与目标精度权衡。

3.3. 训练数据的获取、增强与标签策略优化

3.3.1. 医学影像数据的构建与预处理标准化

高质量的训练数据是构建深度学习模型的前提。医学影像数据往往来源于医院PACS系统,需经过脱敏、格式转换、重采样与归一化处理等标准化操作。CT影像中常使用Hounsfield单位(HU)窗位窗宽标准化,同时需统一切片厚度与空间分辨率,以减少数据分布差异对模型训练的不利影响[13]

3.3.2. 数据增强与不平衡样本调节方法

为缓解训练样本不足与标签分布偏斜等问题,需引入多样化的数据增强策略,包括旋转、平移、缩放、镜像、随机噪声添加等操作。此外,采用基于类权重的损失函数、Dice Loss、Tversky Loss 等结构也有助于解决前景/背景不平衡问题。近年来,一些研究还引入对抗样本生成与伪标签机制,以增强模型鲁棒性。

3.3.3. 弱监督学习与迁移学习在数据稀缺场景下的应用

在缺乏大规模标注数据的条件下,迁移学习与弱监督学习成为主流替代方案。通过迁移自然图像或其他器官模型的预训练权重,可显著提升在小样本任务下的模型性能;弱监督学习则尝试引入粗标注、图像级标签或伪标签进行联合训练,以减轻精细标注的成本压力。这类策略已在肝脏、前列腺、肺结节等任务中得到实际验证[14]

4. AI模型在典型疾病中的勾画应用实践

4.1. 肝脏与肝癌靶区的自动分割模型研究

肝脏肿瘤的精准勾画对手术切除范围界定、放疗剂量计划和预后评估具有关键意义。然而,肝脏本身解剖结构复杂,CT图像中肿瘤与正常组织间对比度低,且易受呼吸运动与增强相位变化影响,传统方法难以稳定获取高质量分割结果。

基于深度学习的自动分割模型在肝脏与肝癌勾画中逐渐展现优势。LiTS (Liver Tumor Segmentation Challenge)数据集推动了相关研究的发展,多个团队基于U-Net、3D U-Net和DenseNet等结构提出多阶段或多任务分割网络[15]。例如,Christ et al.提出的cascaded 3D FCN首先分割肝脏区域,再精细分割病灶,有效提升肿瘤识别灵敏度[16]

近年来,注意力机制(Attention)与形状先验(Shape Prior)的引入进一步增强了对异质性肿瘤的建模能力。如RA-Unet (Residual Attention U-Net)通过显式关注病灶边界,提升了小体积结节的检出率。部分研究还融合PET/CT、MRI等多模态数据以增强对血管与肿瘤侵润关系的识别,对辅助术前规划意义重大。

4.2. 基于深度学习的肺结节与肺部结构标注

肺结节早期筛查依赖于CT影像的高分辨率特性,但其手动勾画面临诸多挑战,如体积小、边界模糊、密度类型多样。AI模型特别是在低剂量胸部CT (LDCT)场景中表现出较高临床价值。

卷积神经网络已广泛应用于肺叶分割、气道重建与结节识别等任务,多个公开竞赛如LUNA16、Tianchi推动了算法进展。研究者提出基于U-Net的变种模型进行肺结节区域的像素级分割,结合FPN (Feature Pyramid Network)结构提取多尺度特征[17]

此外,结合检测与分割的级联框架(如Faster R-CNN + U-Net)成为主流趋势。部分研究引入三维ResNet架构对结节进行分类分级判断,实现从候选区域提取到临床报告生成的全流程自动化[18]。在多中心研究中,通过迁移学习与域适应策略提升模型在不同CT设备和种族群体间的稳定性,也成为重要研究方向。

4.3. 脑部病变区域的自动勾画与辅助诊断

在神经系统疾病中,基于CT或MRI影像的脑部病变分割对于卒中急诊评估、脑肿瘤术前规划与多发性硬化诊断均具有重要意义。尤其是在卒中高峰期,医生需在短时间内完成大批量脑出血、梗塞区域的快速识别,AI模型可显著缓解人力压力。

在脑肿瘤领域,基于BRATS (Brain Tumor Segmentation Challenge)数据集的研究成果已广泛应用于临床预研平台。DeepMedic、3D U-Net、nnU-Net 等模型在多模态MRI图像上实现了肿瘤核心区、增强区和水肿区的自动识别[19]。虽然BRATS数据以MRI为主,但其方法论与架构可直接迁移至脑出血或颅内占位性病变的CT分析。

在卒中诊断方面,研究者提出基于U-Net的改进模型(如Attention-ResU-Net)对非对称性低密度区域进行建模,并结合临床评分系统(如ASPECTS)实现量化评估。部分团队还引入Transformer结构以增强对长程依赖区域(如皮质下与脑干区)的建模能力[20]

4.4. 多病种、多中心环境下的模型性能评估

AI辅助勾画系统能否真正走入临床,还需验证其在不同疾病、不同设备和不同人群条件下的泛化能力。多个研究显示,模型在单中心训练时虽能达到较高分割准确率(Dice系数 > 0.90),但在异质性数据集上常表现出性能退化[21]

为此,研究者提出多源域适配(multi-domain adaptation)策略,融合不同医院的标注风格与扫描协议,并引入批归一化修正、风格迁移(style transfer)与联邦学习(federated learning)等机制,提升多中心部署能力。此外,一些团队通过构建开源评估平台(如Medical Segmentation Decathlon)对模型在十余种解剖结构与病种上的性能进行系统性评价,为未来建立统一的技术标准提供了依据[22]

5. AI勾画系统的临床部署与实践挑战

5.1. AI辅助勾画系统的构建流程与部署路径

AI辅助CT影像勾画系统的临床落地需经过从模型研发、系统集成、临床对接到持续优化的完整流程。通常,该类系统以模块化设计为主,包含图像预处理、模型推理、后处理与人机交互界面四个核心环节[23]

在输入端,系统需接入医院PACS平台,实现对DICOM图像的标准化读取与窗位调整。随后通过深度学习模型进行勾画预测,结合后处理技术(如形态学运算、最大连通域提取、边界平滑)优化结果质量。最终,结果以结构化分割掩码(segmentation mask)或RTSTRUCT格式导出,供放疗计划系统、术前评估平台等下游应用直接调用。

系统部署形式可分为本地部署(on-premise)与云端部署(cloud-based)。前者适合数据安全要求高的三级医院,后者则更利于模型版本更新与远程支持。为确保与临床工作流程无缝对接,系统需提供与医生交互勾画编辑接口,实现AI结果的人工修正与再确认。

5.2. 可解释性与医生信任体系的建立机制

尽管深度学习模型在分割准确率上已取得突破,但其“黑箱”特性仍是影响医生接受度的重要障碍。当前主流的可解释性机制主要包括:

1) 热力图(heatmap)与特征可视化:如Grad-CAM、Saliency Map,可帮助医生理解模型关注区域;

2) 不确定性量化(uncertainty estimation):通过贝叶斯网络、MC Dropout等方法输出可信区间,引导医生重点审查;

3) 结构化报告与可追溯日志机制:在AI勾画后自动生成质量评估报告,明确指出可疑区域、边界模糊区等异常情况[24]

临床实践中,还应将AI结果与医生反馈形成闭环,例如:通过“勾画确认–模型修正–微调优化”的循环机制,建立半监督自适应学习系统,提升模型在本地数据环境中的可靠性。通过人机协同方式提升勾画质量与一致性,是建立医生信任的关键路径。

5.3. 模型在异质数据环境中的泛化能力验证

AI模型能否在不同医院、设备、病种条件下稳定运行,是临床部署中的关键技术瓶颈。研究发现,即使在公开数据集中表现优异的模型,在转移至异构场景时常因图像质量、扫描参数、种族差异等因素导致准确率下降[25]

为提升泛化性能,研究者引入多种策略:

1) 跨域训练(domain generalization):采用多中心数据构建训练集,增强模型鲁棒性;

2) 领域适应(domain adaptation):在目标中心使用无标注数据进行模型微调;

3) 批归一化重参数化、风格迁移(style transfer)与通道注意力机制,用于缓解图像风格差异。

部分团队还采用联邦学习(federated learning)架构,实现模型在多家医院本地协同训练而无需共享原始数据,从而在保护隐私前提下实现性能协同优化[26]

5.4. 隐私保护、数据合规与系统安全性问题探讨

医学图像数据作为高度敏感的个人健康信息,其处理与使用必须遵循国家法规(如《数据安全法》《个人信息保护法》)以及医院伦理审查流程。AI勾画系统在临床应用中,需重点解决以下三方面安全性问题:

1) 数据传输与存储安全:采用端到端加密、HTTPS协议及本地存储机制,防止患者影像数据在上传/下载过程中被篡改或泄露;

2) 模型更新与回溯机制:确保所有模型版本具有可追溯记录,并在模型更换前完成完整性能评估与备案;

3) 合规性验证与伦理评审:在部署前完成医院伦理审批、数据使用授权,并明确算法用途、风险边界及医生责任。

为响应政策合规要求,越来越多厂商与科研单位尝试采用差分隐私、加密计算、联邦学习等前沿隐私保护技术,实现智能化勾画系统在保障安全前提下的规模化部署。

5.5. 临床融合实践

AI勾画系统在真实临床流程中的应用已逐步显现成效。在放疗科室中,AI模型已被集成至放疗计划系统中,自动识别OAR结构并生成可编辑轮廓,在头颈部、盆腔肿瘤勾画中,多个中心报告Dice系数可达0.90以上,Hausdorff距离小于2 mm,大幅减少手工修改时间[27]。系统通常以DICOM RT结构集形式导入Eclipse等TPS平台,支持医生审核、微调与确认操作。

在PACS系统中,AI分割结果可通过DICOM-SEG对象实时回传,并在PACS Viewer中作为可选叠加图层展示,实现与传统阅片工作流程的无缝整合[28]。当前已有多家医院基于Dicoogle等开放平台完成与MONAI Label等工具的融合部署。

在术前与术中场景中,AI分割结果被用于三维重建、术前路径规划以及术中AR导航系统投影。如神经外科和耳鼻喉科手术中,AI辅助模型提供的肿瘤边界与风险结构已用于实时术野叠加,辅助精准定位与安全切除[29]

6. 研究局限性与未来发展趋势展望

6.1. 当前算法在临床场景中的适应性挑战

尽管近年来人工智能在CT影像勾画任务中取得显著进展,但在真实临床应用中仍面临多方面的局限性。首先,算法对边界模糊、小体积病灶的识别能力仍不足。尤其是在低增强对比度或肿瘤与邻近组织密度接近的情况下,模型易产生过拟合或漏勾画现象[30]

其次,数据依赖性较高仍是当前深度学习模型的根本短板。训练过程往往依赖大量高质量人工标注数据,然而医学影像数据获取门槛高、跨机构共享受限、标注过程耗时费力,导致许多临床亚类病种难以纳入模型学习范畴。第三,模型缺乏对病理变化的动态适应能力。大多数模型训练于静态图像,难以适应疾病进展过程中的形态变化,如放疗后肿瘤轮廓缩小、出血吸收、肝纤维化发展等。

此外,医学AI系统在实际部署中缺乏统一标准,不同厂商、研究机构的模型缺少互操作性,难以形成可迁移的生态体系,限制了规模化推广。

6.2. 技术演进方向:从监督学习到自主学习

为突破现有瓶颈,研究正逐步从传统的监督学习范式向更加智能化、自适应的方向拓展。

6.2.1. 联邦学习在多中心协同建模中的前景

联邦学习(federated learning)允许各医院在不共享原始影像数据的前提下,通过本地训练+加权聚合实现模型的联合优化,有效解决了数据隐私与跨机构协作矛盾。在多中心CT勾画场景中,联邦学习可显著提升模型对不同厂商扫描设备、不同人群数据的适应能力,已在肝脏分割、脑出血识别等任务中实现初步落地[31]

6.2.2. 主动学习与自监督机制的临床适配探索

主动学习(active learning)通过引导模型主动选择信息量最大、预测不确定度最高的图像进行人工标注,从而在减少人工成本的同时提升训练效率。自监督学习(self-supervised learning)则利用无标签图像中的内在结构关系构建预训练任务,在影像数据充足但缺乏标签的场景中表现出强大的表征学习能力[32]。二者结合有望缓解“数据鸿沟”,推动AI模型向轻标注、弱监督乃至无监督方向演进。

6.2.3. 图神经网络与大模型驱动下的跨模态建模框架

图神经网络(Graph Neural Network, GNN)凭借其对空间拓扑与结构先验的建模能力,在处理解剖结构复杂的图像(如血管网络、肝门区)中显示出优势。同时,随着GPT、SAM、MedCLIP 等大模型的兴起,跨模态联合建模成为趋势方向。通过联合CT图像、文本报告、病理结果等异构数据进行融合学习,有望推动AI系统从“辅助勾画”向“智能辅助诊断”跃迁[33]

6.3. 智能影像勾画向智能辅助诊疗系统的融合趋势

在未来发展中,AI勾画模型不应局限于单一的结构分割任务,而应作为智能辅助诊疗系统的组成部分,嵌入至完整临床路径之中。具体包括:1) 与放射治疗计划系统(TPS)的深度融合,实现靶区自动勾画与剂量自动优化联动;2) 与手术导航系统集成,辅助肿瘤边界实时识别与术中精确切除;3) 与随访管理平台协同,动态量化病灶变化,预测复发风险,辅助长期管理。

同时,未来的AI系统应具有可解释性、可拓展性与可审计性,以支持多角色、多任务、多机构的协同工作场景。在标准制定层面,需加快影像勾画算法评估指标、互操作接口与临床验证规范的建立,推动AI从“研究样机”向“医疗基础设施”转变。

6.4. 新兴方法进展

面对标注数据获取瓶颈,弱监督分割方法(如WS-Unet)探索仅依赖图像级标签训练分割器,并通过可解释结构引导像素级学习,在肺癌等任务中取得初步成效[34]

图神经网络(GNN)被用于增强空间关系建模能力,如ViG-UNet通过将图结构融入U-Net网络,有效提升器官结构一致性和边界清晰度[35]。完全基于GNN的U-GNN架构也在多任务中展现优越性能。

基础模型(如SAM)在医学图像领域的适配研究正在兴起。MedSAM通过医疗大数据再训练通用模型,在多个任务上展现出强于专用模型的通用性与迁移能力,显示出未来“一模多能”的发展前景[36]

7. 结语

随着人工智能技术在医学影像领域的迅猛发展,基于深度学习的CT图像自动勾画方法已逐步从理论验证走向临床应用,在肿瘤靶区分割、器官解剖结构识别、病灶定量分析等多个方向展现出显著优势。AI模型通过高效、稳定、可重复的分割性能,显著提升了影像勾画的效率与标准化水平,有望缓解医生负担、提高诊疗一致性,为精准医疗提供坚实的技术支撑。

尽管当前研究已取得阶段性成果,人工智能辅助影像勾画仍面临数据获取困难、模型可解释性差、跨域泛化能力不足等实际挑战。在真实世界的多中心、多病种临床环境中,如何构建兼具准确性、稳定性与可部署性的智能系统,是今后研究的重要方向。

展望未来,AI辅助影像勾画将不再是单一任务工具,而将逐步融入以诊断、治疗、随访为一体的智能临床辅助体系。通过联邦学习、自监督学习、大模型融合等技术手段,AI系统有望在保障数据安全的前提下实现跨机构协同优化;同时,借助多模态数据融合与结构化报告自动生成,推动智能影像分析由“点状支持”走向“全流程赋能”。

综上所述,人工智能正加速重构医学影像勾画的技术范式与临床实践模式。只有在科研创新、数据共享、临床融合与伦理监管等多维协同推进下,智能勾画系统才能真正实现从“算法可用”迈向“临床可信”,助力医学影像向更高水平的智能化跃迁。

作者贡献

路德昊负责文献检索与数据整理;王媛菲筛选核心研究,撰写方法与应用案例;张景然负责文档的排版与语言的优化。

参考文献

[1] 陈建斌, 张鹏. CT影像在放射治疗靶区勾画中的应用价值[J]. 临床放射学杂志, 2021, 40(10): 1800-1804.
[2] Bai, H.X., Wang, M.Y., Shi, H.B., et al. (2022) Artificial Intelligence in CT Imaging of Hepatocellular Carcinoma: Current Status and Future Directions. World Journal of Gastroenterology, 28, 2325-2342.
[3] 姚志军, 李婷, 宋磊. 基于深度学习的肿瘤影像勾画自动化研究进展[J]. 中华放射学杂志, 2020, 54(3): 211-216.
[4] Ronneberger, O., Fischer, P. and Brox, T. (2015) U-Net: Convolutional Networks for Biomedical Image Segmentation. In: Navab, N., Hornegger, J., Wells, W. and Frangi, A., Eds., Lecture Notes in Computer Science, Springer International Publishing, 234-241.
https://doi.org/10.1007/978-3-319-24574-4_28
[5] Chen, J., Lu, Y., Yu, Q., et al. (2021) Trans UNet: Transformers Make Strong Encoders for Medical Image Segmentation. arXiv:2102.04306.
[6] 杨丽, 王楠. 放射治疗中靶区勾画技术的研究进展[J]. 肿瘤研究与临床, 2021, 33(5): 384-388.
[7] Kass, M., Witkin, A. and Terzopoulos, D. (1988) Snakes: Active Contour Models. International Journal of Computer Vision, 1, 321-331.
https://doi.org/10.1007/bf00133570
[8] 赵建国, 李文斌. 医学图像分割方法研究进展[J]. 生物医学工程学杂志, 2019, 36(2): 247-254.
[9] Heimann, T. and Meinzer, H. (2009) Statistical Shape Models for 3D Medical Image Segmentation: A Review. Medical Image Analysis, 13, 543-563.
https://doi.org/10.1016/j.media.2009.05.004
[10] Shen, D., Wu, G. and Suk, H. (2017) Deep Learning in Medical Image Analysis. Annual Review of Biomedical Engineering, 19, 221-248.
https://doi.org/10.1146/annurev-bioeng-071516-044442
[11] Çiçek, Ö., Abdulkadir, A., Lienkamp, S.S., Brox, T. and Ronneberger, O. (2016) 3D U-Net: Learning Dense Volumetric Segmentation from Sparse Annotation. In: Ourselin, S., Joskowicz, L., Sabuncu, M., Unal, G. and Wells, W., Eds., Lecture Notes in Computer Science, Springer International Publishing, 424-432.
https://doi.org/10.1007/978-3-319-46723-8_49
[12] Zhou, Z., Rahman Siddiquee, M.M., Tajbakhsh, N. and Liang, J. (2018) UNet++: A Nested U-Net Architecture for Medical Image Segmentation. In: Stoyanov, D., et al., Eds., Lecture Notes in Computer Science, Springer International Publishing, 3-11.
https://doi.org/10.1007/978-3-030-00889-5_1
[13] 杨林, 刘永峰. 医学影像AI模型训练的预处理标准研究[J]. 中国医学计算机成像杂志, 2022, 28(1): 17-22.
[14] Wang, X., Yu, Z., Zhu, H., et al. (2022) A Review of Weakly Supervised Deep Learning for Medical Image Segmentation. Computerized Medical Imaging and Graphics, 94, Article 102020.
[15] Bilic, P., Christ, P., Vorontsov, E., et al. (2019) The Liver Tumor Segmentation Benchmark (LiTS). arXiv:1901.04056.
[16] Christ, P.F., Elshaer, M.E.A., Ettlinger, F., Tatavarty, S., Bickel, M., Bilic, P., et al. (2016) Automatic Liver and Lesion Segmentation in CT Using Cascaded Fully Convolutional Neural Networks and 3D Conditional Random Fields. In: Ourselin, S., Joskowicz, L., Sabuncu, M., Unal, G. and Wells, W., Eds., Lecture Notes in Computer Science, Springer International Publishing, 415-423.
https://doi.org/10.1007/978-3-319-46723-8_48
[17] Setio, A.A.A., Traverso, A., de Bel, T., Berens, M.S.N., van den Bogaard, C., Cerello, P., et al. (2017) Validation, Comparison, and Combination of Algorithms for Automatic Detection of Pulmonary Nodules in Computed Tomography Images: The LUNA16 Challenge. Medical Image Analysis, 42, 1-13.
https://doi.org/10.1016/j.media.2017.06.015
[18] Ardila, D., Kiraly, A.P., Bharadwaj, S., Choi, B., Reicher, J.J., Peng, L., et al. (2019) End-to-End Lung Cancer Screening with Three-Dimensional Deep Learning on Low-Dose Chest Computed Tomography. Nature Medicine, 25, 954-961.
https://doi.org/10.1038/s41591-019-0447-x
[19] Isensee, F., Jaeger, P.F., Kohl, S.A.A., Petersen, J. and Maier-Hein, K.H. (2020) nnU-Net: A Self-Configuring Method for Deep Learning-Based Biomedical Image Segmentation. Nature Methods, 18, 203-211.
https://doi.org/10.1038/s41592-020-01008-z
[20] Lu, M., Xie, Y., Wang, W., et al. (2023) Transformer-Based Brain Infarct Segmentation from Non-Contrast CT. Medical Image Analysis, 84, Article 102719.
[21] Wen, J., Thibeau-Sutre, E., Diaz-Melo, M., Samper-González, J., Routier, A., Bottani, S., et al. (2020) Convolutional Neural Networks for Classification of Alzheimer’s Disease: Overview and Reproducible Evaluation. Medical Image Analysis, 63, Article 101694.
https://doi.org/10.1016/j.media.2020.101694
[22] Simpson, A.L., Antonelli, M., Bakas, S., et al. (2019) A Large Annotated Medical Image Dataset for the Development and Evaluation of Segmentation Algorithms. arXiv:1902.09063.
[23] Zhang, Y., Jiang, J., Chen, Y., et al. (2022) Deploying Medical AI in Real-World Clinical Settings: A Step-by-Step Guide. Nature Biomedical Engineering, 6, 797-812.
[24] Tonekaboni, S., Joshi, S., McCradden, M.D., et al. (2019) What Clinicians Want: Contextualizing Explainable Machine Learning for Clinical End Use. NPJ Digital Medicine, 2, Article 102.
[25] Chen, S., Zhang, X., Lu, H., et al. (2023) Med-Unet: A Generalizable Medical Image Segmentation Framework via Domain-Invariant Representation Learning. Medical Image Analysis, 84, Article 102690.
[26] Kaissis, G.A., Makowski, M.R., Rückert, D. and Braren, R.F. (2020) Secure, Privacy-Preserving and Federated Machine Learning in Medical Imaging. Nature Machine Intelligence, 2, 305-311.
https://doi.org/10.1038/s42256-020-0186-1
[27] Lin, L., Dou, Q., Jin, Y.M., et al. (2022) Deep Learning for Automated Contouring of High-Risk Clinical Target Volumes in Radiotherapy. Radiology, 304, 212-221.
[28] Silva, D., Costa, C., Ferreira, C., et al. (2023) Dico Ogle: An Open Source Peer-to-Peer PACS. Journal of Digital Imaging, 36, 112-125.
[29] Chen, X., Zhang, Y., Wang, L., et al. (2023) Real-Time AR-Assisted Navigation Using AI-Driven Segmentation. IEEE Transactions on Medical Imaging, 42, 1814-1826.
[30] Menze, B.H., Jakab, A., Bauer, S., Kalpathy-Cramer, J., Farahani, K., Kirby, J., et al. (2015) The Multimodal Brain Tumor Image Segmentation Benchmark (BRATS). IEEE Transactions on Medical Imaging, 34, 1993-2024.
https://doi.org/10.1109/tmi.2014.2377694
[31] Sheller, M.J., Reina, G.A., Edwards, B., Martin, J. and Bakas, S. (2019) Multi-institutional Deep Learning Modeling without Sharing Patient Data: A Feasibility Study on Brain Tumor Segmentation. In: Crimi, A., Bakas, S., Kuijf, H., Keyvan, F., Reyes, M. and van Walsum, T., Eds., Lecture Notes in Computer Science, Springer International Publishing, 92-104.
https://doi.org/10.1007/978-3-030-11723-8_9
[32] Tajbakhsh, N., Jeyaseelan, L., Li, Q., Chiang, J.N., Wu, Z. and Ding, X. (2020) Embracing Imperfect Datasets: A Review of Deep Learning Solutions for Medical Image Segmentation. Medical Image Analysis, 63, Article 101693.
https://doi.org/10.1016/j.media.2020.101693
[33] Wang, Y., Zhang, L., Sun, X., et al. (2024) A Multimodal Foundation Model for Universal Medical Image Segmentation. Nature Communications, 15, Article 622.
[34] Xie, Y., Zhang, J., Xia, Y., et al. (2024) WS-UNet: Weakly Supervised Medical Image Segmentation Using Class Activation Maps. Medical Image Analysis, 89, Article 102807.
[35] Wang, Y., Liu, F., Gao, Y., et al. (2023) ViG-UNet: Vision Graph U-Net for Organ Segmentation. International Conference on Medical Image Computing and Computer-Assisted Intervention (MICCAI), 151-160.
[36] Ma, J., Li, H., Xu, Y., et al. (2024) MedSAM: Segment Anything Model for Medical Images. arXiv:2306.14452.