CN111340903A - 基于非衰减校正pet图像生成合成pet-ct图像的方法和系统 - Google Patents
基于非衰减校正pet图像生成合成pet-ct图像的方法和系统 Download PDFInfo
- Publication number
- CN111340903A CN111340903A CN202010084751.1A CN202010084751A CN111340903A CN 111340903 A CN111340903 A CN 111340903A CN 202010084751 A CN202010084751 A CN 202010084751A CN 111340903 A CN111340903 A CN 111340903A
- Authority
- CN
- China
- Prior art keywords
- image
- attenuation
- pet
- discriminator
- generator
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/003—Reconstruction from projections, e.g. tomography
- G06T11/005—Specific pre-processing for tomographic reconstruction, e.g. calibration, source positioning, rebinning, scatter correction, retrospective gating
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Apparatus For Radiation Diagnosis (AREA)
- Nuclear Medicine (AREA)
Abstract
本发明公开了一种基于非衰减校正PET图像生成合成PET‑CT图像的方法和系统。该方法包括:构建第一生成对抗网络和第二生成对抗网络;通过训练第一生成对抗网络获得未经衰减校正的PET图像与经衰减校正的PET图像之间的映射关系;通过训练第二生成对抗网络获得经衰减校正的PET图像与CT图像的映射关系;利用得到的映射关系生成合成PET/CT图像。利用本发明能够直接从非衰减校正PET图像合成高质量的PET/CT图像,并且能够降低病人的医疗花销,且最大程度减少了病人检查过程中接受的辐射剂量。
Description
技术领域
本发明涉及医疗图像处理技术领域,更具体地,涉及一种基于非衰减校正PET图像生成合成PET-CT图像的方法和系统。
背景技术
正电子断层成像(PET)是一种非侵入式的成像技术,它通过注射特定的造影剂如18F-fluorodeoxyglucose(FDG)之后,借助PET扫描仪采集数据并经过一系列的后期数据处理之后,重建出来的PET影像可以清晰地反映病人组织或者器官的代谢水平,从而在临床上可用于肿瘤的早期筛查以及病人术后的分期诊断。但是,PET成像仅仅反映了组织或者器官的功能信息,它还需要额外的计算机断层成像(CT)来执行PET成像的衰减校正以提供额外的人体解剖信息来定位病灶位置,这不可避免地给病人带来了额外的电离辐射,潜在地增加了病人的患癌几率。因此研究和开发出一种能够从其他模态(例如核磁共振图像(MRI))的医学图像生成伪CT,从而取代PET扫描时附加的额外解剖成像的有效方法,对于降低病人遭受的辐射剂量以及降低PET/CT检查的高额费用而言具有重要的科学意义与应用前景。
在现有技术中,生成CT图像的技术方案主要存在以下问题:直接进行PET/CT检查不仅较为费用昂贵,而且病人在检查过程中受到的辐射剂量会较多;从MRI估计CT用于PET的衰减校正的方法存在MRI序列获取的时间较长的缺点,另外人工数据配准的精度直接影响了后期成像的质量;PET/MRI检查过程中病人肢体的不自主运动会引起截断伪影等。
发明内容
本发明的一个目的是提供一种基于非衰减校正PET图像生成合成PET-CT图像的方法和系统,是基于深度学习的方法,实现从未经衰减校正的PET图像合成PET/CT图像的新技术方案。
根据本发明的第一方面,提供了一种基于非衰减校正PET图像生成合成PET-CT图像的方法,包括以下步骤:
构建包含第一生成器和第一鉴别器的第一生成对抗网络并构建包含第二生成器和第二鉴别器的第二生成对抗网络;
以非衰减校正PET图像作为所述第一生成器的输入进行特征提取,获得合成的衰减校正PET图像,并以该合成的衰减校正PET图像作为所述第一鉴别器的输入,以经衰减校正的PET图像作为所述第一鉴别器的参考图像进行训练,获得未经衰减校正的PET图像与经衰减校正的PET图像之间的映射关系G1;
以所述经衰减校正的PET图像作为所述第二生成器的输入进行特征提取,获得合成的CT图像,并以该合成的CT图像作为所述第二鉴别器的输入,以经训练的CT图像作为所述第二鉴别器的参考图像进行训练,获得经衰减校正的PET图像与CT图像之间的映射关系G2;
利用映射关系G1和映射关系G2从未经衰减校正PET图像生成合成PET/CT图像。
在一个实施例中,所述第一生成对抗网络和所述第二生成对抗网络具有相同或不同的网络结构。
在一个实施例中,所述第一生成器和所述第二生成器具有相同的网络结构,依次包括多个卷积层和池化层、多个残差块、与所述多个卷积层对应的多个解卷积层,卷积层与对应的解卷积层采用跳连接。
在一个实施例中,所述第一鉴别器和所述第二鉴别器采用全连接神经网络来判断输入图像来自对应生成器的输出或是来自参考图像。
在一个实施例中,所述第一鉴别器和所述第二鉴别器基于距离比较来自对应生成器的输出图像和参考图像之间的分布相似度。
在一个实施例中,所述第一生成对抗网络和所述第二生成对抗网络基于沃瑟斯坦生成对抗网络,对抗损失定义为:
在一个实施例中,在训练过程中,总的目标函数设置为包括对抗损失项和均方误差损失项、图像梯度损失项、多尺度内容损失项、结构相似度损失项中的一种或多种。
在一个实施例中,在训练过程中,将所述总的目标函数设置为:
其中,IAC表示真实的经衰减校正的PET图像,IsAC表示生成的经衰减校正的PET图像,λ0表示对抗损失的权重,λmse表示均方误差的权重,λgdl表示图像梯度损失的权重,λcontent表示多尺度内容损失的权重,λssim表示结构相似度损失的权重。
根据本发明的第二方面,提供一种基于非衰减校正PET图像生成合成PET-CT图像的系统。该系统包括:
网络模型构建单元:用于构建包含第一生成器和第一鉴别器的第一生成对抗网络并构建包含第二生成器和第二鉴别器的第二生成对抗网络;
第一训练单元:用于以非衰减校正PET图像作为所述第一生成器的输入进行特征提取,获得合成的衰减校正PET图像,并以该合成的衰减校正PET图像作为所述第一鉴别器的输入,以经衰减校正的PET图像作为所述第一鉴别器的参考图像进行训练,获得未经衰减校正的PET图像与经衰减校正的PET图像之间的映射关系G1;
第二训练单元:用于以所述经衰减校正的PET图像作为所述第二生成器的输入进行特征提取,获得合成的CT图像,并以该合成的CT图像作为所述第二鉴别器的输入,以经训练的CT图像作为所述第二鉴别器的参考图像进行训练,获得经衰减校正的PET图像与CT图像之间的映射关系G2;
图像合成单元:用于利用映射关系G1和映射关系G2从未经衰减校正PET图像生成合成PET/CT图像。
相对于现有技术,本发明的优点在于:直接利用现有的非衰减校正PET图像生成合成PET/CT图像,省去了利用MRI合成CT来执行PET成像的衰减校正,为后续实际应用提供了新的思路;在PET/MRI,PET/CT还未普及的情况下,本发明提供了一条合成PET/CT的有效捷径,不仅能够降低病人的医疗花销,并且最大程度减少了病人检查过程中接受的辐射剂量。
附图说明
被结合在说明书中并构成说明书的一部分的附图示出了本发明的实施例,并且连同其说明一起用于解释本发明的原理。
图1是根据本发明一个实施例的基于非衰减校正PET图像生成合成PET-CT图像方法的流程图;
图2是根据本发明一个实施例的实现非衰减校正PET图像生成合成PET-CT图像方法的网络模型图;
图3是根据本发明一个实施例的实验效果图。
具体实施方式
现在将参照附图来详细描述本发明的各种示例性实施例。应注意到:除非另外具体说明,否则在这些实施例中阐述的部件和步骤的相对布置、数字表达式和数值不限制本发明的范围。
以下对至少一个示例性实施例的描述实际上仅仅是说明性的,决不作为对本发明及其应用或使用的任何限制。
对于相关领域普通技术人员已知的技术、方法和设备可能不作详细讨论,但在适当情况下,所述技术、方法和设备应当被视为说明书的一部分。
在这里示出和讨论的所有例子中,任何具体值应被解释为仅仅是示例性的,而不是作为限制。因此,示例性实施例的其它例子可以具有不同的值。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步讨论。
简言之,本发明为解决PET图像的衰减校正以及降低病人检查时的辐射剂量问题,设计了一种两阶网络,该网络包括两个阶段:第一阶段完成未经衰减校正的PET图像的自衰减校正并获得合成的衰减校正PET图像,第二阶段利用第一阶段获得的合成的衰减校正PET图像去估计对应的CT图像。经过这两个阶段,可以利用一组未经衰减校正的PET图像去生成PET/CT图像。
为实现上述目的,在一个实施例中,利用改进沃瑟斯坦生成对抗网络从未经衰减校正PET图像生成合成PET/CT图像,参见图1所示,本发明的方法具体包括以下步骤
步骤S110,构建包含生成器和判别器的生成对抗网络模型。
本发明实施例提供的网络模型包含两套生成对抗网络,每套生成对抗网络分别包含生成器网络(或简称生成器)和鉴别器网络(或简称鉴别器)。为实现生成合成PET/CT图像,分成两个阶段:第一阶段为训练阶段,训练网络由生成器和鉴别器构成,第二阶段为测试阶段,利用第一阶段训练好的网络从未经衰减校正PET图像生成合成PET/CT图像。
具体地,参见图2所示,在一个实施例中,生成器网络从左至右依次包括5个卷积层(含池化层,如采用最大池化)、9个残差块、5个反卷积层和1个卷积层,鉴别器网络依次包括四个卷积层(含池化层)和2个全连接层,其中每个残差块包括2个卷积层。
结合图2所示,输入图像经过5个卷积层(卷积操作用于提取特征,最大池化操作用于减小图像尺寸,并利用激活函数来增加网络的非线性)进行多次提取特征,接着数据流经过9个残差块并经过5个反卷积层后恢复图像的分辨率至输入图像的尺寸,进而转化为输出图像。例如,整个网络使用的卷积核的尺寸为3×3,编码部分使用的滤波器的个数分别为64,128,256,512,512。
鉴别器网络例如采用全连接神经网络(FCN)来判断输入图像是来自生成器的输出还是参考图像。在本发明实施例中鉴别器网络没有采用分类概率,而是利用一种特殊的基于特征的距离来衡量生成器的输出图像与参考图像之间的差异。具体地,鉴别器没有使用基于real or fake(真伪)分类的激活函数,而是直接使用两个全连接层接收高级特征并输出,然后在此基础上计算真实图像和参考图像的距离,该距离用于比较来自生成器的输出图像和参考图像两个分布的相近程度,并可以提供有意义的梯度信息。
对于第一套生成对抗网络,以训练的非衰减校正PET图像作为生成器的输入进行特征提取,获得合成的衰减校正PET图像,并以该合成的衰减校正PET图像作为鉴别器的输入,以经训练的衰减校正的PET图像作为该鉴别器的参考图像。
对于第二套生成对抗网络,以训练的衰减校正PET图像作为生成器的输入进行特征提取,获得合成的CT图像,并以该合成的CT图像作为鉴别器的输入,以训练的CT图像作为鉴别器的参考图像。
需说明的是,上述第一套生成对抗网络和第二套生成对抗网络可构建为具有相同或不同的网络结构,例如,两者的生成器网络可设置为具有不同数目的卷积层、不同数目的残差块等,又如两者的鉴别器可使用不同的分类方法等。本领域技术人员可根据对处理速度和处理精度的要求等因素多网络模型作适当变型,本发明对此不作限制。
步骤S120,设计生成对抗网络的损失函数。
由于本发明实施例采用的是沃瑟斯坦生成对抗网络,可将网络的对抗损失定义为:
其中,λ表示一个超参数,例如根据经验设置为10,x表示输入图像,G(x)表示生成器的输出,E(·)用于计算EM距离(Earth-Mover距离),表示按照一定比例从真实图像和参考图像中随机取出的样本,D(·)表示鉴别器的判别过程。
在另一实施例中,为了弥补传统的L2距离带来的图像模糊问题,引入了多尺度内容损失,图像梯度损失以及结构相似度损失。例如,将总的目标函数的定义如下:
其中,IAC表示真实的经过衰减校正的PET图像,IsAC表示生成的经过衰减校正的PET图像。λ0表示对抗损失的权重,λmse表示均方误差的权重,λgdl表示图像梯度损失的权重,λcontent表示多尺度内容损失的权重,λssim表示结构相似度损失的权重,这些超参数可根据多次实验效果设置为合适的值。
在训练过程中,通过最小化总的目标函数来获得最优解,即获得高质量的输出图像。
需要说明的是,本领域技术人员可根据实际应用改变上述目标函数,例如,除了包含对抗损失外,可从均方误差损失项、图像梯度损失项、多尺度内容损失项、结构相似度损失项中选择一项或多项,而不必包括上述所有的损失项。
步骤S130,训练生成对抗网络,获得从未经衰减校正的PET图像到衰减校正的PET图像之间的映射关系,以及衰减校正的PET图像到CT图像之间的映射关系。
例如,从未经衰减校正的PET图像,衰减校正的PET图像以及CT图像的数据集中提取一个批次的配对的图像对作为网络输入,分别训练生成器与鉴别器。通过训练,得到由输入图像到参考图像的映射关系G1,G2,其中G1表示从未经衰减校正的PET图像到衰减校正的PET图像的映射,G2表示从衰减校正的PET图像到CT图像的映射。
在联合训练生成对抗网络的生成器和鉴别器过程中,可采用现有技术的优化器进行优化,例如,采用Adam优化算法来优化,并采用指数递减的学习率。
这种利用深度学习结合多种损失函数进行网络优化的方式,能够实现非衰减校正PET图像的自衰减校正并取得了良好的结果。
步骤S140,基于获得的映射关系生成合成的PET/CT图像。
在获得映射关系G1,G2之后,可直接根据现有的未经衰减校正的PET图像生成合成的PET/CT图像,即将非衰减校正PET图像输入到训练好的模型G1,得到合成的衰减校正PET图像,然后将该合成的衰减校正PET图像输入到训练好的模型G2,则得到合成的CT图像(仍参见图2所示)。
相应地,本发明提供一种基于非衰减校正PET图像生成合成PET-CT图像系统,用于实现上述方法的一个方面或多个方面。例如,该系统包括:网络模型构建单元,其用于构建包含第一生成器和第一鉴别器的第一生成对抗网络并构建包含第二生成器和第二鉴别器的第二生成对抗网络;第一训练单元,其用于以非衰减校正PET图像作为所述第一生成器的输入进行特征提取,获得合成的衰减校正PET图像,并以该合成的衰减校正PET图像作为所述第一鉴别器的输入,以经衰减校正的PET图像作为所述第一鉴别器的参考图像进行训练,获得未经衰减校正的PET图像与经衰减校正的PET图像之间的映射关系G1;第二训练单元,其用于以所述经衰减校正的PET图像作为所述第二生成器的输入进行特征提取,获得合成的CT图像,并以该合成的CT图像作为所述第二鉴别器的输入,以经训练的CT图像作为所述第二鉴别器的参考图像进行训练,获得经衰减校正的PET图像与CT图像之间的映射关系G2;图像合成单元,其用于利用映射关系G1和映射关系G2从未经衰减校正PET图像生成合成PET/CT图像。在本发明所提供的系统中,各模块可以采用处理器或逻辑电路实现。
需说明的是,本发明除应用于替代现有的PET/CT系统,经适当修改后,也可应用于PET/MRI系统。
综上所述,本发明利用改进的深度沃瑟斯坦生成对抗网络(耦合残差网络)分别训练了两套网络,分别学习未经衰减校正的PET图像与经过衰减校正的PET图像,以及经过衰减校正的PET图像与CT图像之间的端到端的非线性映射关系,通过结合多种损失函数(如图像梯度损失,内容损失等)限制输出,有效地减少了采用生成对抗网络生成图像的失真问题,并且很大程度上保留了图像的细节信息(如边缘等),从而激励网络生成高质量的图像。本发明不仅实现了PET图像的自衰减校正,并且生成的CT图像还可以为诊断的PET成像提供更精确的解剖定位。
经验证,利用本发明能够获得更清晰的高质量图像,参见图3所示的不同切面上的实验结果比较,其中,(a)是参考的CT图像,(b)是合成的CT图像,(c)是参考的PET图像,(d)是合成的PET图像。
本发明可以是系统、方法和/或计算机程序产品。计算机程序产品可以包括计算机可读存储介质,其上载有用于使处理器实现本发明的各个方面的计算机可读程序指令。
计算机可读存储介质可以是可以保持和存储由指令执行设备使用的指令的有形设备。计算机可读存储介质例如可以是――但不限于――电存储设备、磁存储设备、光存储设备、电磁存储设备、半导体存储设备或者上述的任意合适的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、静态随机存取存储器(SRAM)、便携式压缩盘只读存储器(CD-ROM)、数字多功能盘(DVD)、记忆棒、软盘、机械编码设备、例如其上存储有指令的打孔卡或凹槽内凸起结构、以及上述的任意合适的组合。这里所使用的计算机可读存储介质不被解释为瞬时信号本身,诸如无线电波或者其他自由传播的电磁波、通过波导或其他传输媒介传播的电磁波(例如,通过光纤电缆的光脉冲)、或者通过电线传输的电信号。
这里所描述的计算机可读程序指令可以从计算机可读存储介质下载到各个计算/处理设备,或者通过网络、例如因特网、局域网、广域网和/或无线网下载到外部计算机或外部存储设备。网络可以包括铜传输电缆、光纤传输、无线传输、路由器、防火墙、交换机、网关计算机和/或边缘服务器。每个计算/处理设备中的网络适配卡或者网络接口从网络接收计算机可读程序指令,并转发该计算机可读程序指令,以供存储在各个计算/处理设备中的计算机可读存储介质中。
用于执行本发明操作的计算机程序指令可以是汇编指令、指令集架构(ISA)指令、机器指令、机器相关指令、微代码、固件指令、状态设置数据、或者以一种或多种编程语言的任意组合编写的源代码或目标代码,所述编程语言包括面向对象的编程语言—诸如Smalltalk、C++等,以及常规的过程式编程语言—诸如“C”语言或类似的编程语言。计算机可读程序指令可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络—包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。在一些实施例中,通过利用计算机可读程序指令的状态信息来个性化定制电子电路,例如可编程逻辑电路、现场可编程门阵列(FPGA)或可编程逻辑阵列(PLA),该电子电路可以执行计算机可读程序指令,从而实现本发明的各个方面。
这里参照根据本发明实施例的方法、装置(系统)和计算机程序产品的流程图和/或框图描述了本发明的各个方面。应当理解,流程图和/或框图的每个方框以及流程图和/或框图中各方框的组合,都可以由计算机可读程序指令实现。
这些计算机可读程序指令可以提供给通用计算机、专用计算机或其它可编程数据处理装置的处理器,从而生产出一种机器,使得这些指令在通过计算机或其它可编程数据处理装置的处理器执行时,产生了实现流程图和/或框图中的一个或多个方框中规定的功能/动作的装置。也可以把这些计算机可读程序指令存储在计算机可读存储介质中,这些指令使得计算机、可编程数据处理装置和/或其他设备以特定方式工作,从而,存储有指令的计算机可读介质则包括一个制造品,其包括实现流程图和/或框图中的一个或多个方框中规定的功能/动作的各个方面的指令。
也可以把计算机可读程序指令加载到计算机、其它可编程数据处理装置、或其它设备上,使得在计算机、其它可编程数据处理装置或其它设备上执行一系列操作步骤,以产生计算机实现的过程,从而使得在计算机、其它可编程数据处理装置、或其它设备上执行的指令实现流程图和/或框图中的一个或多个方框中规定的功能/动作。
附图中的流程图和框图显示了根据本发明的多个实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或指令的一部分,所述模块、程序段或指令的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。在有些作为替换的实现中,方框中所标注的功能也可以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。对于本领域技术人员来说公知的是,通过硬件方式实现、通过软件方式实现以及通过软件和硬件结合的方式实现都是等价的。
以上已经描述了本发明的各实施例,上述说明是示例性的,并非穷尽性的,并且也不限于所披露的各实施例。在不偏离所说明的各实施例的范围和精神的情况下,对于本技术领域的普通技术人员来说许多修改和变更都是显而易见的。本文中所用术语的选择,旨在最好地解释各实施例的原理、实际应用或对市场中的技术改进,或者使本技术领域的其它普通技术人员能理解本文披露的各实施例。本发明的范围由所附权利要求来限定。
Claims (10)
1.一种基于非衰减校正PET图像生成合成PET-CT图像的方法,包括以下步骤:
构建包含第一生成器和第一鉴别器的第一生成对抗网络并构建包含第二生成器和第二鉴别器的第二生成对抗网络;
以非衰减校正PET图像作为所述第一生成器的输入进行特征提取,获得合成的衰减校正PET图像,并以该合成的衰减校正PET图像作为所述第一鉴别器的输入,以经衰减校正的PET图像作为所述第一鉴别器的参考图像进行训练,获得未经衰减校正的PET图像与经衰减校正的PET图像之间的映射关系G1;
以所述经衰减校正的PET图像作为所述第二生成器的输入进行特征提取,获得合成的CT图像,并以该合成的CT图像作为所述第二鉴别器的输入,以经训练的CT图像作为所述第二鉴别器的参考图像进行训练,获得经衰减校正的PET图像与CT图像之间的映射关系G2;
利用映射关系G1和映射关系G2从未经衰减校正PET图像生成合成PET/CT图像。
2.根据权利要求1所述的方法,其中,所述第一生成对抗网络和所述第二生成对抗网络具有相同或不同的网络结构。
3.根据权利要求1所述的方法,其中,所述第一生成器和所述第二生成器具有相同的网络结构,依次包括多个卷积层和池化层、多个残差块、与所述多个卷积层对应的多个解卷积层,卷积层与对应的解卷积层采用跳连接。
4.根据权利要求1所述的方法,其中,所述第一鉴别器和所述第二鉴别器采用全连接神经网络来判断输入图像来自对应生成器的输出或是来自参考图像。
5.根据权利要求4所述的方法,其中,所述第一鉴别器和所述第二鉴别器基于距离比较来自对应生成器的输出图像和参考图像之间的分布相似度。
7.根据权利要求6所述的方法,其中,在训练过程中,总的目标函数设置为包括对抗损失项和均方误差损失项、图像梯度损失项、多尺度内容损失项、结构相似度损失项中的一种或多种。
9.一种基于非衰减校正PET图像生成合成PET-CT图像的系统,包括:
网络模型构建单元:用于构建包含第一生成器和第一鉴别器的第一生成对抗网络并构建包含第二生成器和第二鉴别器的第二生成对抗网络;
第一训练单元:用于以非衰减校正PET图像作为所述第一生成器的输入进行特征提取,获得合成的衰减校正PET图像,并以该合成的衰减校正PET图像作为所述第一鉴别器的输入,以经衰减校正的PET图像作为所述第一鉴别器的参考图像进行训练,获得未经衰减校正的PET图像与经衰减校正的PET图像之间的映射关系G1;
第二训练单元:用于以所述经衰减校正的PET图像作为所述第二生成器的输入进行特征提取,获得合成的CT图像,并以该合成的CT图像作为所述第二鉴别器的输入,以经训练的CT图像作为所述第二鉴别器的参考图像进行训练,获得经衰减校正的PET图像与CT图像之间的映射关系G2;
图像合成单元:用于利用映射关系G1和映射关系G2从未经衰减校正PET图像生成合成PET/CT图像。
10.一种计算机可读存储介质,其上存储有计算机程序,其中,该程序被处理器执行时实现根据权利要求1至8中任一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010084751.1A CN111340903B (zh) | 2020-02-10 | 2020-02-10 | 基于非衰减校正pet图像生成合成pet-ct图像的方法和系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010084751.1A CN111340903B (zh) | 2020-02-10 | 2020-02-10 | 基于非衰减校正pet图像生成合成pet-ct图像的方法和系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111340903A true CN111340903A (zh) | 2020-06-26 |
CN111340903B CN111340903B (zh) | 2023-04-25 |
Family
ID=71185358
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010084751.1A Active CN111340903B (zh) | 2020-02-10 | 2020-02-10 | 基于非衰减校正pet图像生成合成pet-ct图像的方法和系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111340903B (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112419173A (zh) * | 2020-11-04 | 2021-02-26 | 深圳先进技术研究院 | 一种由pet图像生成ct图像的深度学习框架和方法 |
CN112509093A (zh) * | 2020-12-17 | 2021-03-16 | 深圳高性能医疗器械国家研究院有限公司 | 一种图像衰减校正方法及其应用 |
CN112508928A (zh) * | 2020-12-17 | 2021-03-16 | 深圳高性能医疗器械国家研究院有限公司 | 一种图像合成方法及其应用 |
WO2022094779A1 (zh) * | 2020-11-04 | 2022-05-12 | 深圳先进技术研究院 | 一种由pet图像生成ct图像的深度学习框架和方法 |
WO2022120731A1 (zh) * | 2020-12-10 | 2022-06-16 | 深圳先进技术研究院 | 基于循环生成对抗网络的mri-pet图像模态转换方法及系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180300907A1 (en) * | 2017-04-14 | 2018-10-18 | Siemens Medical Solutions Usa, Inc. | Network training and architecture for medical imaging |
CN109697741A (zh) * | 2018-12-28 | 2019-04-30 | 上海联影智能医疗科技有限公司 | 一种pet图像重建方法、装置、设备及介质 |
CN110021037A (zh) * | 2019-04-17 | 2019-07-16 | 南昌航空大学 | 一种基于生成对抗网络的图像非刚性配准方法及系统 |
-
2020
- 2020-02-10 CN CN202010084751.1A patent/CN111340903B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180300907A1 (en) * | 2017-04-14 | 2018-10-18 | Siemens Medical Solutions Usa, Inc. | Network training and architecture for medical imaging |
CN109697741A (zh) * | 2018-12-28 | 2019-04-30 | 上海联影智能医疗科技有限公司 | 一种pet图像重建方法、装置、设备及介质 |
CN110021037A (zh) * | 2019-04-17 | 2019-07-16 | 南昌航空大学 | 一种基于生成对抗网络的图像非刚性配准方法及系统 |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112419173A (zh) * | 2020-11-04 | 2021-02-26 | 深圳先进技术研究院 | 一种由pet图像生成ct图像的深度学习框架和方法 |
WO2022094779A1 (zh) * | 2020-11-04 | 2022-05-12 | 深圳先进技术研究院 | 一种由pet图像生成ct图像的深度学习框架和方法 |
CN112419173B (zh) * | 2020-11-04 | 2024-07-09 | 深圳先进技术研究院 | 一种由pet图像生成ct图像的深度学习框架和方法 |
WO2022120731A1 (zh) * | 2020-12-10 | 2022-06-16 | 深圳先进技术研究院 | 基于循环生成对抗网络的mri-pet图像模态转换方法及系统 |
CN112509093A (zh) * | 2020-12-17 | 2021-03-16 | 深圳高性能医疗器械国家研究院有限公司 | 一种图像衰减校正方法及其应用 |
CN112508928A (zh) * | 2020-12-17 | 2021-03-16 | 深圳高性能医疗器械国家研究院有限公司 | 一种图像合成方法及其应用 |
Also Published As
Publication number | Publication date |
---|---|
CN111340903B (zh) | 2023-04-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Armanious et al. | Unsupervised medical image translation using cycle-MedGAN | |
Wang et al. | 3D auto-context-based locality adaptive multi-modality GANs for PET synthesis | |
Emami et al. | Generating synthetic CTs from magnetic resonance images using generative adversarial networks | |
US10964071B2 (en) | Systems and methods for data and model-driven image reconstruction and enhancement | |
CN110809782B (zh) | 衰减校正系统和方法 | |
CN111340903B (zh) | 基于非衰减校正pet图像生成合成pet-ct图像的方法和系统 | |
Chun et al. | MRI super‐resolution reconstruction for MRI‐guided adaptive radiotherapy using cascaded deep learning: In the presence of limited training data and unknown translation model | |
EP3338636B1 (en) | An apparatus and associated method for imaging | |
Fei et al. | Deep learning‐based multi‐modal computing with feature disentanglement for MRI image synthesis | |
CN109215014B (zh) | Ct图像预测模型的训练方法、装置、设备及存储介质 | |
Chen et al. | Deep learning based unpaired image-to-image translation applications for medical physics: a systematic review | |
CN112819914A (zh) | 一种pet图像处理方法 | |
Amirkolaee et al. | Development of a GAN architecture based on integrating global and local information for paired and unpaired medical image translation | |
CN108038840B (zh) | 一种图像处理方法、装置、图像处理设备及存储介质 | |
Yin et al. | Unpaired low-dose CT denoising via an improved cycle-consistent adversarial network with attention ensemble | |
Chan et al. | An attention-based deep convolutional neural network for ultra-sparse-view CT reconstruction | |
Poonkodi et al. | 3D-MedTranCSGAN: 3D medical image transformation using CSGAN | |
Lee et al. | Study on Optimal Generative Network for Synthesizing Brain Tumor‐Segmented MR Images | |
KR20200025598A (ko) | 가중 최소 자승 필터와 희소 표현을 이용한 영상 융합 장치 및 방법 | |
Li et al. | 4× Super‐resolution of unsupervised CT images based on GAN | |
Mangalagiri et al. | Toward generating synthetic CT volumes using a 3D-conditional generative adversarial network | |
Zhou et al. | Limited view tomographic reconstruction using a deep recurrent framework with residual dense spatial-channel attention network and sinogram consistency | |
Amirkolaee et al. | Medical image translation using an edge-guided generative adversarial network with global-to-local feature fusion | |
CN112488952B (zh) | Pet图像的重建方法及重建终端、计算机可读存储介质 | |
Lei et al. | Generative adversarial network for image synthesis |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |