摘要
本发明提出一种一种全身PET与CT图像相互转换的人工智能方法,使用增强型条件生成对抗网络(cGAN)模型实现了全身CT与PET图像之间的模态转换。该方法结合了残差卷积块和全卷积Transformer块,以提高模型捕捉局部特征和全局上下文信息的能力。本申请设计了一个定制的损失函数,结合结构一致性损失,能够提升生成图像的整体质量。在CT‑>PET和PET‑>CT两个模态转换任务上进行了大量实验,结果表明,本申请的模型能够生成高质量的图像,在临床相关性和诊断价值方面均接近原始图像。本发明所提出的结合Transformer的cGAN框架能够减少多模态图像检查的需求,从而降低患者的辐射暴露剂量和整体医疗成本,为PET‑CT多模态图像转换的临床应用奠定了坚实的基础。
技术关键词
人工智能方法
条件生成对抗网络
图像空间分辨率
全局结构信息
CT图像数据
特征提取模块
解码器
像素
编码器
采样模块
两阶段
图像块
瓶颈
多模态
多尺度
训练集
通道
注意力
系统为您推荐了相关专利信息
融合外部知识
句法结构
多通道
语义
BiLSTM模型
低代码平台
生成参数
文本生成模型
生成测试数据
机器可读程序
装配偏差
薄壁结构
多模态数据融合
条件生成对抗网络
记忆神经网络
数据重建方法
数据重建系统
序列
移动平均算法
掩码矩阵