摘要
本发明公开一种基于相位引导Transformer‑CNN双路径融合的深度图预测方法和装置,包括:获取待处理的条纹图像;通过傅里叶模型对所述条纹图像提取关于相位信息的频率特征,并利用Transformer模型获取长距离和全局频率特征;利用CNN模型从所述条纹图像中提取细节特征;对所述长距离和全局频率特征以及所述细节特征进行交叉融合,并进行多尺度特征增强得到所述条纹图像的深度图。PG‑FTCNet能有效预测复杂表面上的相位信息,同时显著提高深度图预测的精度。该方法以条纹投影轮廓术中的单张条纹图像为输入,同时实现相位展开和深度图预测,在提升结果可解释性的同时,保留了高效的端到端计算模式,为FPP的三维重建任务提供了一种可靠且实用的解决方案。
技术关键词
深度图预测方法
多尺度特征
频率
图像重建
前馈神经网络
分支
预测装置
编码器
解码器
条纹投影
上采样
数据
分辨率
关系
批量
系统为您推荐了相关专利信息
中央空调冷水机组
大语言模型
负荷
冷水机组运行状态
序列
平板学习机
隐马尔可夫模型
节点
梯度提升决策树
平均停留时间
电力设备
设备状态数据
历史设备
设备运行参数
设备状态预测