摘要
本发明公开了一种基于法向引导的RGB‑D场景重建方法,针对输入的RGB图像、深度图、相机姿态等数据,重建出对应的三维场景网格模型。首先,选取公共数据集中某一场景,提取RGB图像及其对应的深度图像、相机姿态矩阵,根据RGB图像估计法向图;接着,将数据输入到深度学习网络中进行处理,得到预测的符号距离值、颜色值、深度值、法向值,与真值进行损失计算;之后,通过训练最小化损失函数,优化全局网络;最后,从训练好的截断符号距离函数中提取网格。与现有方法相比,我们的方法更聚焦于处理如何准确重建室内场景弱纹理区域的问题。该方法在虚拟现实、增强现实、电影动画等领域具有广泛应用前景。
技术关键词
场景重建方法
深度图
符号
射线
相机
网格模型
弱纹理区域
图像
深度学习网络
深度值
优化场景
多层感知器
颜色
像素点
矩阵
估计方法
坐标系
数据
系统为您推荐了相关专利信息
生态土壤修复
定向调控方法
移栽机器人
毛竹
智能作业终端
LED固晶机
摆臂组件
PCB板
芯片模块
相机调节机构
嵌入式控制单元
光谱分析
融合算法
高光谱成像仪
高光谱技术