摘要
本发明属于立体视觉技术领域,公开一种基于自适应结构光的深度估计方法。采集关闭投影仪场景下相机视角RGB图像,经半全局匹配算法获取相机视角粗视差图,投影变换生成投影仪视角RGB图像及投影仪视角粗视差图,输入至自适应结构光生成模块,生成自适应结构光投射图案;自适应结构光投射图案经物理感知可微分成像模块生成相机视角结构光图像;视差注意力深度估计模块接收相机视角RGB图像与相机视角结构光图像,输出深度估计结果;以深度误差为损失函数,联合训练优化自适应结构光生成模块与视差注意力深度估计模块,优化后进行深度估计。本发明根据场景的实时信息动态生成最优结构光模式,解决传统固定模式结构光无法适应场景变化的问题。
技术关键词
深度估计方法
结构光图像
投影仪
视角
注意力
子模块
双目相机
主动立体视觉
仿真模型
成像模块
结构光编码
结构光图案
光学系统
场景
立体视觉技术
系统为您推荐了相关专利信息
多模态特征
捕捉方法
视觉特征
捕捉系统
图像特征提取
动作识别方法
样本
原型
动作识别模型
视频编码器
注意力机制
人工智能芯片
计算机设备
计算机程序产品
可读存储介质
意图类别
参数
自然语言
深度学习神经网络
生成方法