摘要
本发明提出了一种融合语义信息的无监督多视图立体重建方法,主要解决复杂场景下部分区域三维重建质量较低的技术问题;包括:1)输入多视角图像和相机参数;2)通过特征金字塔网络FPN提取输入图像的多尺度特征;3)利用多尺度特征进行由粗到细的多阶段深度估计;4)计算数据增强分支的初始深度图;5)使用预训练模型SAM计算参考图的语义分割图;6)融合多源信息优化初始深度图,生成最终的精细化深度图;7)将精细化深度图转换为点云模型,得到重建结果。本发明利用场景的语义信息辅助深度估计,能够在相同语义区域内生成连续一致的深度估计,同时在语义边界处保持深度的突变,有效提升了物体边界等关键区域的重建质量。
技术关键词
深度图
立体重建方法
融合语义信息
融合多源信息
特征金字塔网络
阶段
图像增强
预训练模型
相机
多视角
三维点云数据
分支
多尺度特征
对比度
随机噪声
图像像素
系统为您推荐了相关专利信息
智能控制方法
特征描述符
残差网络模型
关节驱动器
矩阵
特征融合网络
实例分割方法
深度图
建筑屋顶
三维模型
区域位置信息
实时图像
电子围栏生成方法
定位策略
婴幼儿床
Direct3D技术
衣服
照片
人体模型
物理模拟技术
粘附载玻片
高分辨率成像
多分辨率
粗糙度
专用动态