摘要
本发明涉及一种基于视觉场景理解的机器人未知环境建图方法,包括:获取多目视觉图像,并基于所述多目视觉图像生成深度图;基于所述多目视觉图像并利用视觉定位系统确定无人系统的位姿;采用语义分割模型对所述多目视觉图像进行语义分割;根据语义分割结果和深度图构建三维语义地图,并结合无人系统的位姿拼接连续帧的三维语义地图,并在语义信息的引导下构建出三维场景关联拓扑图;构建融合探索成本代价函数,并对所述融合探索成本代价函数进行求解,得到下一最优视点;根据语义分割结果生成障碍物分割地图,基于所述下一最优视点和障碍物分割地图进行局部路径规划。本发明实现了高效的未知环境自主探索。
技术关键词
三维语义地图
建图方法
多目
图像生成深度图
语义分割模型
视觉定位系统
机器人
场景
障碍物
局部路径规划
拓扑图
网络剪枝方法
视觉传感器
局部视觉特征
系统为您推荐了相关专利信息
信道预测方法
三角网格模型
点云图像
图像特征点
语义分割模型
铁路有砟道床
脏污
语义分割模型
非易失性存储介质
铁路道床
腹部CT图像
语义分割模型训练
三维重建系统
模块
训练集
视角
深度神经网络
语义分割模型
头部姿态估计
人脸关键点
地表覆盖分类方法
噪声标签
更新模型参数
分类器训练
影像