摘要
本发明涉及一种基于多目视觉场景理解的无人系统自主探索方法,该方法融合可见光和红外图像优势,提高了无人系统在恶劣天气、光照变化及通信受限场景下的适应能力。通过多模态图像融合、轻量级目标检测和基于深度阈值的背景滤除实现类像素级的语义分割,精确估算感兴趣目标位姿。利用体素地图和目标检测结果构建探索边界,并基于此实现兼顾探索空间和场景理解的探索决策,引导无人系统执行自主探索任务。本发明为复杂任务场景下的视觉定位与场景感知提供了有力支撑,显著提升无人系统的鲁棒性与环境适应能力,适用于野外救援、隧道巡检及矿洞勘察等复杂任务场景。
技术关键词
自主探索方法
多目
感兴趣
场景
可见光图像
视觉
全局路径规划
坐标系
语义
里程计
K均值聚类算法
主成分分析方法
相机
地图
网络
三维点云数据
物体
深度值
系统控制器
系统为您推荐了相关专利信息
集群
节点状态预测
训练样本数据
深度强化学习模型
负载调度方法
测试用例选取方法
测试场景
测试用例库
标签
指标
图像增强模块
训练样本图像
边缘密度特征
场景
非瞬时性计算机可读存储介质