摘要
本发明公开了一种基于双流特征融合的SLAM方法,首先获取视频数据并堆叠组成视频帧时序序列,构建视频背景并提取动态物体特征和静态物体特征;随后通过注意力机制模块分别进行通道和空间注意力加权融合,得到双流特征后传给YOLO头网络输出每一帧中目标的识别框及其属性表,生成动态语义标签;然后使用ORB‑SLAM3系统提取每一帧的ORB特征点;再依据静态ORB特征点求解相机位姿,判断关键帧并构建局部地图;最后进行全局BA操作并进行动态污染清理,还使用g2o图优化方法进一步优化全局地图。本发明能提升在复杂动态场景中的鲁棒性与准确性;还引入注意力机制强化关键动态信息,提升语义地图构建的精度。
技术关键词
ORB特征
视频帧
全局地图
动态物体
关键帧
视频背景
双分支结构
特征点
高斯混合模型
特征提取模型
注意力机制
语义标签
移动平台
动态掩膜
时序
序列
融合多尺度特征
系统为您推荐了相关专利信息
巡检方法
施工场地
直方图均衡化
全局特征提取
无人机自主飞行
语义SLAM方法
高斯分布模型
语义分割网络
语义特征
语义标签