一种基于深度学习的动态场景视觉SLAM方法

AITNT
正文
推荐专利
一种基于深度学习的动态场景视觉SLAM方法
申请号:CN202511040547
申请日期:2025-07-28
公开号:CN120953367A
公开日期:2025-11-14
类型:发明专利
摘要
本发明公开了一种基于深度学习的动态场景视觉SLAM方法,包括以下步骤:获取原始场景图像,并提取图像场景中的ORB特征点;基于改进的目标检测网络,对原始场景图像进行动态目标检测,得到图像场景中的动态目标框;采用关键帧同步机制关联所述动态目标框和ORB特征点,剔除所述动态目标框对应的ORB特征点;得到一次剔除后的特征场景图像;采用对极几何约束对相邻的特征场景图像中不匹配的ORB特征点进行二次剔除,得到静态特征场景图像;并基于所述静态特征场景图像对应的ORB特征点进行位姿估计和/或地图构建。本发明通过改进目标检测网络进行动态目标的动态特征点提取,又采用对极几何约束二次剔除动态特征点,提高定位精度有助于进行准确的地图构建。
技术关键词
视觉SLAM方法 可变形卷积网络 特征点 动态场景 图像 静态特征 关键帧 FAST算法 注意力机制 多尺度特征提取 误匹配点 地图 输入端 检测头 特征值
添加客服微信openai178,进AITNT官方交流群
驱动智慧未来:提供一站式AI转型解决方案
沪ICP备2023015588号