摘要
本发明涉及一种基于端到端学习的无人机动态目标跟踪方法,包括以下步骤内容:采集多模态输入数据,包括视觉图像、IMU运动信息及环境传感器数据;通过双流卷积神经网络提取视觉与运动特征;利用图注意力网络融合多模态特征,建模无人机‑目标‑环境的空间关系;基于深度强化学习策略生成无人机跟踪轨迹,并优化飞行控制指令;结合动态窗口法实时避障,调整飞行路径该方法。通过多模态特征融合、图注意力网络与深度强化学习技术,实现无人机在复杂动态环境下的高精度、低延迟、实时的目标跟踪,该方法在复杂环境下成功跟踪率达92.5%,支持嵌入式设备实时部署,并具备多目标协同处理能力,适用于安防监控、灾害救援、物流配送及影视拍摄等场景。
技术关键词
跟踪方法
双流卷积神经网络
融合多模态特征
环境传感器数据
强化学习策略
多头注意力机制
动态窗口法
生成无人机
深度强化学习技术
无人机飞控系统
决策控制模块
多模态特征融合
运动特征
跟踪系统
多模态传感器
PID控制器
系统为您推荐了相关专利信息
移动机械臂
自动跟踪方法
移动底盘
视觉传感器
六自由度机械臂
移动机器人
激光雷达
视觉传感器
融合特征
定位系统
驾驶环境信息
跟踪方法
场景
对象标识符
视觉图像信息