摘要
本发明公开了基于场景信息驱动的雷达‑视觉自适应融合感知方法,包括基于时空配准结果实现雷达检测目标集合和视觉检测目标集合的关联;获取场景特征表征,包括道路特征和局部环境特征;设计权重生成网络,将场景特征映射为动态融合权重;构建增强特征向量,分别用于目标的位置回归任务和类别分类任务;设计多任务损失函数,联合优化位置回归任务和类别分类任务,实现检测结果的自适应融合。本发明通过引入场景信息指导融合决策,实现复杂环境下多源传感器信息的动态优化融合,有效提升了路侧交通感知系统在不同天气和光照条件下的检测性能和环境适应能力。
技术关键词
雷达
多任务损失函数
视觉
道路特征
场景特征
分类器参数
特征提取网络
道路两侧边缘
坐标系
采样点
匈牙利算法
检测点
感知系统
路沿
注意力
定义
系统为您推荐了相关专利信息
大语言模型
维修指导方法
文本
家用电器故障
音频匹配
全寿命周期管理
卷积神经网络模型
格式
二维码结构
解析二维码
末端执行器
摩擦系数信息
手术机器人系统
图像灰度信息
力学
像素
标签
训练卷积神经网络
铜箔表面
缺陷检测方法