摘要
本发明公开的一种应用于机械臂的多视图表征融合方法,属于强化学习的技术领域。本发明实现方法为:1、捕获并形成观测图像;2、构建机械臂多视图融合模型,将原始多视图表征引入状态表征和位置编码形成多视图位置状态表征;将多视图位置状态表征通过多头自注意力融合层形成状态嵌入,并利用双模拟度量及掩码和重建损失对多视图表征融合进行优化;3、利用联合优化目标对机械臂多视图融合模型进行训练;4、将多视图集输入至已训练的机械臂多视图融合模型,输出多视图融合表征;将多视图融合表征用于机械臂任务控制;与现有技术相比,本发明在视图缺失、噪声干扰场景下,增强机械臂多视图表征的融合能力,提升了强化学习在机械臂任务执行效率。
技术关键词
融合方法
卷积编码器
注意力
机械臂
度量
图像
多层感知机
模块
视角
序列
重构
像素
噪声
场景
通道
参数
系统为您推荐了相关专利信息
机器人智能导航
环境图像数据
障碍物
轮式编码器
融合特征
双编码器
问答方法
交叉注意力机制
多层感知机
大语言模型