摘要
本发明公开了一种基于深度学习的机器人姿态估计方法,该方法解决标注真实世界图像中姿态注释劳动密集与虚拟的训练域与真实域之间的差异矛盾的问题。本发明提出一种无监督学习范式,包括四部分;首先基于渲染的机器人位姿估计,将当前状态估计的渲染图与真实图一起预测位姿的更新;然后机器人关键点检测,将真实图像输入到编码器‑解码器的网络结构中,预测置信度图;再是将位姿估计的投影关键点与检测到的关键点转化为分布的形势,构建基于散度的目标函数;最后用基于采样的积分来逼近散度目标函数。这一综合设计使无监督学习能够稳定地增强网络。
技术关键词
关键点
姿态估计方法
机器人位姿
深度卷积神经网络
编码器
像素
解码器结构
参数化设计方法
热力图
真实世界图像
观测机器人
卷积模块
机器人模型
机械臂
训练神经网络