摘要
本发明提供一种基于视触觉融合的机器人抓取位姿优化方法,属于机器人抓取位姿估计领域。该方法首先基于视觉初始观测分割得到的目标物体稀疏点云预测一个初始抓取位姿,再由机器人规划执行此抓取获取物体表面的触觉数据,通过基于带有物体局部信息的触觉数据补全初始抓取位姿所在区域的目标物体点云信息,最后根据补全后的点云优化初始抓取位姿,以实现更稳定的机器人抓取。
技术关键词
位姿优化方法
触觉传感器
机器人抓取物体
触觉信息
编码器
深度相机数据
机器人运动控制
融合全局特征
点云编码
多层感知机
点云信息
多物体
仿真平台
测试场景
系统为您推荐了相关专利信息
视觉计算方法
注意力机制
光流模型
运动场
运动矢量数据
轴承故障诊断方法
序列
诊断轴承
解码器
联合损失函数