一种基于视触觉融合的机器人抓取位姿优化方法

AITNT
正文
推荐专利
一种基于视触觉融合的机器人抓取位姿优化方法
申请号:CN202510126020
申请日期:2025-01-27
公开号:CN119681901B
公开日期:2025-10-21
类型:发明专利
摘要
本发明提供一种基于视触觉融合的机器人抓取位姿优化方法,属于机器人抓取位姿估计领域。该方法首先基于视觉初始观测分割得到的目标物体稀疏点云预测一个初始抓取位姿,再由机器人规划执行此抓取获取物体表面的触觉数据,通过基于带有物体局部信息的触觉数据补全初始抓取位姿所在区域的目标物体点云信息,最后根据补全后的点云优化初始抓取位姿,以实现更稳定的机器人抓取。
技术关键词
位姿优化方法 触觉传感器 机器人抓取物体 触觉信息 编码器 深度相机数据 机器人运动控制 融合全局特征 点云编码 多层感知机 点云信息 多物体 仿真平台 测试场景
系统为您推荐了相关专利信息
1
一种基于灰度注意力机制的气体运动场视觉计算方法
视觉计算方法 注意力机制 光流模型 运动场 运动矢量数据
2
一种基于大型语言模型的多模态讽刺检测方法
预训练语言模型 文本 多模态 观点 术语
3
一种基于神经网络的轴承故障诊断方法、装置、终端设备及存储介质
轴承故障诊断方法 序列 诊断轴承 解码器 联合损失函数
4
基座模型训练方法、任务执行方法、设备、介质及产品
模型训练方法 初始聚类中心 基座 音乐 标签
5
一种优化电镜图质量的处理方法和装置
电镜 预训练模型 适配器 参数 编码器
添加客服微信openai178,进AITNT官方交流群
驱动智慧未来:提供一站式AI转型解决方案
沪ICP备2023015588号