摘要
本发明提供了一种基于多模态数据融合的机器人动态抓取方法和系统,包括:通过机器人对采集的待抓取动态物体的视觉数据和触觉数据进行多模态融合,得到多模态融合数据;根据多模态融合数据,利用基于区域提议的目标检测算法对待抓取动态物体进行目标识别,得到位置姿态信息;基于位置姿态信息,对待抓取动态物体进行状态预测,得到状态预测信息;根据状态预测信息,利用强化学习算法,生成机器人的抓取路径;本申请通过对采集到的视觉数据和触觉数据进行多模态融合,能够使得机器人获得全面的环境信息,增加机器人对环境变化的适应能力;通过对待抓取物体的状态进行预测,使得机器人能够预判物体的运动轨迹,有利于提高机器人的抓取成功率。
技术关键词
动态物体
多模态数据融合
运动轨迹预测
长短期记忆网络
触觉特征
条件随机场
视觉特征
设备可读存储介质
深度确定性策略梯度
一维卷积神经网络
深度强化学习算法
路径生成算法
机器人对环境
系统为您推荐了相关专利信息
故障定位模型
配网架空线路故障
深度学习模型
定位方法
计算机执行指令
业务量预测
客户识别方法
层次分析算法
长短期记忆网络
层次结构模型
慢性肾脏病患者
对象
状态评估系统
样本
强化学习模型
决策
估计方法
长短期记忆网络
眼动数据
加权损失函数
油色谱数据
数据清洗方法
数据清洗系统
周期性异常检测
序列