摘要
本申请提出一种基于目的视角生成的Diffusion动作预测方法、装置及电子设备,其中,基于目的视角生成的Diffusion动作预测方法包括:获取多个初始视角中各初始视角对应的第一图像;采用多视角生成神经网络模型对各初始视角对应的第一图像进行场景重建,获取三维场景信息;采用多视角生成神经网络模型对三维场景信息进行均匀采样并计算采样点集合中各采样点的多视点图像特征;根据各采样点的多视点图像特征,采用多视角生成神经网络模型生成目的视角对应的第二图像;采用扩散策略Diffusion Policy和第二图像对机器人进行动作预测,确定机器人的具身智能的动作,解决了减少对摄像装置的视角限制,提高机器人动作预测的便利性且可以提高机器人与环境交互的准确性的问题。
技术关键词
生成神经网络模型
三维场景信息
多视角
动作预测方法
训练样本图像
机器人
变换器结构
图像特征提取
摄像装置
图像获取单元
动作预测装置
采样点
视觉
参数
电子设备
系统为您推荐了相关专利信息
三维环境模型
一体化方法
多视角三维重建
代表
矩阵
评估管理方法
图谱
管理策略
多源时空数据
轨道交通数据