摘要
本发明公开了一种基于transformer融合openpose的舞蹈动作关键点捕捉方法,包括:1)获取舞蹈视频帧:实时采集舞蹈动作视频,并逐帧分解,得到舞蹈视频帧;2)初始化OpenPose:配置并启动OpenPose,处理舞蹈视频帧,提取人体关键点和手部关键点;3)Transformer模型集成与参数优化:将OpenPose提取的关键点输入预训练的Transformer模型进行预测和参数调整,并基于Transformer的输出,动态调整OpenPose的卷积层以及学习率、注意力机制的头数以及视频帧的旋转角度,以优化关键点提取;4)关键点模糊处理:使用模糊算法对Transformer的输出进行处理,以减小噪声和预测误差,输出平滑的关键点数据。本发明方法通过结合Transformer模型的强大预测能力和OpenPose的灵活性,显著提高了舞蹈动作捕捉的准确性和实时性能,具有广泛的应用前景。
技术关键词
动态位置编码
捕捉方法
人体关键点
手部关键点
模糊算法
视频帧
多头注意力机制
多级卷积神经网络
参数
预测误差
序列数据处理
融合策略
视频采集设备
矩阵
肢体结构