摘要
本发明公开了一种基于多视角与半监督学习的手势姿态估计方法,属于人机交互技术领域,其通过多个视角来采集手势图像,构建无标签数据集,再对少量手势姿态数据进行标注,形成有手部关键点的标签数据集,之后从多个视角中随机选择一个作为输入,通过神经网络构建的编码器形成隐编码,将该隐编码通过一个解码器映射为另一个视角的手势图像,实现不同视角的一致性约束,将该隐编码通过一个投影变换器映射为2D关键点坐标,并让其逼近标签基准值,实现有监督的学习约束,在上述两种约束机制共同作用下,随机输入多视角无标签样本或少量有标签样本进行训练,在实际应用中,只需要将手势图像输入编码器,即可生成手势姿态的3D关键点坐标估计。
技术关键词
姿态估计方法
手势
多视角
半监督学习模型
编码器
手部关键点
无监督学习
解码器
无标签样本
人机交互技术
图像
无标签数据
坐标