摘要
本发明公开了一种基于图像识别技术的古典音乐多人交互体验方法,属于音乐交互体验领域,包括以下步骤:S1、获取乐器演奏动作;S2、生成舞蹈动作,并搜索舞蹈动作与演奏动作的最佳组合;S3、生成虚拟场景模型;S4、对舞蹈动作与演奏动作的最佳组合和虚拟场景模型进行多模态融合,生成三维模型,并将三维模型存入数据库;S5、利用摄像头捕捉用户舞蹈动作,并输入ResNet50模型生成人体骨骼模型,将生成的人体骨骼模型与三维模型中存储的标准骨骼进行匹配和整合,实现互动体验。本发明采用上述基于图像识别技术的古典音乐多人交互体验方法及系统,可帮助用户更全面地认识并直观接触古典音乐文化,提高模型的分类准确率,为用户提供更良好的视听体验。
技术关键词
多人交互
体验方法
图像识别技术
人体骨骼模型
音色特征
梅尔频率倒谱系数
人体骨骼关键点
生成三维模型
短时傅里叶变换
长短期记忆网络
视频特征向量
数据
关键点特征
多模态
音频
生成对抗网络
系统为您推荐了相关专利信息
交互式学习
文本识别
语音控制指令
综合文字
图像识别技术
虚拟三维模型
平台系统
虚拟购物车
消费品
虚拟三维场景
生态环境监测系统
林业生态环境
无人机航线规划
强化学习算法
无线传感器网络
智能语音交互方法
发音
声纹识别模型
文本
音色特征