摘要
本发明公开了一种基于情感驱动的多乐器分离协同音乐生成方法,其特点是该方法具体包括:1)利用预训练模型的音源分离和情感标注、2)利用变分自编码器的多潜在空间表示、3)利用交叉注意力的潜在空间融合、4)利用扩散模型的音乐生成等步骤。本发明与现有技术相比具有强化生成音乐时情感的表达使音乐更具有感情色彩,利用分离音频,对于每个乐器都进行精准的情感控制,采用时序情感使得音乐情感更具有动态、多变性,最终实现高效情感传递,方法简便,效果好,具有良好的应用前景。
技术关键词
乐器
音乐生成方法
音频
预训练模型
注意力
短时傅里叶变换
编码器
贝斯
吉他
参数
动态
键值
时序
色彩
文本
标签
矩阵
强度
系统为您推荐了相关专利信息
自助设备
信息保护方法
双通道神经网络
特征提取模型
风险
机器学习算法
动态玉米
贝叶斯概率融合
双向数据通道
生长环境参数