摘要
本申请实施例涉及多模态情绪计算与音乐生成干预技术领域,公开了一种基于人在回路的音乐情绪干预方法。该方法基于面部表情、语音及生理信号等多模态手段获取用户当前情绪状态;运用GPT‑2模型对用户意图及情感目标进行音乐理论富集,提取初始和弦与节奏条件;将所述符号化条件可视化呈现,由用户或专家进行校正,产生最终干预参数;采用时序对齐的特征融合与扩散/流匹配生成框架,融合文本语义、情感向量及校正后符号条件,合成个性化音乐片段;收集用户主观评分与多模态情感反馈,迭代优化融合策略直至满足预设效果。可以至少用以解决现有音乐情绪干预方法中缺乏人机交互调节机制、干预个性化不足、生成稳定性低及难以自适应优化的问题。
技术关键词
干预方法
音乐
情感反馈
生成框架
综合误差
符号
回路
情感特征
面部动作单元
卷积神经网络提取
语音特征
校正
多模态情绪
生理
语义
意图
注意力
进程
系统为您推荐了相关专利信息
超表面设计方法
综合误差
多模态
生成结构
拉丁超立方采样
联动操作系统
动态补偿控制
数控机床
人机交互智能
联动轴
预警定位方法
电池热失控
待测电池
时间差
粒子滤波算法
风险评估工具
心血管风险评估
心血管健康
医疗信息系统
干预方法