摘要
本发明公开了一种基于情绪识别的AI数字人交互方法及系统,具体涉及人工智能和情绪识别技术领域;通过多模态情绪识别技术整合语音和面部表情特征,将情绪特征划分为低层次和高层次特征;分析不同层次的情绪特征,确定每个层次的权重,并通过加权平均计算用户的综合情绪识别准确性系数,结合用户在互动过程中对系统情绪识别结果的实时反馈及生理信号数据,评估用户的情绪变化稳定性;基于综合情绪识别准确性系数和情绪稳定性,使用模糊逻辑动态调整数字人的互动策略,能够更准确地识别复杂情绪,减少情绪识别混淆和错误反馈的情况,提供更加敏感和个性化的响应,提高用户的互动体验,增强用户对数字人的信任和使用意愿。
技术关键词
情绪特征
人交互方法
多模态情绪
面部表情特征
高层次
机器学习模型
模糊逻辑
决策树模型
计算机视觉技术
模糊规则
语音识别技术
数据
策略
表达式
情绪识别技术
情绪识别系统
频谱特征
系统为您推荐了相关专利信息
多尺度特征融合
三维重建算法
深度图
特征提取网络
预测特征
智慧健康养老
面部表情特征
皮肤纹理特征
监测系统
监测模块
多模态情绪
情绪特征
数据
情绪识别模型
分布式麦克风阵列
调度优化方法
启发式算法
工位
粒子群算法优化
三角模糊数