摘要
本申请涉及情绪识别技术领域,提供一种基于情绪识别的AI数字人交互方法和系统,用以解决现有技术中人机交互中的情感共鸣真实性差与场景适应能力差的问题。本申请包括:在沉浸式虚拟社交场景中,通过采集用户前额叶皮层的多通道电生理信号,结合情绪标签数据集生成多维情绪向量,利用并行处理通道同步解析信号的时间动态特性与头皮空间拓扑关系,提取跨模态情感语义特征。基于该特征与虚拟角色行为库的映射关系,生成适配当前社交场景的情感共鸣交互策略,最终驱动AI数字人的面部表情、肢体动作及语音韵律,形成与用户情绪实时同步的动态反馈回路。本申请提升了人机交互中的情感共鸣真实性与场景适应能力。
技术关键词
空间拓扑关系
语义特征
人交互方法
跨模态
动态
面部微表情
层级
策略
社交
多通道
幅值
信号
模式匹配
场景
序列
电极
生成参数
情绪识别技术
存储组件
系统为您推荐了相关专利信息
语言生成方法
语音特征数据
动态上下文
动态调整机制
情感类别
动态校正方法
基准
高精度接收机
整周模糊度
多传感器融合算法