摘要
本申请实施例提供一种基于多维度识别的车载情绪交互方法及装置,通过创新性地构建情绪融合识别模型,通过整合面部表情、语音情感、驾驶行为和生理状态特征,实现驾驶员情绪的精准判断。设计基于场景的自适应交互策略,结合外部环境数据和危险等级,建立交互触发阈值进行智能匹配。引入交互效果评估机制,通过在线学习模块持续优化交互策略模型,实现个性化交互内容的动态调整。该方法有效解决了传统技术在情绪识别、交互策略和效果评估等方面的不足,显著提升了车载情绪交互的智能化水平和用户体验。
技术关键词
情绪交互方法
面部表情特征
交互内容
特征提取模型
生理传感器
策略
车载传感器
模型库
方向盘转角数据
场景
参数
音频控制模块
显示控制模块
情绪交互装置
生成个性化语音
时序
车载终端显示屏