摘要
本发明公开了一种基于多模态情感识别和定制化人像生成的机器人拟人化交互方法,包含以下步骤:步骤S1:多模态情感动态融合;通过多源异构传感器同步采集语音、视觉及文本信号,高保真麦克风阵列捕获用户语音流,提取语调、语速等声学特征,步骤S2:跨模态推理;步骤S3:内容同步生成;步骤S4:风格迁移;步骤S5:拟人化语音和表情生成;本发明利用大语言模型和多模态信息融合对人机交互的情感进行分析和生成,避免了交互情感的单一和共情能力的欠缺,具有强情感交互特性,通过生成式技术获取机器人的形象,并能够迁移至任意形象,打破了特定形象独门独造的局限,实现了一台机器人能适用于不同场景的优势。
技术关键词
视频内容特征
拟人化交互方法
多模态情感识别
个性化头像
面部
高保真麦克风
语音声学特征
风格
文本
视觉
跨模态
控制解码器
机器人
查询特征
大语言模型
编码器
异构传感器
语义向量
多模态信息
系统为您推荐了相关专利信息
指标监测系统
患者
智能光照调节
个性化健康建议
面部表情识别
面部表情识别
巴特沃斯滤波器
记忆单元
游戏参数
个性化学习路径
虚拟教学系统
教学场景
数据处理模块
数据采集模块
注意力
智能控制方法
面部
验证用户身份
充电桩智能控制系统
表达式
驾驶员面部表情
车辆运动数据
轻量级神经网络
疲劳检测方法
视觉摄像头