摘要
本发明涉及人机交互技术领域,具体为结合大模型技术的博物馆交互用数字人驱动方法及系统,包括以下步骤:分析访客的面部视频流,提取图像帧,并对每一帧图像进行灰度化处理和归一化,得到标准化面部图像;将所述标准化面部图像输入到卷积神经网络中,分析图像特征并识别表情变化,生成基本情绪状态指标。本发明通过分析访客的面部视频流和提取图像帧的处理,实现了对表情变化的捕捉,允许数字人根据访客的即时情绪调整交互方式。这种实时调节语调和速度的能力提升了交互的自然性和有效性,为访客带来更为个性化的体验。而通过持续监控服务器负载和内存使用情况,能够动态调整资源,确保高效处理访客请求,预防服务器过载。
技术关键词
系统性能监控
驱动方法
博物馆
语音特征
内存
卷积神经网络模型
监控服务器
图像
交互内容
监控处理器
视频流
数据
资源
面部特征
指标
多层滤波器