摘要
本发明公开一种基于多模态数据融合与分析的智能座舱分析方法及系统。该方法通过获取视觉输入数据、语音输入数据和文本输入数据,根据红外图像数据,基于预先训练的视线估计模型得到预测的视线方向数据;将视线方向数据转换为文本数据并提取第一文本特征;将视觉多模态特征融合的结果与文本特征的数据对齐,得到第二文本特征;对语音输入数据提取第三文本特征;对文本输入数据提取第四文本特征;将以上文本特征进行文本融合,得到融合后的文本数据特征并将其输入到预训练好的大语言模型中,利用大语言模型对融合后的文本数据特征进行分析,从而对智能座舱进行全面的智能感知和综合分析。
技术关键词
多模态数据融合
智能座舱
多模态特征融合
多视角
深度图像数据
文本编码器
分析方法
更新模型参数
视觉采集装置
语音采集装置
大语言模型
3DCNN模型
声学特征
视觉特征
传播算法
系统为您推荐了相关专利信息
玻璃量器
补偿值
多模态特征融合
双向注意力机制
静态特征
低空飞行器
多模态数据采集
环境感知方法
多模态数据融合
环境感知系统
版权认证方法
区块链架构
元素
多模态数据融合
动态元数据
模型重建方法
足部三维模型
粘弹性材料
界面
检测设备