摘要
本发明提供了一种基于深度特征融合的3D高斯溅射方法,包括:通过多视图Transformer网络和预训练的单目深度估计模型分别提取多视图特征与单目深度特征;通过内容引导注意力模块动态融合两类特征;使用2D U‑Net网络对融合后的特征进行深度回归,得到鲁棒的深度分布;将深度分布反投影至3D空间得到高斯中心,再通过2DU‑Net网络预测其他高斯参数;根据所有的高斯参数通过光栅化渲染出高质量的三维模型。该3D高斯溅射方法,通过结合多视图特征匹配与单目深度先验的互补优势,显著提升了复杂场景的重建质量,解决了传统特征匹配方法在复杂场景中匹配不准确或匹配信息缺失导致的场景重建质量低下的问题。
技术关键词
深度特征融合
溅射方法
单目深度估计
协方差矩阵
注意力
特征匹配方法
像素
三维模型
网络结构
图像
双线性插值
场景
透明度
分辨率
多视角
光栅
计算方法
系统为您推荐了相关专利信息
饲料养分利用率
神经网络模型
深度神经网络
深度确定性策略梯度
深层特征学习
趋势分析方法
桥梁
低通滤波器
GPR模型
结构健康检测系统
制冷剂
电池热管理系统
电子膨胀阀
辨识方法
体积流量计
图像预测方法
肺结节图像
多模态
肺结节良恶性预测
分类特征
模型构建方法
多尺度特征融合
检测分割方法
图像
区域特征提取