摘要
本发明公开了一种面向场景文本生成图像的篡改检测与定位方法,通过深层特征分支、多尺度特征分支和双注意力融合模块构成的模型进行检测与定位,深层特征分支捕捉场景文本生成图像整体的结构关系和高层次语义信息,得到深层特征图输出至双注意力融合模块,多尺度特征分支通过浅层到深层的逐级特征提取方式,提取场景文本生成图像的多尺度特征图输出至双注意力融合模块,双注意力融合模块将深层特征图和多尺度特征图进行局部细节与全局语义信息的充分融合,得到篡改检测结果与分类预测结果;优点是对篡改区域的定位能力强、对复杂背景适应性强、对小尺度篡改区域的检测能力强、对不规则篡改文本的检测能力强,能够在复杂背景中准确定位篡改区域。
技术关键词
文本生成图像
多尺度特征
注意力
模块
定位方法
场景
特征提取方式
分支
双线性插值
融合特征
定位篡改区域
高层次
语义特征
网络结构
分辨率
关系
尺寸
系统为您推荐了相关专利信息
NDIR传感器
环境温度信息
线性化电路
气体
多光路系统
脑电采集设备
机械臂系统
AR眼镜
开发板
路由器
平台构建方法
知识库问答
大语言模型
合规性
语义分割算法
蒸发制冷设备
节能调控系统
冷却液
储能系统
液体