一种基于Transformer的统一信息抽取方法

AITNT
正文
推荐专利
一种基于Transformer的统一信息抽取方法
申请号:CN202510531857
申请日期:2025-04-25
公开号:CN120407707A
公开日期:2025-08-01
类型:发明专利
摘要
本发明公开了一种基于Transformer的统一信息抽取方法,属于自然语言处理技术领域,本发明通过序列到序列的建模方式实现信息抽取任务的统一化。该方法有效降低了各独立模型间的参数冗余,并通过预训练语言模型在低资源场景下依然能够实现准确的实体、关系、分类等多维度信息抽取。同时,采用有限状态机对生成过程进行约束,进一步确保了在复杂文本条件下输出结果的精准结构化,显著提升了整体抽取效果和系统应用的灵活性。
技术关键词
信息抽取方法 前馈神经网络 状态机 双向注意力机制 编码器 多任务损失函数 解码器 预训练语言模型 搜索算法 字符 编解码结构 文本 序列 实体 语法结构 语义
系统为您推荐了相关专利信息
1
基于大模型和数据压缩的三维空间场预测方法、装置、设备及介质
数据压缩 网格 降采样方法 模型预训练 编码器结构
2
一种方言语音克隆模型的训练方法、方言语音克隆方法、装置、终端设备及存储介质
音频 语音 文本编码器 说话人识别技术 矩阵
3
热力站供热负荷智能预测方法及系统
遥测数据流 负荷 智能预测方法 多尺度 气象
4
一种短抗菌肽序列的识别方法、系统、终端及存储介质
抗菌肽 理化特征 序列特征 融合特征 识别方法
5
一种基于ADM与动态去噪滤波模型的蕾丝纹理图像扩散生成方法
扩散生成方法 蕾丝 残差网络 编码器 噪声图像
添加客服微信openai178,进AITNT官方交流群
驱动智慧未来:提供一站式AI转型解决方案
沪ICP备2023015588号