摘要
本申请涉及一种融合知识蒸馏与参数高效微调的少样本关系分类方法。所述方法构建了一种包括混合提示输入模块、编码模块、关系分类器和一致性判别器的少样本关系分类模型。该模型采用参数高效微调策略,仅需优化混合提示输入中的少量可训练虚拟标记,同时冻结其他所有模型参数,显著提升了训练效率。并且,该模型通过知识蒸馏技术构建具有一致性约束的教师‑学生框架,能够有效提取预训练模型中的事实知识,从记忆增强角度获得更稳定的关系表征。此外,该模型通过对支撑集实例的关系表示进行加权平均,能够进一步精炼提取更准确的原型表示,减少噪音干扰,最终能够提高少样本关系分类任务中查询集实例的分类预测准确性。
技术关键词
关系分类方法
教师
学生
关系分类器
实体
预训练语言模型
原型
参数
训练集
编码模块
输入模块
语义
样本
知识蒸馏技术
标记
预训练模型
文本