摘要
一种文本指令微调场景的持续学习方法,包括:在模型训练前,利用大语言模型将文本任务指令转换为嵌入表示,并通过Wasserstein距离计算任务相似性,在增量学习场景中动态分配回放的数据量;为旧任务指令生成意图标签并进行处理以提供更加细粒度的信息,进而计算InsInfo值量化指令多样性和复杂性。训练过程中,先依据任务相似性动态调整回放数据量,对差异较大的旧任务分配更多的回放数据,帮助模型有选择性的回忆旧任务。在确定各个旧任务的回放数据量后,优先回放具有高InsInfo值的指令数据,并持续评估模型性能。本方法有效缓解灾难性遗忘,提升模型在增量式学习中的文本任务适应能力,无需大幅改动模型架构,具有高计算效率,显著提升了大语言模型的泛化能力。
技术关键词
持续学习方法
指令
大语言模型
文本
增量式学习
标签
意图
计算机程序产品
数据
场景
指标
度量
语义
可读存储介质
列表
处理器
动态
定义
总量