摘要
本发明公开一种基于因果关系感知的大语言模型微调方法及装置,涉及自然语言处理技术领域;针对古文理解的应用场景,对大语言模型进行微调,包括:步骤1:准备数据:构建繁体古文数据集,步骤2:准备预训练基础模型,步骤3:根据繁体古文数据集,形成微调数据集,并对微调数据集的数据进行扩展与处理,步骤4:加载预训练模型,根据微调数据集对预训练后的中文LLama模型基于因果关系进行微调,步骤5:对迭代微调后中文LLama模型进行评估优化,获得模型的性能指标,步骤6:根据模型的性能指标选择最佳模型,本发明通过因果分析识别训练数据中的因果关系,并以此为依据指导模型参数的高效更新。
技术关键词
因果关系模型
结构方程模型
微调方法
数据
预训练模型
自动化工具
策略
参数
模块
变量
微调装置
基础
序列
动态
文本
强度
网络
分词
自然语言
同义词
系统为您推荐了相关专利信息
代码库
分布式环境
依赖关系信息
站点
自然语言文本
大语言模型
样本
更新模型参数
生成数据集
实体消歧技术
历史轨迹数据
轨迹预测方法
前馈神经网络
轨迹预测装置
生成预测模型