摘要
本发明公开了一种大语言模型的优化方法、装置、电子设备及存储介质,涉及人工智能技术领域,所述大语言模型的优化方法具体包括以下步骤:S10,结合原LLM模型和大模型SFT数据集生成训练数据集;S20,在原LLM模型的主干网络中嵌入旁支网络,以获得新LLM模型,并在旁支网络的输入端输入掩码词元序列;S30,在训练数据集上采用损失函数对新LLM模型进行训练,训练完成后,LLM模型能够在一次推理中预测多个候选词元序列;S40,并行执行候选词元序列的生成和候选词元序列正确性的验证。本发明的有益效果:既节约了资源消耗和时间,又增强了LLM模型的解码能力,还保证了LLM模型输出结果的质量。
技术关键词
大语言模型
序列
计算机可读指令
生成训练数据
拼接模块
输入端
网络
优化装置
电子设备
答案
人工智能技术
数据处理模块
处理器
解码
存储器
标识符
输出端
表达式