一种基于双前缀微调的视觉大语言模型训练方法

AITNT
正文
推荐专利
一种基于双前缀微调的视觉大语言模型训练方法
申请号:CN202510111482
申请日期:2025-01-23
公开号:CN120087447A
公开日期:2025-06-03
类型:发明专利
摘要
本发明涉及自然语言处理技术领域,尤其是涉及一种基于双前缀微调的视觉大语言模型训练方法,包括:针对子能力的数据构造;基于双前缀的子能力适配微调;基于交换前缀的子能力融合推理。本发明通过不同的前缀来学习分离的子能力,并通过前缀交换的推理方式来融合不同的子能力,以获得解决实际视觉任务的新能力;而且,本发明无需视觉指令的合成,通过相对较容易获得的图‑文对与文本数据,学习到较强的子能力。同时,通过对子能力的增强与泛化,这种融合的视觉任务解决能力同样能够容易的增强与泛化,显著的降低了传统视觉训练的难度,并提升了模型解决各类视觉任务的通用能力。
技术关键词
令牌 大语言模型 视觉 蒸馏 数据 文本 图像 自然语言 多模态 代表 指令
添加客服微信openai178,进AITNT官方交流群
驱动智慧未来:提供一站式AI转型解决方案
沪ICP备2023015588号