摘要
本申请的实施例揭示了一种大语言模型提示文本的压缩方法、装置、电子设备及存储介质,该方法包括:基于输入问题生成第一数量的待压缩文档;评估所述待压缩文档各自的重要性,并基于所述重要性筛选得到第二数量的待压缩文档;基于所述第二数量的待压缩文档各自的重要性,对所述第二数量的待压缩文档分别分配对应的压缩比例,并基于分配的压缩比例对所述第二数量的待压缩文档分别进行压缩处理,以得到所述第二数量的压缩后文档;将所述输入问题与所述第二数量的压缩后文档输入至大语言模型中,以使所述大语言模型输出所述输入问题对应的答案。由此,本实施例能够有效地进行文档压缩,以降低大语言模型的处理负担,进而降低处理的成本和时延。
技术关键词
大语言模型
计算机可读指令
答案
序列
文档生成模块
文本
电子设备
关键词
压缩装置
语义特征
处理器
输入模块
存储装置
可读存储介质
程序
时延
负担
系统为您推荐了相关专利信息
VCPU线程
隔离方法
虚拟机CPU资源
进程
机器可读指令
感知检测方法
红外热成像技术
标识符
序列
图像采集参数
大语言模型
交叉注意力机制
时间序列预测方法
数据
可读存储介质
神经网络训练方法
超声回波
分类器
神经网络模型
训练样本数据