摘要
本发明涉及一种基于大语言模型的长文本记忆保持方法、系统、设备和存储介质。所述方法包括:通过大语言模型中的分词器对长文本信息中的文本内容进行分级,得到各个文本内容的各个级别;基于注意力机制分别对各个级别的文本内容进行上下文信息权重计算,得到各个级别对应的权重;根据各个级别对应的权重将各个文本内容存储至短期记忆空间或长期记忆空间;使用KV Cache对短期记忆空间或长期记忆空间进行压缩处理,得到压缩后保留的文本内容并输出。通过对长文本信息中的文本内容进行分级,然后计算对应级别的权重,保证了多个维度的上下文内容的逻辑一致性;使用KV Cache对记忆空间进行压缩处理,可以加速大语言模型的推理时间。
技术关键词
大语言模型
文本
记忆
注意力机制
权重分配策略
处理器
网络结构
计算机设备
存储模块
可读存储介质
列表
存储器
矩阵
令牌
摘要
分词
分层
逻辑
系统为您推荐了相关专利信息
词嵌入向量
术语
词嵌入模型
识别方法
计算机设备
视频语义分割方法
泊车场景
运动特征
事件特征
语义分割系统
多模态数据融合
终端设备
预警模型
预警方法
中心服务器
知识图谱构建方法
实体识别模型
时序
传感器节点
文本
优化设计方法
机械部件
结构设计方案
生成三维模型
燃气轮机涡轮叶片