记忆,你有我有,LLM 不一定有,但它们正在有。
前些天,谷歌宣布 Gemini 具备了记忆能力。此前,它已经凭借长达 100 万 token 甚至更高的上下文长度,在「短期记忆」上有不错表现 —— 能够在一次会话中保留大量信息。但这一次,Gemini 可以跨越多次对话,从用户的交流中提炼关键细节和偏好,并在下一次交互时主动调用,让对话更自然、更连贯。
事实上,更早几天,Anthropic 才刚刚为自家的 Claude 装上记忆。在一段演示视频中,一位用户休假归来,向 Claude 询问之前聊过的内容。Claude 会在历史聊天中检索相关记录,阅读并总结给用户,然后询问是否要继续原先的项目。
该公司写道:「你再也不会忘记自己的工作了,Claude 现在会记住你们之前的对话,这样你就可以无缝地继续项目,参考之前的讨论,并在你的想法上进行构建,而不必每次都从头开始。」
至于 OpenAI,在这个方向上却已经走出了相当远。早在 2024 年 2 月份,该公司就已经为 ChatGPT 上线了记忆功能:当用户与 ChatGPT 聊天时,用户可以要求 ChatGPT 记住特定的内容或让它自行获取详细信息。使用频率越多,ChatGPT 的记忆力就会越好,并且随着时间的推移,用户能明显感觉到效果的提升。
前些天,该公司 CEO 山姆・奥特曼更是表示 GPT-6 的一大改进核心也将会是记忆。他表示:「人们想要记忆,人们想要那些需要让 AI 能够理解他们的产品功能。」
而 xAI 也已经在 4 月份让 Grok 能够记忆多轮对话的内容。并且 Grok 的记忆是透明的:用户可以清楚地看到 Grok 知道的内容,并可选择忘记哪些内容。
近段时间来,LLM 记忆这个赛道也越来越拥挤,新的研究、产品不断涌现。这不,字节跳动联合浙大和上交不久前才刚发布一个具备长期记忆能力的多模态智能体 M3-Agent,让记忆能力不再仅限于文本,更是扩展到了视频、音频等多模态数据。
来源:arXiv:2508.09736
另外,我们也看到了一批关注 AI 记忆的创业公司的诞生,包括提出了 MemGPT 的 Letta AI、提出了 AI 的记忆操作系统 MemOS 的记忆张量(上海)科技有限公司以及我们前段时间报道过的提出了拥有一定的原生记忆能力的非 Transformer 架构 Yan 2.0 Preview 的国内 AI 创企 RockAI 等。
这些案例背后,记忆并不只是「存信息」那么简单,而是涉及存储、检索、提炼和遗忘等复杂机制。
而「记忆」也正在成为大模型进一步蜕变以及智能体进一步走向大规模应用的关键技术,正如 OpenAI 前研究高管、Thinking Machines Lab 联合创始人翁荔(Lilian Weng)在其博客文章中展示的那样。
接下来,我们就来看看,LLM 的记忆究竟是如何实现的。
要构建记忆,必定要先定义记忆。这里我们直接引用翁荔的定义:
记忆可以被定义为获取、存储、保留和随后检索信息的过程。
她又进一步将记忆分为感官记忆、短期记忆和长期记忆:
这里我们不关注感官记忆,同时更加侧重于长期记忆。
根据近期的几篇相关综述报告,我们可以对 LLM 的短期和长期记忆做一个更加详细的归纳分类,包括上下文内记忆、外部记忆、参数化记忆、类人的分层式记忆和情境记忆。
上下文内记忆
上下文内记忆是一种短期记忆。
简单来说,就是将需要模型知道的信息放入模型的上下文窗口之中,也就是放入我们发送给模型的提示词(prompt)中。这样一来,模型就可以在执行推理之前先浏览一遍这些信息。这种方法适用于任何有足够长上下文的 LLM,也是一种简单直接的通用方法。
上下文内记忆是 LLM 的短期记忆。图中,上下文窗口被表示为一个消息阵列。最新消息位于数组末尾。消息按从旧到新的顺序排列。「系统消息」不会被移出上下文窗口,因为它包含对模型至关重要的信息 —— 通常是告知 LLM 其被期望行为的具体指令。图源:johnsosoka.com
但是,这种方法的缺点也很明显:
外部记忆
外部记忆是一种非参数化(是指没有融合进模型的参数之中)的长期记忆。这是为了克服短期记忆的限制而生的,同时也是当前构建长期记忆最主流的方式。
其核心思想是将信息存储在模型外部的数据库中(如向量数据库),在需要时通过信息检索技术(Retrieval)将最相关的内容取回,并注入到当前的上下文窗口中,为模型提供决策依据。这一过程通常被称为「检索增强生成」(Retrieval-Augmented Generation, RAG)。
一个完整的外部记忆系统通常包括三个关键操作 :
记忆的读取(R)、写入(W)和管理(M)过程,其中虚线表示交叉试验信息可以整合进记忆模块,图源:arXiv:2404.13501
这种方法的优势在于灵活性高,可以存储海量信息,并且更新记忆无需重新训练模型 。但它也面临挑战,即检索的准确性和效率至关重要:一旦检索失败或错误,就可能会向模型提供无关甚至错误的「记忆」,从而影响最终输出的质量。
参数化记忆
与将记忆存储在外部不同,参数化记忆是试图将信息直接编码进大模型自身的参数(即神经网络的权重)中。这是一种更深层次的「内化记忆」。
非参数化记忆与参数化记忆,图源:arXiv:2411.00489
实现参数化记忆的方式主要有:
图源:arXiv:2404.13501
参数化记忆的优点是信息一旦被编码,检索速度极快,因为在推理时它就是模型的一部分,没有额外的检索延迟。
但其缺点是记忆的更新成本高昂,通常需要重新训练或微调,并且存在「灾难性遗忘」的风险,即模型在学习新知识时可能会忘记旧的知识 。
类人的分层式记忆和情境记忆
为了让 AI 的记忆机制更接近人类,有研究者们从认知科学中汲取了灵感,设计了更复杂的、类似人脑的记忆架构。人类的记忆并非扁平的,而是分为记录具体事件的情景记忆(Episodic Memory,如「我昨天午餐吃了什么」)和存储一般事实与知识的语义记忆(Semantic Memory,如「地球是圆的」)。
人类记忆与 LLM 记忆的对比,图源:arXiv:2504.15965
受此启发,分层式记忆系统被提出,它通过更精细化的记忆管理,实现从原始信息到抽象知识的提炼。
这种分层式的记忆结构让 AI 不仅能「记住」发生了什么,更能「理解」这些事情背后的模式和意义,从而做出更智能、更具洞察力的反应。
需要指出,在实际应用中,上述不同类型的记忆并非完全独立,而是经常被组合使用,形成「混合记忆(Hybrid Memory)」系统。
举个例子,一个智能体可能用参数内记忆来固化其核心性格,同时利用外部记忆来动态记录与用户的每一次互动,从而兼顾稳定性和灵活性。
另外,这里的分类也并未穷尽,更多的记忆方法也在不断涌现。
了解了 AI 获得短期和长期记忆的几种形式,下面我们来看一些具体的记忆实现。
OpenAI 等大厂是怎么做的?
OpenAI 的 ChatGPT 的记忆功能上线于去年 2 月份,用户可以在聊天中显式让 ChatGPT 记住某些东西,比如「记住我喜欢 Python 编程」或者「记住我的孩子叫 Lucy」。这些记忆会被单独存储,后续的对话会将这些信息作为背景注入模型的系统提示词中,让 AI 具备「常识」般记住用户的偏好。用户也可以直接要求它记住 / 忘记某件事情,并在个人设置中查看和管理这些记忆条目。
ChatGPT 中保存的记忆
除了显式记忆,ChatGPT 还能借助最近的对话历史来理解上下文和用户的习惯。从 2024 年起,OpenAI 还实现了「跨会话历史」引用,即 ChatGPT 能在不同会话中,基于之前的交互自动捕捉细节,比如你的表达风格、关注的主题等,从而提供更连贯的服务。
从其描述来看,ChatGPT 实现记忆机制的原理并不复杂:ChatGPT 会将用户记忆以结构化片段保存于服务器端(如向量数据库 + 常规数据库),再通过提示工程方式,在生成回复时自动将用户记忆片段注入模型参考语境,实现个性化推荐和上下文延续。这类似于给 AI 补充用户专属背景知识库,让 AI「越来越懂你」。
相较之下,Anthropic 的 Claude 的记忆则更加简单一些 —— 它不是像 OpenAI 的 ChatGPT 那样的持久记忆功能;Claude 只会在用户要求时才会检索和引用过去的聊天记录,而且它不会建立用户档案。
而 Gemini 看起来与 ChatGPT 的功能类似,另外还支持用户自己录入想要 Gemini 记住的东西。
Gemini 支持直接录入记忆
像管理内存一样管理记忆
上面 ChatGPT、Claude 和 Gemini 处理用户记忆的方式还很简单,核心技术是提示工程。这类方式会受到模型上下文窗口大小的限制,难以承载更多信息。
那如果让记忆本身也智能化呢?论文《MemGPT: Towards LLMs as Operating Systems》提出使用一个专门的记忆 LLM 智能体来管理工作 LLM 上下文窗口。
该系统配备了一个大型的持久记忆,用于存储所有可能被纳入输入上下文的信息,而那个智能体的职责则是负责决定哪些信息实际被包含进工作 LLM 的上下文窗口。该技术受传统操作系统中分层内存系统的启发 —— 通过在物理内存与磁盘之间进行分页,实现扩展虚拟内存的假象。
图源:arXiv:2310.08560
如上图所示,在 MemGPT 中,一个有着固定上下文长度的 LLM 处理器配备了分层内存系统和一些函数,使其能够管理自身的记忆。这个 LLM 的提示 token(输入,即主上下文)由系统指令、工作上下文和 FIFO 队列组成。LLM 的完成 token (输出)会被函数执行器解释为函数调用。MemGPT 使用函数在主上下文和外部上下文(归档和调用存储数据库)之间移动数据。LLM 可以通过在其输出中生成一个特殊的关键字参数 (request heartbeat=true) 来请求立即进行后续的 LLM 推理,从而将函数调用链接在一起;函数链使得 MemGPT 能够执行多步检索来回答用户查询。
为 AI 记忆打造一个操作系统
记忆张量(上海)科技有限公司等提出的 MemOS(Memory Operating System)则更进一步,借鉴了传统操作系统的分层架构设计,也融合了 Memory3(忆立方)大模型在记忆分层管理方面的核心机制。与传统 RAG 或纯参数存储不同,MemOS 把 「记忆」 看作一种和算力同等重要的系统资源。它通过标准化的 MemCube 记忆单元,将明文、激活状态和参数记忆统一在同一个框架里进行调度、融合、归档和权限管理。简单来说,模型不再只是 「看完即忘」,而是拥有了持续进化和自我更新的能力。
MemOS 整个系统由 API 与应用接口层、记忆调度与管理层、记忆存储与基础设施层三大核心层次组成,构建了一套从用户交互到底层存储的全链路记忆管理闭环。
MemOS 框架,图源:http://memos.openmem.net/
在 API 与应用接口层,MemOS 提供了标准化的 Memory API,开发者可以通过简单的接口实现记忆创建、删除、更新等操作,让大模型具备易于调用和扩展的持久记忆能力,支持多轮对话、长期任务和跨会话个性化等复杂应用场景。在记忆调度与管理层,MemOS 提出了记忆调度的全新范式,支持基于上下文的 「下一场景预测」,可以在模型生成时提前加载潜在需要的记忆片段,显著降低响应延迟、提升推理效率。而在记忆存储与基础设施层,MemOS 通过标准化的 MemCube 封装,将明文记忆、激活记忆和参数记忆三种形态有机整合。它支持多种持久化存储方式,包括 Graph 数据库、向量数据库等,并具备跨模型的记忆迁移与复用能力。
无独有偶,北邮百家 AI 团队推出的 MemoryOS 则巧妙融合了计算机操作系统原理与人脑分层记忆机制,构建段页式三级存储架构及四大核心模块(存储、更新、检索、生成),提供全链路用户记忆管理方案,让 AI 智能体拥有持久「记性」与深度「个性」。
MemoryOS 架构概况,图源:arXiv:2506.06326
记忆的分层细化
从上面几个项目可以看出,记忆管理的一个重要方面是分层。这其实也很好理解,正如人类的记忆一样,LLM 的记忆同样也有轻重缓急。
在这方面,MIRIX 是近期一个较为亮眼的项目,其将记忆细分成了 6 类来进行处理:核心记忆、情景记忆、语义记忆、程序记忆、资源记忆、知识金库。
MIRIX 的六个记忆组件,每一个都有自己的专属功能。图源:2507.07957
基于此,MIRIX 可以先理解需求,再决定在哪种记忆中搜索,再组合答案。也就是说:它会思考「我要回忆什么」,而不是机械地索引。
具体来说,他们提出了一种模块化多智能体架构,由若干专用组件在统一调度机制下协作完成输入处理、记忆更新和信息检索。整个系统包括:元记忆管理器(Meta Memory Manager)、记忆管理器(Memory Managers)以及对话智能体(Chat Agent)。
在记忆更新时,当系统接收到新的输入(如用户提供的文本、推断出的事件、上传的文件)时,会按如下流程进行处理:初步检索→路由与分析→并行更新→完成确认。
MIRIX 的记忆更新工作流程,图源:2507.07957
在对话检索时,检索流程的主要步骤是:粗检索→目标检索选择→精细检索→结果整合与答案生成→交互式更新。这一流程可确保系统的回答不仅有一致性,也能根据最新知识动态调整。
MIRIX 的对话检索工作流程,图源:2507.07957
结构化记忆与图式记忆
在处理大模型所要记忆的内容时,一种常见的方法是将记忆转化为向量数据库:也就是把文本型的记忆信息转成嵌入(Embedding)向量,存入数据库中。这样,当用户再次提问时,系统可以通过语义检索快速找到相关的记忆,再交给模型使用,其流程大致是:信息提取 → 向量化(Embedding) → 存入向量数据库 → 检索增强生成(RAG)。
不过,这种方法也存在一定的缺点:
因此,在记忆系统的构建中,一个重要的探索方向是对需要 AI 记忆的内容进行提炼、压缩和结构化处理。这不仅能提升记忆容量,也能让模型在回忆时更准确、更高效。具体方法包括:
举个例子,新加坡国立大学和同济大学等提出的 G-Memory 设计了一个三层图式基于模型,分别为洞察图、查询图和交互图。
G-Memory 概况,中间可以看到其三层图式记忆架构,图源:2506.07398
其中,洞察图用于捕捉单智能体对环境与交互的主观理解,查询图是统一智能体间的任务需求与意图表达,而交互图则能显式地建模各智能体之间的协作路径、沟通历史与记忆共享权限。
通过这种分层记忆图式结构,G-Memory 支持「定制化记忆视角」与「跨智能体语义映射」,可有效解决多智能体间记忆污染和路径冲突等协同问题,也为异质智能体系统构建了可扩展的记忆编排范式。
多模态记忆
随着多模态时代的到来,AI 系统不仅要理解和记住文本,还需要处理图像、视频、音频等多模态信息,对多模态记忆的需求也随之产生。相比文本,多模态记忆的难点在于信息量巨大、时序关系复杂、知识结构分散,这对 AI 的存储与检索能力提出了更高的挑战。
为应对这些挑战,AI 社区正在积极探索不同的解决方案。
其中,由前 Meta Reality Labs 顶尖科学家团队创立的研究实验室 Memories.ai 提出了「大视觉记忆模型」(LVMM)。
这一模型为 AI 系统引入了革命性的视觉记忆层:它突破了传统 AI 在视频处理中仅限于「片段式分析」的局限,转而能够持续捕获、存储和结构化海量的视觉数据。这样,AI 不仅能够永久保留上下文信息,还能精准识别时序模式、进行智能对比分析。换句话说,该平台可以将原始视频转化为可搜索、带有上下文关联的数据库,从而赋予 AI 系统类似人类的持续学习能力,配备上了一个几乎无限的「视觉大脑」。
与此同时,国内也出现了新的探索。字节跳动联合浙江大学和上海交通大学发布了 M3-Agent。这是一种具备长期记忆能力的多模态智能体。其架构由多模态大语言模型(MLLM)和多模态长期记忆模块组成,整体分为「记忆(memorization)」与「控制(control)」两大并行过程:
M3-Agent 架构,图源:arXiv:2508.09736
值得注意的是,M3-Agent 并非依赖单轮的 RAG 来调用记忆,而是通过强化学习驱动的多轮推理与迭代记忆检索,从而显著提升任务完成率。
此外,M3-Agent 在长期视频处理方面提出了两项关键突破:
通过这些探索,可以看到多模态记忆正从「存储片段」走向「构建世界」,这无疑将成为下一代智能体实现真正长期学习与理解的关键。
将记忆原生融入模型
除了外挂式的记忆机制,也有一些探索尝试将记忆能力直接融入模型自身。最基本的方法是基于需要记忆的数据对模型进行再训练,让记忆「写入」参数,比如使用 LoRA 或测试时训练来进行记忆参数化。然而,近期学界和业界也出现了一些更加有趣的尝试。
Meta 在论文 《Memory Layers at Scale》 中提出了「记忆层」(memory layers)的概念。按照传统做法,语言模型的信息主要存储在网络权重中,而提升记忆能力通常依赖于扩大参数规模。但这种方式的代价是巨大的计算和能耗,而且对于一些「简单的关联记忆」(如名人生日、国家首都、概念间的对应关系),并非最优解。
左图为常规记忆层,右图为改进的 Memory+ 模块,图源:arXiv:2412.09764
记忆层则提供了一种更加自然且高效的路径。其核心思想是通过键 - 值对检索机制来实现关联存储与调用,即以 embedding 表示键和值,实现一种神经网络内部的「查表式记忆」。早期虽然有类似的工作(如 Memory Networks、Neural Turing Machine),但并未在大规模 AI 架构中真正发挥作用。Meta 的研究突破在于将 Transformer 中的前馈网络(FFN)替换为记忆层,并保持其他部分不变。
Meta 还在大规模实验中验证了记忆层的可扩展性,其记忆容量可达 1280 亿参数级别,相比以往提升了两个数量级。
这表明,记忆层有潜力成为下一代大模型的核心组件。
另外,Meta 去年提出的 Branch-Train-MiX (BTX)方法也有望成为一种实现参数化记忆的手段,其包含三个主要步骤。
BTX 方法概况,图源:arXiv:2403.07816
与此同时,另一条不同的路径来自国内 AI 创企 RockAI,其提出的 Yan 2.0 Preview 模型具有「原生记忆能力」,能够在推理的同时把记忆直接融入参数中。值得注意的是,它并未采用常规的 Transformer 架构和注意力机制,而是基于 Yan 架构。
Yan 2.0 Preview 架构示意图
Yan 2.0 Preview 通过一个可微分的「神经网络记忆单元」实现记忆的存储、检索和遗忘。
与外挂知识库不同,这种方式更接近生物记忆:模型会将理解过的信息内化为权重的一部分,形成一种真正「自身的记忆」。在使用体验上,这意味着用户无需再手动管理知识库(增删改查),而是可以依赖模型实现端到端的记忆与调用。
构建一个真正强大、可靠且智能的 LLM 记忆系统,其难度不亚于模型本身的研发。尽管我们已经看到了诸多创新,但前路依然充满挑战。结合相关综述报告、技术博客以及学术界的深入探讨,我们可以将这些挑战与未来的发展趋势归纳为以下几个方面。
1. 挑战:从数据堆砌到智能管理 —— 学习遗忘与整合
遗忘其实与记忆一样重要,而当前许多记忆系统,特别是基于外部数据库的方案,更像是一个信息仓库,面临着只进不出的困境。
未来的研究需要为 AI 设计更精巧的记忆管理机制,让它学会断舍离,主动遗忘不再重要的信息,并智能地融合新知识。
arXiv:2411.00489 中提出的 Self-Adaptive Long-term Memory (SALM) 架构中包含了长期记忆的遗忘阶段
2. 挑战:效率、成本与可扩展性的不可能三角
不同的记忆方案在效率和成本之间面临着艰难的权衡。
未来的方向在于探索更高效的混合记忆架构,以及更轻量化、低成本的参数内记忆更新技术,以平衡记忆的灵活性、调用速度和更新成本。
3. 趋势:从功能模拟到结构仿生 —— 走向多模态与综合记忆系统
未来的 LLM 记忆将不再局限于单一功能,而是朝着更全面、更类似人脑的综合系统演进。
图源:https://www.youtube.com/live/n-slj72yx8w?si=St48Q9D_h-RFwB5g
4. 趋势:从孤立个体到记忆互联 —— 智能体间的共享与协作
随着多智能体系统的兴起,记忆的边界正在从单个智能体扩展到智能体网络。
5. 终极目标:从规则演化到自动演化
目前,智能体的反思和成长在很大程度上仍依赖于人类预先设定的规则。终极目标是实现记忆的自动演化,即智能体能够根据与环境的持续互动,自主地学习如何管理和优化其记忆,动态调整策略,并最终实现无需人工干预的终身学习。
正如天桥脑科学研究院和普林斯顿大学等发布的《Long Term Memory : The Foundation of AI Self-Evolution》中写到的一样:「模型的自我进化能力是模型长期适应和个性化的关键,而这又严重仰赖于有效的记忆机制。」
arXiv:2410.15665 中给出的长期记忆与 AI 自我进化示意图
当它真正实现时,这不仅将是记忆技术的飞跃,更是通往通用人工智能(AGI)的关键一步。
回望全文,我们不难发现,记忆正在成为划分 AI 新旧时代的「分水岭」。它将大型语言模型从一个 stateless(无状态)的、一次性的「文本计算器」,转变为一个 stateful(有状态)的、能够积累经验并持续演化的「认知主体」。
我们见证了这场变革的完整路径:从受限于上下文长度、昙花一现的短期记忆,到以 RAG 为代表、将信息存储于模型之外的外部记忆,再到尝试将知识内化为模型一部分、挑战与机遇并存的参数化记忆。这些探索的本质,是让 AI 从「使用信息」走向「拥有经验」。如今,行业已经不再满足于让 AI 仅仅记住事实,而是开始系统性地设计它应该如何记忆、如何反思、如何提炼,乃至如何遗忘 —— 这标志着我们正在从构建「数据档案」迈向构建 AI 的「认知核心」。
展望未来,AI 记忆的发展将不再是单一技术的线性优化,而是一场深刻的架构革命。其终极形态,或许是一个能高度模拟人脑机制的综合认知记忆系统。在这样的系统中,记忆不再是被动调用的知识库,而是驱动模型构建和更新其内部「世界模型」的主动引擎。
这个未来的记忆系统将具备三大特征:
这场关于记忆的探索,其意义已远超技术本身。我们正试图赋予机器一段连贯的「生命历程」,让它拥有自己的「过去」,并以此塑造它的「现在」和「未来」。
AI 发展史以及未来预测,英文源图:Concentrix
当一个 AI 能够凭借其积累的记忆,展现出独特的「个性」、形成稳定的「价值观」、甚至与我们建立起深刻的情感连接时,那或许才是 AGI 真正到来的拂晓时分。我们教机器记忆,最终可能是在创造一种全新的、能够与我们共同演化的智能生命。
参考链接
https://arxiv.org/abs/2404.13501
https://arxiv.org/pdf/2504.15965v2
https://lilianweng.github.io/posts/2023-06-23-agent/
https://arxiv.org/pdf/2504.02441
https://www.cnbc.com/2025/08/19/sam-altman-on-gpt-6-people-want-memory.html
https://x.com/unwind_ai_/status/1957998921835298946
https://arxiv.org/abs/2411.00489
文章来自于“机器之心”,作者“Panda”。
【开源免费】Browser-use 是一个用户AI代理直接可以控制浏览器的工具。它能够让AI 自动执行浏览器中的各种任务,如比较价格、添加购物车、回复各种社交媒体等。
项目地址:https://github.com/browser-use/browser-use
【开源免费】字节工作流产品扣子两大核心业务:Coze Studio(扣子开发平台)和 Coze Loop(扣子罗盘)全面开源,而且采用的是 Apache 2.0 许可证,支持商用!
项目地址:https://github.com/coze-dev/coze-studio
【开源免费】n8n是一个可以自定义工作流的AI项目,它提供了200个工作节点来帮助用户实现工作流的编排。
项目地址:https://github.com/n8n-io/n8n
在线使用:https://n8n.io/(付费)
【开源免费】DB-GPT是一个AI原生数据应用开发框架,它提供开发多模型管理(SMMF)、Text2SQL效果优化、RAG框架以及优化、Multi-Agents框架协作、AWEL(智能体工作流编排)等多种技术能力,让围绕数据库构建大模型应用更简单、更方便。
项目地址:https://github.com/eosphoros-ai/DB-GPT?tab=readme-ov-file
【开源免费】VectorVein是一个不需要任何编程基础,任何人都能用的AI工作流编辑工具。你可以将复杂的工作分解成多个步骤,并通过VectorVein固定并让AI依次完成。VectorVein是字节coze的平替产品。
项目地址:https://github.com/AndersonBY/vector-vein?tab=readme-ov-file
在线使用:https://vectorvein.ai/(付费)
【开源免费】AutoGPT是一个允许用户创建和运行智能体的(AI Agents)项目。用户创建的智能体能够自动执行各种任务,从而让AI有步骤的去解决实际问题。
项目地址:https://github.com/Significant-Gravitas/AutoGPT
【开源免费】MetaGPT是一个“软件开发公司”的智能体项目,只需要输入一句话的老板需求,MetaGPT即可输出用户故事 / 竞品分析 / 需求 / 数据结构 / APIs / 文件等软件开发的相关内容。MetaGPT内置了各种AI角色,包括产品经理 / 架构师 / 项目经理 / 工程师,MetaGPT提供了一个精心调配的软件公司研发全过程的SOP。
项目地址:https://github.com/geekan/MetaGPT/blob/main/docs/README_CN.md
【开源免费】FASTGPT是基于LLM的知识库开源项目,提供开箱即用的数据处理、模型调用等能力。整体功能和“Dify”“RAGFlow”项目类似。很多接入微信,飞书的AI项目都基于该项目二次开发。
项目地址:https://github.com/labring/FastGPT
【开源免费】graphrag是微软推出的RAG项目,与传统的通过 RAG 方法使用向量相似性作为搜索技术不同,GraphRAG是使用知识图谱在推理复杂信息时大幅提高问答性能。
项目地址:https://github.com/microsoft/graphrag
【开源免费】Dify是最早一批实现RAG,Agent,模型管理等一站式AI开发的工具平台,并且项目方一直持续维护。其中在任务编排方面相对领先对手,可以帮助研发实现像字节扣子那样的功能。
项目地址:https://github.com/langgenius/dify
【开源免费】RAGFlow是和Dify类似的开源项目,该项目在大文件解析方面做的更出色,拓展编排方面相对弱一些。
项目地址:https://github.com/infiniflow/ragflow/tree/main
【开源免费】phidata是一个可以实现将数据转化成向量存储,并通过AI实现RAG功能的项目
项目地址:https://github.com/phidatahq/phidata
【开源免费】TaskingAI 是一个提供RAG,Agent,大模型管理等AI项目开发的工具平台,比LangChain更强大的中间件AI平台工具。
项目地址:https://github.com/TaskingAI/TaskingAI
【开源免费】XTuner 是一个高效、灵活、全能的轻量化大模型微调工具库。它帮助开发者提供一个简单易用的平台,可以对大语言模型(LLM)和多模态图文模型(VLM)进行预训练和轻量级微调。XTuner 支持多种微调算法,如 QLoRA、LoRA 和全量参数微调。
项目地址:https://github.com/InternLM/xtuner
【开源免费】LangGPT 是一个通过结构化和模板化的方法,编写高质量的AI提示词的开源项目。它可以让任何非专业的用户轻松创建高水平的提示词,进而高质量的帮助用户通过AI解决问题。
项目地址:https://github.com/langgptai/LangGPT/blob/main/README_zh.md
在线使用:https://kimi.moonshot.cn/kimiplus/conpg00t7lagbbsfqkq0