从Python变量到图谱记忆:Agent记忆进化之路,小白也能学会并收藏这份实战指南!

张开发
2026/4/16 0:32:25 15 分钟阅读

分享文章

从Python变量到图谱记忆:Agent记忆进化之路,小白也能学会并收藏这份实战指南!
文章探讨了AI Agent记忆系统的进化历程从简单的Python变量到Markdown文件再到向量检索和“图向量”混合架构。由于LLM设计上的“无状态”特性记忆系统对构建复杂Agent至关重要。文章指出单纯扩大上下文窗口并非解决记忆问题的万能药而应着重于结构化组织记忆内容。Lilian Weng提出的Agent四大支柱LLM、记忆、规划、工具使用中记忆的分类逻辑借鉴了人类大脑的运行模式包括感觉记忆、短期记忆和长期记忆。文章进一步阐述了长期记忆的三种维度情节记忆、语义记忆和程序记忆。最后文章通过一个极简的Agent示例展示了记忆系统从无到有的进化过程包括Python列表、Markdown持久化、向量检索和图谱记忆等阶段为读者提供了构建AI Agent记忆系统的实战参考。从最简单的 Python 变量到 Markdown 文件从向量检索到“图向量”混合架构Agent 的记忆进化史本质上是一场对抗遗忘的战争。LLM 在设计上是“无状态”的每一个 API 调用都是一次新的推理过程。我们在 ChatGPT 里感受到的记忆感其实是一种幻觉。那是系统每次都把之前的聊天记录再次发给模型的结果。所以在构建复杂的生产级 Agent 时记忆系统是非常重要的。如果你试图跳过记忆系统的设计或者记忆系统设计有明显缺陷Agent 很快就会陷入以下这些困境刚告诉它的信息下一轮就忘了每一轮对话都像跟模型初次对话任务执行到一半中间状态丢了它会反复犯同一个错误无法累积之前的经验当上下文溢出时模型会开始胡编乱造当 Agent 表现不佳时最直观的反应是“给它更大的 Context 窗口让它分析更多的内容”。于是我们有了 128K、200K 甚至 1M 的窗口。但事实证明这并不是万能的。研究表明当关键信息位于长上下文的中间段落时模型的准确率会下降 30% 以上。而且系统提示词、文档、对话历史、输出结果等它们都在占用 Token 预算。就算给你 100 万个 Token如果没有持久化、优先级排序和显著性过滤原始的上下文长度还是在浪费钱。所以记忆的本质不在于往 Prompt 里塞进更多的文本而在于如何结构化地组织“它记得什么”从而让它能在关键时刻“找到什么”。2023 年Lilian Weng 提出了一个著名概念Agent LLM 记忆Memory 规划Planning 工具使用Tool Use。这四大支柱地位均等缺一不可。而其中的记忆其分类逻辑其实直接借用了认知科学中人类大脑的运行模式感觉记忆Sensory Memory捕捉原始的感知输入如用户刚发送的消息仅保留零点几秒。只有那些被分配了注意力的部分才会被传递到下一层。短期记忆Working Memory这是主动思考发生的场所容量有限而且有效期短。长期记忆Long-term Memory耐用的存储库没有容量限制但检索困难。在现代 Agent 架构中长期记忆被进一步细分为三个关键维度每一个都对应着不同的业务能力情节记忆Episodic Memory对过去具体事件的回溯例如上周二用户要求做了什么。语义记忆Semantic Memory事实和概念的沉淀例如仓库在什么路径。程序记忆Procedural Memory技能与工作流的内化例如工具定义。剥开所有华丽的框架一个 Agent 的本质其实就是一个死循环感知→思考→行动。让我们来看看一个最简化的、没有任何记忆伪装的 Agent 是长什么样的class Agent: 极简 AI Agent感知思考行动 def __init__(self): self.client anthropic.Anthropic() self.model claude-3-5-sonnet-20240620 def run(self, user_input: str) - str: # 没有任何上下文传递 response self.client.messages.create( modelself.model, max_tokens1024, messages[{role: user, content: user_input}], ) return response.content[0].text你告诉它“我有 4 个苹果”它点头说好。接着你问“我吃了一个还剩几个”它会一脸懵逼完全不知道你在说什么苹果。第一层进化Python 列表每个开发者在意识到上述问题后采取的第一个补救措施通常是建立一个 messages 列表class Agent: def __init__(self): self.messages [] # 所谓的“记忆”其实就是一个列表 def chat(self, user_input: str) - str: self.messages.append({role: user, content: user_input}) response self.client.messages.create( messagesself.messages, # 每次都把完整的对话历史打包“寄”过去 # ... 其他参数 ) # ... 存储回复并返回此时多轮对话跑通了苹果的问题现在能答对了。但这种暴力重传的模式很快就会遇到新的问题这个列表是无限增长的。当对话进行到第 200 轮左右会触碰上下文的天花板。由于没有优先级逻辑系统会粗暴地丢弃最早的信息。所有的记忆都存在内存里一旦进程关闭或重启Agent 就会瞬间变成失忆。第二层进化Markdown 持久化当内存中的列表无法满足需求时绝大多数开发者的第二反应是持久化写进磁盘。Markdown 是最自然的选择它人类可读、对 Git 友好而且 Agent 可以像读纯文本一样轻松读取它。如今许多 Agent 都在使用这种模式通过 AGENT.md 和 MEMORY.md 来管理项目的上下文。class MarkdownMemoryAgent: def __init__(self): self.history_file Path(memory/conversation_history.md) self.facts_file Path(memory/known_facts.md) def save_to_disk(self, role: str, content: str) - None: # 实时将对话追加到 Markdown 文件 with open(self.history_file, a) as f: f.write(f### {role} at {datetime.now()}\n{content}\n\n) def chat(self, user_input: str) - str: self.save_to_disk(user, user_input) # 读取全量历史作为 System Prompt 的一部分 history self.history_file.read_text() # ... 发起请求并存储回复如果只有少量的记录一切都很完美。三个月后已经产生了上千条记录和上百份对话日志。动辄几十万 Token 的内容而上下文窗口只有 128K。此时没法一次性加载所有内容了必须选择性检索。对于 Markdown 这种扁平文件自然想到的是关键词搜索Grep。用户问 “我们的代码迁移进度如何”程序执行 grep(“代码迁移”, memory_file)结果 空。 因为硬盘上存的是“将仓库迁移到 GitHub ”里面压根没出现“代码迁移”这个词组。第三层进化向量检索为了解决 Markdown 的关键词问题我们给它装上了嵌入向量Embeddings。原理很简单将 Markdown 内容分块Chunking转化成多维空间的向量通过余弦相似度进行匹配。现在搜索“数据库”能匹配到“PostgreSQL”了因为在向量空间里它们靠得很近。同义词障碍消失了。直到你撞上了另一面隐形的墙假设你的向量数据库里存着三条事实“Alice 是 Atlas 项目的技术负责人。”“Atlas 项目使用 PostgreSQL 作为主数据库。”“PostgreSQL 集群在周二发生了停机事故。”用户提问 “Alice 的项目受到周二停机的影响了吗”尴尬的一幕发生了用户的提问里包含了“Alice”和“周二停机”所以向量搜索会给第 1 条和第 3 条极高的评分。但是中间那关键的第 2 条项目使用 PostgreSQL因为既没提到 Alice 也没提到周二它的评分会很低甚至根本不会被检索出来。企业的知识本质上是网状关系人属于团队团队拥有项目项目依赖系统系统会产生事故。任何需要多次跳转或逻辑推理的问题扁平的向量检索都无法给出完整答案。第四层进化图谱记忆面对向量检索在逻辑面前的乏力引入了图谱记忆Graph-based Memory。它的本质是将信息重新定义为节点实体与边关系。与单纯依赖语义向量不同图谱完整地保留了事实之间的结构化联系。这让 Agent 不再是盲目地在大海里捞针而是顺着逻辑的绳索进行推理。实现一套图谱记忆系统通常需要经历五个核心阶段提取由 LLM 充当“矿工”从原始文本中挖掘出人、地、物及其相互关系。存储将这些节点和边存入图数据库如 Neo4j、FalkorDB并同步生成向量嵌入实现图向量混合搜索。检索系统不再只看相似度而是通过图遍历去寻找那些语义不一定近但结构上紧密相连的背景信息。进化随着新信息的涌入自动检测冲突并修剪陈旧的关系。清理移除不再准确或冗余的链接保持记忆的精简与高效。现在已经有很多的这类记忆项目出现感兴趣的可以搜索到很多这里就不举例了。最后对于正在迷茫择业、想转行提升或是刚入门的程序员、编程小白来说有一个问题几乎人人都在问未来10年什么领域的职业发展潜力最大答案只有一个人工智能尤其是大模型方向当下人工智能行业正处于爆发式增长期其中大模型相关岗位更是供不应求薪资待遇直接拉满——字节跳动作为AI领域的头部玩家给硕士毕业的优质AI人才含大模型相关方向开出的月基础工资高达5万—6万元即便是非“人才计划”的普通应聘者月基础工资也能稳定在4万元左右。再看阿里、腾讯两大互联网大厂非“人才计划”的AI相关岗位应聘者月基础工资也约有3万元远超其他行业同资历岗位的薪资水平对于程序员、小白来说无疑是绝佳的转型和提升赛道。对于想入局大模型、抢占未来10年行业红利的程序员和小白来说现在正是最好的学习时机行业缺口大、大厂需求旺、薪资天花板高只要找准学习方向稳步提升技能就能轻松摆脱“低薪困境”抓住AI时代的职业机遇。如果你还不知道从何开始我自己整理一套全网最全最细的大模型零基础教程我也是一路自学走过来的很清楚小白前期学习的痛楚你要是没有方向还没有好的资源根本学不到东西下面是我整理的大模型学习资源希望能帮到你。扫码免费领取全部内容1、大模型学习路线2、从0到进阶大模型学习视频教程从入门到进阶这里都有跟着老师学习事半功倍。3、 入门必看大模型学习书籍文档.pdf书面上的技术书籍确实太多了这些是我精选出来的还有很多不在图里4、AI大模型最新行业报告2026最新行业报告针对不同行业的现状、趋势、问题、机会等进行系统地调研和评估以了解哪些行业更适合引入大模型的技术和应用以及在哪些方面可以发挥大模型的优势。5、面试试题/经验【大厂 AI 岗位面经分享107 道】【AI 大模型面试真题102 道】【LLMs 面试真题97 道】6、大模型项目实战配套源码适用人群四阶段学习规划共90天可落地执行第一阶段10天初阶应用该阶段让大家对大模型 AI有一个最前沿的认识对大模型 AI 的理解超过 95% 的人可以在相关讨论时发表高级、不跟风、又接地气的见解别人只会和 AI 聊天而你能调教 AI并能用代码将大模型和业务衔接。大模型 AI 能干什么大模型是怎样获得「智能」的用好 AI 的核心心法大模型应用业务架构大模型应用技术架构代码示例向 GPT-3.5 灌入新知识提示工程的意义和核心思想Prompt 典型构成指令调优方法论思维链和思维树Prompt 攻击和防范…第二阶段30天高阶应用该阶段我们正式进入大模型 AI 进阶实战学习学会构造私有知识库扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架抓住最新的技术进展适合 Python 和 JavaScript 程序员。为什么要做 RAG搭建一个简单的 ChatPDF检索的基础概念什么是向量表示Embeddings向量数据库与向量检索基于向量检索的 RAG搭建 RAG 系统的扩展知识混合检索与 RAG-Fusion 简介向量模型本地部署…第三阶段30天模型训练恭喜你如果学到这里你基本可以找到一份大模型 AI相关的工作自己也能训练 GPT 了通过微调训练自己的垂直大模型能独立训练开源多模态大模型掌握更多技术方案。到此为止大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗为什么要做 RAG什么是模型什么是模型训练求解器 损失函数简介小实验2手写一个简单的神经网络并训练它什么是训练/预训练/微调/轻量化微调Transformer结构简介轻量化微调实验数据集的构建…第四阶段20天商业闭环对全球大模型从性能、吞吐量、成本等方面有一定的认知可以在云端和本地等多种环境下部署大模型找到适合自己的项目/创业方向做一名被 AI 武装的产品经理。硬件选型带你了解全球大模型使用国产大模型服务搭建 OpenAI 代理热身基于阿里云 PAI 部署 Stable Diffusion在本地计算机运行大模型大模型的私有化部署基于 vLLM 部署大模型案例如何优雅地在阿里云私有部署开源大模型部署一套开源 LLM 项目内容安全互联网信息服务算法备案…扫码免费领取全部内容3、这些资料真的有用吗这份资料由我和鲁为民博士(北京清华大学学士和美国加州理工学院博士)共同整理现任上海殷泊信息科技CEO其创立的MoPaaS云平台获Forrester全球’强劲表现者’认证服务航天科工、国家电网等1000企业以第一作者在IEEE Transactions发表论文50篇获NASA JPL火星探测系统强化学习专利等35项中美专利。本套AI大模型课程由清华大学-加州理工双料博士、吴文俊人工智能奖得主鲁为民教授领衔研发。资料内容涵盖了从入门到进阶的各类视频教程和实战项目无论你是小白还是有些技术基础的技术人员这份资料都绝对能帮助你提升薪资待遇转行大模型岗位。这份完整版的大模型 AI 学习资料已经上传CSDN朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】

更多文章