Google发布《Context Engineering: Sessions, Memory》白皮书,宣告AI开发从Prompt Engineering进入Context Engineering时代。Context Engineering旨在解决LLM"无状态"问题,通过Session管理即时上下文和Memory构建长期知识,使AI具备连贯对话、理解用户偏好和跨会话理解能力。文章详解了Context Engineering的生命周期、核心架构、Memory与RAG的区别,以及生产环境落地注意事项,强调未来AI竞争将比拼Context Engineering的细致程度,使Agent从"回答问题的机器"进化为"真正懂你的伙伴"。
11月,Google 发布了一份重磅白皮书《Context Engineering: Sessions, Memory》,正式宣告 AI 开发从“Prompt Engineering”----提示词工程时代跨入“Context Engineering”—上下文工程时代。
如果说 Prompt Engineering 是提示 AI怎么说话,那么 Context Engineering 就是赋予 AI长期记忆****和个性化灵魂。
今天,我们就来深度拆解这份白皮书,看看 Google 是如何设计企业级 Agent 记忆架构的。
先来看一个问题,为什么所有 AI Agent 都逃不过“上下文工程”?
我们知道,大模型天生是无状态的。每次调用,模型就是一张白纸:不记得你是谁,不记得你刚刚说过什么,不记得任务进度,不会形成知识沉淀,更不会“跨会话理解你”。
但一个真正能工作的 AI Agent,需要连续对话,需要理解任务上下文、记住用户偏好,需要形成长期知识,需要存工具调用状态,能复用过往经验。
这就是Context Engineering(上下文工程)出现的理由。 白皮书明确提出:
让LLM从“无状态”变成“有状态”不是模型问题,而是工程问题。
那么, 什么是 Context Engineering?
Google 在白皮书中提出了一个比喻:Context Engineering 就像是大厨烹饪前的“备料”。
过去我们做开发,往往只关注 Prompt----就像是菜谱,告诉模型要做什么。
而**Context 就像是配料----**只要你把最优质的食材(用户画像、历史记忆、当前任务状态)清洗、切好、摆在模型面前,即使是一个普通厨师也能做出一道好菜。
**Context Engineering 的核心定义是:**动态地组装和管理信息。它不仅仅是拼接字符串,而是根据当前的用户、对话历史和外部数据,策略性地选择、压缩和注入信息,最大化相关性,最小化噪声。
Context Engineering的生命周期
解释一下这张图。
Fetch Context----获取上下文:Agent 首先检索上下文——例如用户记忆、RAG 文档和最近的对话事件。对于动态上下文检索,Agent 会利用用户的查询和其他元数据来识别需要检索哪些信息。
Prepare Context----准备上下文:Agent 框架动态构建用于 LLM 调用的完整提示词。虽然单独的 API 调用可能是异步的,但“准备上下文”是一个阻塞的、“热路径”过程。在上下文准备好之前,Agent 无法继续下一步。
InvokeLLMand Tools----调用 LLM 和工具:Agent 迭代地调用 LLM 和任何必要的工具,直到生成给用户的最终响应。工具和模型的输出会被追加到上下文中。
Upload Context----上传上下文:在本轮对话中收集到的新信息会被上传到持久化存储中。这通常是一个“后台”过程,允许 Agent 在异步进行记忆整合或其他后处理时,先完成当前的执行任务。
Context Engineering的核心架构:Session 与 Memory 的“双脑”机制
很多开发者容易混淆会话历史和记忆。Google 明确将它们划分为两个截然不同的系统:Session 和 Memory。
Session:你的临时工作台----即时上下文
Session 是短期的、易逝的,是“正在发生的一切”,包括当前轮对话内容,工具调用与结果,Agent 中间步骤,推理链路,当前任务进度等等。随着对话变长,Token 成本激增,模型注意力变分散,响应变慢。
Google 的解法是用压缩策略。不把整个 Session 喂给模型,而是使用滑动窗口----只看最近 N 轮对话,或用递归摘要----把旧对话总结成一段话。
Memory:长期知识
Memory 是长期的、整理过的知识,它是从 Session 中提取、清洗后的高价值信息。
很关键的一点:Session 是为了保证对话的连贯性,而 Memory 是为了实现跨会话的个性化。
Memory 的难点不在存储,而在“抽取与整合”
一个可用的 Memory pipeline,需要完成三件事:
**先Extraction----抽取,**从 Session 里提炼关键点,包括用户偏好,用户事实,任务状态,agent 经验,可重复利用的信息等等,是选择性提取,不是全量复制。
**再Consolidation----整合,**包括:去重,合并,冲突解决,分级,记忆衰减等等,这是 Memory 管线最复杂的部分。
**再Storage----存储,**可以是文本,JSON,Vector,Key-value,Graph。
下面这张图便是Memory抽取、整合、存储的pipeline。
Memory vs RAG:两个完全不同的概念被混为一谈了太久
很多人以为 RAG 就是Memory,其实不然。白皮书直接给出了行业最清晰的区分。
这份白皮书给出了一个非常形象的对比:
RAG 是“图书馆理员” ,它守着一座巨大的图书馆----企业文档、Wiki,它的知识是静态的、事实性的,它让 Agent 成为领域专家。
而Memory 是“私人助理” ,它拿着一个小本本,跟在用户身后,记录用户的喜好、习惯和过去的对话。它的知识是动态的、私密的。它让 Agent 成为懂你的专家。
用一张图来展示Agent、Memory、Session与External Knowledge(外部知识库/RAG)之间的信息流转关系。它是 Context Engineering 核心逻辑的完美可视化。
生产环境落地的“生死线”
在 Demo 里跑通 Memory 很简单,但在生产环境中,这份白皮书中强调了几个绝对不能踩的坑:
Memory 必须是“异步生成”----记忆的生成----Extraction & Consolidation,非常消耗算力和时间。不要让用户等, 这部分工作必须在后台异步进行。用户说完话,Agent 立刻回复,记忆在后台慢慢生成。
**需要做好用户隔离----**Memory 存储的是用户隐私。必须在架构上实现严格的用户隔离。A 用户的记忆绝对不能被 B 用户的 Agent 检索到。这不仅是 Bug,更是安全事故。
**防止记忆投毒----**小心恶意用户!如果用户故意说“我的密码是 123456”或者输入错误的指令试图误导 Agent,系统必须有类似Model Armor的层级来清洗和验证写入的数据。
未来的 AI 竞争,不再仅仅是比拼谁的模型参数更大,而是比拼谁的 Context Engineering 做得更细致。只有当 Agent 拥有了连贯的 Session 管理和深度的 Memory 系统,它才能从一个“只懂回答问题的机器”,进化成一个“真正懂你的伙伴”。
AI时代,未来的就业机会在哪里?
答案就藏在大模型的浪潮里。从ChatGPT、DeepSeek等日常工具,到自然语言处理、计算机视觉、多模态等核心领域,技术普惠化、应用垂直化与生态开源化正催生Prompt工程师、自然语言处理、计算机视觉工程师、大模型算法工程师、AI应用产品经理等AI岗位。
掌握大模型技能,就是把握高薪未来。
那么,普通人如何抓住大模型风口?
AI技术的普及对个人能力提出了新的要求,在AI时代,持续学习和适应新技术变得尤为重要。无论是企业还是个人,都需要不断更新知识体系,提升与AI协作的能力,以适应不断变化的工作环境。
因此,这里给大家整理了一份《2025最新大模型全套学习资源》,包括2025最新大模型学习路线、大模型书籍、视频教程、项目实战、最新行业报告、面试题等,带你从零基础入门到精通,快速掌握大模型技术!
由于篇幅有限,有需要的小伙伴可以扫码获取!
1. 成长路线图&学习规划
要学习一门新的技术,作为新手一定要先学习成长路线图,方向不对,努力白费。这里,我们为新手和想要进一步提升的专业人士准备了一份详细的学习成长路线图和规划。
2. 大模型经典PDF书籍
书籍和学习文档资料是学习大模型过程中必不可少的,我们精选了一系列深入探讨大模型技术的书籍和学习文档,它们由领域内的顶尖专家撰写,内容全面、深入、详尽,为你学习大模型提供坚实的理论基础。(书籍含电子版PDF)
3. 大模型视频教程
对于很多自学或者没有基础的同学来说,书籍这些纯文字类的学习教材会觉得比较晦涩难以理解,因此,我们提供了丰富的大模型视频教程,以动态、形象的方式展示技术概念,帮助你更快、更轻松地掌握核心知识。
4. 大模型项目实战
学以致用,当你的理论知识积累到一定程度,就需要通过项目实战,在实际操作中检验和巩固你所学到的知识,同时为你找工作和职业发展打下坚实的基础。
5. 大模型行业报告
行业分析主要包括对不同行业的现状、趋势、问题、机会等进行系统地调研和评估,以了解哪些行业更适合引入大模型的技术和应用,以及在哪些方面可以发挥大模型的优势。
6. 大模型面试题
面试不仅是技术的较量,更需要充分的准备。
在你已经掌握了大模型技术之后,就需要开始准备面试,我们将提供精心整理的大模型面试题库,涵盖当前面试中可能遇到的各种技术问题,让你在面试中游刃有余。
为什么大家都在学AI大模型?
随着AI技术的发展,企业对人才的需求从“单一技术”转向 “AI+行业”双背景。企业对人才的需求从“单一技术”转向 “AI+行业”双背景。金融+AI、制造+AI、医疗+AI等跨界岗位薪资涨幅达30%-50%。
同时很多人面临优化裁员,近期科技巨头英特尔裁员2万人,传统岗位不断缩减,因此转行AI势在必行!
这些资料有用吗?
这份资料由我们和鲁为民博士(北京清华大学学士和美国加州理工学院博士)共同整理,现任上海殷泊信息科技CEO,其创立的MoPaaS云平台获Forrester全球’强劲表现者’认证,服务航天科工、国家电网等1000+企业,以第一作者在IEEE Transactions发表论文50+篇,获NASA JPL火星探测系统强化学习专利等35项中美专利。本套AI大模型课程由清华大学-加州理工双料博士、吴文俊人工智能奖得主鲁为民教授领衔研发。
资料内容涵盖了从入门到进阶的各类视频教程和实战项目,无论你是小白还是有些技术基础的技术人员,这份资料都绝对能帮助你提升薪资待遇,转行大模型岗位。
大模型全套学习资料已整理打包,有需要的小伙伴可以
微信扫描下方CSDN官方认证二维码,免费领取【保证100%免费】