LangChain的Deep Agents SDK现在允许AI模型自行决定何时压缩其上下文窗口,减少了长时间运行的代理工作流程中的人工干预。(阅读LangChain的Deep Agents SDK现在允许AI模型自行决定何时压缩其上下文窗口,减少了长时间运行的代理工作流程中的人工干预。(阅读

LangChain 让 AI 代理控制自己的记忆管理

2026/03/12 09:55
阅读时长 5 分钟
如需对本内容提供反馈或相关疑问,请通过邮箱 crypto.news@mexc.com 联系我们。

LangChain 让 AI 代理掌控自身内存管理

Terrill Dicki 2026年3月12日 01:55

LangChain 的 Deep Agents SDK 现在允许 AI 模型自行决定何时压缩其上下文窗口,减少长时间运行代理工作流程中的人工干预。

LangChain 让 AI 代理掌控自身内存管理

LangChain 发布了其 Deep Agents SDK 的更新,将内存管理的控制权交给 AI 模型。这项于2026年3月11日宣布的新功能,允许代理自主触发上下文压缩,而不是依赖固定的令牌阈值或手动用户命令。

这项改变解决了代理开发中的一个持续性难题:上下文窗口在不便的时候被填满。当前系统通常在达到模型上下文限制的85%时压缩内存——这可能发生在重构过程中或复杂的调试会话期间。时机不当会导致上下文丢失和工作流程中断。

为何时机很重要

上下文压缩并非新技术。该技术用精简摘要替换旧消息,以保持代理在其令牌限制内。但何时压缩与是否压缩同样重要。

LangChain 的实现识别了几个最佳压缩时机:用户转移焦点时的任务边界、从大型研究上下文中提取结论后,或在开始冗长的多文件编辑之前。代理本质上学会在开始混乱工作前先整理,而不是在空间不足时手忙脚乱。

Factory AI 于2024年12月发布的研究支持这种方法。他们的分析发现,结构化摘要——保持上下文连续性而非激进截断——对于调试等复杂代理任务至关重要。维持工作流程结构的代理明显优于使用简单截断方法的代理。

技术实现

该工具作为 Deep Agents SDK(Python)的中间件发布,并与现有 CLI 集成。开发者将其添加到代理配置中:

系统保留10%的可用上下文作为最近消息,同时总结之前的所有内容。LangChain 内置了安全网——完整的对话历史保存在代理的虚拟文件系统中,允许在压缩出错时恢复。

内部测试显示代理在触发压缩方面较为保守。LangChain 使用 LangSmith 追踪针对其 Terminal-bench-2 基准和自定义评估套件验证了该功能。当代理确实自主压缩时,它们始终选择能改善工作流程连续性的时机。

更大的图景

此次发布反映了代理架构理念的更广泛转变。LangChain 明确引用了 Richard Sutton 的"苦涩教训"——即利用计算的通用方法随着时间推移往往优于手动调优方法的观察。

框架不再让开发者精心配置代理何时应管理内存,而是将该决策委托给模型本身。这是一个赌注,认为像 GPT-5.4 这样的模型中的推理能力已达到可以可靠做出这些操作决策的程度。

对于构建长时间运行或交互式代理的开发者,该功能通过 SDK 选择加入,并可通过 CLI 中的 /compact 命令使用。实际影响:更少的工作流程中断,以及围绕大多数最终用户无论如何都不理解的上下文限制减少用户手把手指导。

图片来源:Shutterstock
  • langchain
  • ai 代理
  • 上下文压缩
  • deep agents sdk
  • 开发者工具
免责声明: 本网站转载的文章均来源于公开平台,仅供参考。这些文章不代表 MEXC 的观点或意见。所有版权归原作者所有。如果您认为任何转载文章侵犯了第三方权利,请联系 crypto.news@mexc.com 以便将其删除。MEXC 不对转载文章的及时性、准确性或完整性作出任何陈述或保证,并且不对基于此类内容所采取的任何行动或决定承担责任。转载材料仅供参考,不构成任何商业、金融、法律和/或税务决策的建议、认可或依据。