Skip to main content
当你的对话接近模型的上下文窗口限制时,Cline 会自动摘要对话以释放空间并继续工作。
自动压缩功能压缩对话上下文

工作原理

Cline 在对话过程中监控令牌使用情况。当接近限制时,他会:
  1. 创建已发生的所有事情的全面摘要
  2. 保留所有技术细节、代码更改和决策
  3. 用摘要替换对话历史
  4. 从他离开的地方继续
当这种情况发生时,你会看到一个摘要工具调用,显示总成本,就像聊天视图中的任何其他 API 调用一样。

为什么这很重要

以前,Cline 在达到上下文限制时会截断较早的消息。这意味着会丢失对话中较早的重要上下文。 现在通过摘要:
  • 所有技术决策和代码模式都得到保留
  • 文件更改和项目上下文保持完整
  • Cline 记住他所做的一切
  • 你可以不间断地处理更大的项目
上下文摘要与专注链完美协同。当启用专注链时,待办事项列表在摘要过程中持续存在。这意味着 Cline 可以处理跨越多个上下文窗口的长期任务,同时在每次重置时通过待办事项列表保持正轨。

技术细节

摘要通过你配置的 API 提供商使用你已经使用的相同模型进行。它利用提示缓存来最小化成本。
  1. Cline 使用摘要提示请求对话的摘要。
  2. 一旦生成摘要,Cline 用继续提示替换对话历史,该提示要求 Cline 继续工作并提供摘要作为上下文。
不同的模型对自动摘要何时启动有不同的上下文窗口阈值。你可以在 context-window-utils.ts 中看到阈值是如何确定的。

成本考虑

摘要利用对话中现有的提示缓存,因此成本与任何其他工具调用大致相同。 由于大多数输入令牌已经被缓存,你主要为摘要生成(输出令牌)付费,这使得它非常具有成本效益。

使用检查点恢复上下文

你可以使用检查点从摘要发生之前恢复你的任务状态。这意味着你永远不会真正丢失上下文 - 你总是可以回滚到对话的以前版本。
在摘要工具调用之前编辑消息将类似于检查点工作,允许你将对话恢复到那个时间点。

下一代模型支持

自动压缩使用高级的基于 LLM 的摘要,我们发现这对于下一代模型效果显著更好。我们目前为以下模型支持此功能:
  • Claude 4 系列
  • Gemini 2.5 系列
  • GPT-5
  • Grok 4
使用其他模型时,即使在设置中启用了自动压缩,Cline 也会自动回退到标准的基于规则的上下文截断方法。