简介(未完成)
2026年,模型的推理能力、tool calling 能力、长上下文处理能力都已经达到了一个临界点。Long-horizon Agent 不再是”酷炫的 demo”,而是真正能够产出价值的工具。
- 不变的:在正确的时机,以正确的格式,向 LLM 提供正确的信息。
- 变化的:构建 Long-horizon Agent 涉及很多微妙的工程细节(compaction 策略、subagent 通信、error handling 等)
- Compaction 策略:当上下文窗口不够时如何压缩
- Memory 管理:如何在跨会话中保持关键信息
- Tool 选择:什么时候使用什么工具
- Subagent 通信:如何让主 Agent 和子 Agent 高效协作
场景
- Coding
- AI SRE,能够进行深度日志分析和故障排查
- Deepresearch
- openclaw
AI Coding
用AI生成代码,本质上和生成其他非结构化的序列,是一样的。但代码实在是太特殊了,它是数字世界的源头。理论上说,只要我们能可控地生成代码,就能可控地执行任意流程,意味着可以在数字世界做任何事情。所以现在很多人在说,Coding Agent就是通用智能体,这有相当的道理。这一论断在现实中碰到的阻碍,目前看只有两个:
- 可控地生成代码,仍然是一件专业的事情,而非普通大众能够完成。
- 并非所有软件都有编程接口,可以使用代码来进行控制。当然,第二个障碍是相对的。只要进入到某个系统层面上,拿到相应的系统权限,也没有什么软件是无法用代码控制的。难易程度的区别。
特点
- 运行时间更长
- 自主决策能力
- 中途接受外部的信息、纠正指令等
这使得模型的上下文规模呈指数级膨胀。文件内容、构建日志、多轮工具输出、任务中间状态、先前讨论……这些都逐步挤进了 Prompt,使得原本相对可控的短对话场景,变成了复杂的多源异构大上下文输入。结果非常直接:
- 模型需要处理更长的 Token → 推理时延增加,成本上升;
- 有效信息被噪声淹没或被截断 → 输出质量下降;
- Agent 在长流程中“忘记”关键上下文 → 任务失败率上升;