大模型训练全景:一个 AI 应用工程师需要理解的一切
从数据管线、Scaling Law、系统约束、合成数据、蒸馏、后训练、评估体系到 Agent 训练,系统梳理大模型训练全链路,并解释这些机制如何影响 AI 应用工程师的模型选型、评估与 harness 设计。
从数据管线、Scaling Law、系统约束、合成数据、蒸馏、后训练、评估体系到 Agent 训练,系统梳理大模型训练全链路,并解释这些机制如何影响 AI 应用工程师的模型选型、评估与 harness 设计。
本文从 AI coding agent 的执行机制出发,系统解释 agent-native 文档为什么已经从“参考资料”变成“基础设施”,并给出 AGENTS.md、PRD、Architecture、Spec、Plan 等文档层级的职责划分与组织原则。文章也结合 Context Engineering 与 Spec-Driven Development 的实践,说明怎样设计一套既节省 context、又能稳定驱动 agent 行动的文档体系。
一个对比开始 你在 ChatGPT 里问"什么是 KV Cache",模型回答你,对话结束。 你在 Codex CLI 里说"给项目添加一个用户认证模块,包含测试",agent 开始自主工作:读取项目结构 → 理解现有代码 → 规划实现方案 → 编写认证逻辑 → 编写测试 → 运行测试 → 发现失败 → 修复 → 测试通过 → 提交 PR。整个过程可能经历几十步,你可能全程没有介入。 ...
本文系统梳理了 OpenAI、Anthropic、HumanLayer 等团队在 AI coding agent 项目文档上的一线经验,解释为什么入口文件、分层知识库、状态追踪文件和局部文档会直接影响 agent 表现。文章也给出了从最小可行文档体系到持续维护机制的可落地实践路径。
LangChain 对 Agent Harness 的拆解,把 context engineering、memory、MCP 与 agent loop 串成了一张完整地图。