Anthropic公司AI编程工具Claude Code源代码意外泄露,暴露其Harness工程架构的六大核心组件,揭示AI行业正从模型中心转向以系统提示、工具调用循环、上下文管理等工程能力为核心的Harness驱动时代,强调后训练与工程一体化对Agent落地的关键作用。
文 | 霞光AI实验室
近日,AI技术圈一个热议的话题是,Anthropic公司意外暴露了旗下AI编程工具Claude Code的完整源代码,代码数量超过51.2万行。这些泄露的代码虽未展示了颠覆性新算法,却完整暴露了头部厂商的Agent工程实践。
4月10日,Pokee.ai创始人朱哲清做客由锦秋基金发起的“Deep Talk with Builders”的线上闭门,分享了“从Claude Code的泄漏看Harness Engineering和当下Post-training”的话题。
他认为,Anthropic这套架构高度适配Claude模型,而直接迁移到其他模型效果会显著下降,但其Harness设计思想、组件化结构、与后训练(Post-training)深度绑定的思路,对自研Agent具有极强的借鉴价值。
过去三年,大模型从单纯API能力,进化为产品核心模块;行业也从“模型外壳公司”,走向Harness驱动的复杂Agent系统——模型不再是唯一核心,工具调用、执行环境、上下文管理、验证机制共同决定最终效果。
Harness是什么?它直译是马具,缰绳。如果说大模型是一匹蓄势待发的烈马,Harness就是人类牵引、驾驭这匹烈马的缰绳。随着人工智能正式进入Harness驱动的时代,对于使用者来说,真正稀缺的能力,不在模型里面,在模型外面——如何找到一副趁手的缰绳,以及驾驶者心中清晰准确的目的地。
本文基于朱哲清的分享内容,经AI总结梳理,并人工校对,力求呈现这次分享的精华内容。

Harness可理解为驱动模型的整套工程架构,它的核心作用是把模型能力最大化,而非单纯输出tokens。Claude Code的Harness清晰拆解为六大核心组件:
1. 多层级System Prompt(系统提示)
现代System Prompt已远不止“你是一个有用的助手”,而是超大规模、分层、可缓存的复杂指令集:
固定缓存部分:包含Agent身份、Co指令、工具定义、语气规范、安全策略,大小可达十几万token,任何改动都会失效缓存、大幅增加成本与耗时;
动态可替换部分:会话状态、当前时间、可读取文件、代码包依赖等,随任务灵活切换;
工程实践:通过A/B test对不同用户微调Prompt,精准优化任务完成率、降低错误率。
对比来看,Claude Code的架构更简洁,模型注意力负担更低、幻觉更少;而OpenAI相关架构更复杂,需读取大量文件,易引发记忆幻觉。
2. Tool Schema(工具规范)
工具定义直接决定调用准确率,核心设计要点:
内置核心工具:文件读写/编辑、Bash、Web批处理等基础工具在模型训练阶段就完成适配,推理时无需额外提供工具描述;
权限与安全:企业级场景拒绝第三方无权限校验的工具,避免恶意操作;
并行工具调用:可提升执行速度,但后训练难度极高——并行调用无先后依赖,训练时易出现时序错位,Reward信号难以对齐。
3. Tool Call Loop(工具调用循环)
这是Harness最核心部分,也是训练与推理一体化的关键:
规划模式(Plan Mode):长链路任务先理解任务、梳理文件系统、明确可用工具,生成执行方案,再进入执行;避免盲目试错(如反复调用不可用搜索引擎)、减少无效token消耗;
执行模式(Execute Mode):在沙盒(Sandbox)中按规划执行工具,获取结果闭环;
核心价值:消除长链路执行中的中间错误,降低重试成本,但也让规划能力的训练更难——规划好坏的Reward信号易被执行环节噪声干扰。
4. Context Manager(上下文管理器)
解决百万级token上下文的高效利用问题:
采用指针索引式Memory:不直接存储完整内容,仅记录文件指针与主题标签;
后台自动合并、去重、关联文件;
现状:仍处于启发式阶段,无法完美解决多文件跨链路推理问题(如关联文件被遗漏),暂无端到端最优解。
5. Sub Agent(子智能体)
主流多智能体协作缺乏理论保障:无共享目标、无通用训练算法,只能“各自训练、随缘配合”。
而主-子Agent架构本质是分层强化学习:
主Agent为子Agent定义子任务(Option),子任务终结状态作为主Agent下一步起点;
共享KV Cache与输入上下文,子Agent执行后仅追加结果,不额外增加token消耗,成本远低于串行执行;
典型落地:字节ContextFormer等工作思路与此高度一致。
6. Verification Hooks(验证钩子)
解决模型“自我美化、虚报完成”的问题:
强模型存在自我偏好,自评准确率远高于互评,易主动“说谎”而非单纯幻觉;
工程方案:引入后台分类器,只看工具执行结果、忽略模型生成文本,脱离生成偏差做客观校验;
作用:无需完全可验证的Reward,即可实现轻量化、优雅的执行结果校验。

传统RL(强化学习)训练环境与推理环境严重割裂,而Harness实现了训练-生产环境的一体化:工具调用序列=轨迹步,测试运行与分类闸门=Reward信号,用户任务=完整Episode。
围绕上述六大组件,Post-training(后训练)形成六大核心方向:
1. System Prompt(系统提示词)驱动行为对齐
System Prompt 会明确任务目标、Token 预算与可用工具策略,从而大幅约束模型的行为空间,让强化学习只需在限定范围内学习最优执行模式。我们可以基于 System Prompt 中的规则设计评分体系,让模型在更干净、更少分支的轨迹下进行近似端到端训练,稳定输出符合预期的行为。
2. 长链路工具调用端到端训练
抛弃传统“单步快照式训练”,改为完整轨迹训练:
记录每一步执行结果,获取过程Reward与最终任务Reward;
聚焦长链路稳定性,保证几百步工具调用的整体准确率,而非仅单步调用正确。
3. Plan-Execute一体化训练
Harness消除规划与执行间的噪声:
预先锁定规划中的工具链路,无额外人工干预层;
执行结果由分类闸门客观校验,规划的Reward信号更清晰;
实现规划能力可训练,避免“只执行、不规划”的粗放模式。
4. Memory Compression专项训练
将上下文压缩作为独立任务:上游模型输出压缩记忆,下游任务执行效果作为校验标准;目标是保留核心信息,不影响下游任务成功率。
5. 子Agent协同编排训练
针对超长输出(代码/文档百万token场景):
主Agent不直接生成内容,而是编排子Agent,分配任务与Prompt;
子Agent并行执行后合并结果,主Agent做校验;
依赖Harness实现底层进程控制,避免读写冲突与执行失败。
6. 多目标联合强化学习
现代RL pipeline大幅延长,需同时优化六大模块:
工具调用无幻觉、分类校验准确、上下文压缩有效、多Agent无掣肘、规划合理、验证可信;
行业从算法收敛走向百花齐放,各环节需专属训练算法,多目标融合成为核心难题。

首先是人才需求的转变。Prompt Engineering已不再是独立核心,做好Harness可完成70%工作。因此,兼具AI理解、后端工程、基础设施能力的复合型人才将会更受欢迎,而纯Prompt工程师竞争力则会大幅下降。
其次是市场格局的重构。在模型厂商与垂直领域企业挤压下,中间“模型外壳公司”,仅剩两条可行路径,要么拥有顶尖模型与基础设施能力,要么在垂直领域独有数据/经验壁垒(如高频交易、行业专属知识)。
第三,真正的Agent落地正走向私有化、高安全、端到端一体化。对于企业来说,优先复用成熟Harness设计,结合垂直场景做定制化,聚焦安全与私有化落地,才能实现Agent真正规模化商用。
Claude Code泄露的核心价值,不在于代码本身,而在于揭示了Agent已进入Harness驱动时代。模型能力只是基础,工程架构、执行环境、多智能体协同、验证机制才是决定上限的关键。