在过去的一年里,我们与多个行业中构建大语言模型 (LLM) 代理的团队合作。始终发现,最成功的实现并未使用复杂的框架或专用库,而是通过简单、可组合的模式构建完成。
在这篇文章中,我们将分享与客户合作以及自身构建代理的经验,并为开发人员提供构建高效代理的实用建议。
下文中智能体/代理/Agent含义相同。
什么是代理?
"代理"可以有多种定义。一些客户将代理定义为可以独立运行较长时间的完全自主系统,使用各种工具完成复杂任务。另一些客户将其用于描述遵循预定义工作流的更具规范性的实现。在 Anthropic,我们将这些变体统称为 代理化系统,但在架构上对 工作流 和 代理 做了重要区分:
- 工作流 是通过预定义代码路径对 LLM 和工具进行编排的系统。
- 代理 是指 LLM 动态地引导其自身流程和工具使用,保持对任务完成方式的控制的系统。
下面我们将详细探讨这两种代理化系统。在附录 1(“实践中的代理”)中,我们描述了客户在两个领域中使用这些系统特别有价值的情况。
什么时候(以及什么时候不)使用代理
在使用 LLM 构建应用程序时,我们建议尽可能寻找最简单的解决方案,仅在必要时增加复杂性。这可能意味着完全不构建代理化系统。代理化系统通常以延迟和成本为代价换取更好的任务性能,您需要考虑这种权衡是否值得。
当需要更高复杂性时,工作流为定义明确的任务提供了可预测性和一致性,而代理在需要灵活性和模型驱动的决策规模化时表现更佳。然而,对于许多应用程序而言,优化单次 LLM 调用,结合检索和上下文示例通常就足够了。
何时以及如何使用框架
有许多框架可以让代理化系统更容易实现,包括:
- LangGraph 来自 LangChain;
- Amazon Bedrock 的 AI Agent framework;
- Rivet,一个拖放式 GUI LLM 工作流构建器;
- Vellum,另一个用于构建和测试复杂工作流的 GUI 工具。
这些框架通过简化诸如调用 LLM、定义和解析工具以及将调用链接在一起等标准低级任务,使开发过程变得更容易。然而,它们往往会增加额外的抽象层,可能会掩盖底层提示和响应,导致调试更困难。这也可能让人倾向于增加复杂性,而实际上更简单的设置可能已足够。
我们建议开发人员首先直接使用 LLM API:许多模式可以用几行代码实现。如果使用框架,请确保理解底层代码。对框架底层逻辑的错误假设是客户错误的常见来源。
参见我们的 cookbook 以获取一些示例实现。
构建模块、工作流和代理
在本节中,我们将探讨我们在生产环境中看到的常见代理化系统模式。我们将从基础构建模块——增强型 LLM 开始,然后逐步增加复杂性,从简单的组合式工作流到自主代理。
构建模块:增强型 LLM
代理化系统的基本构建模块是增强型 LLM,它集成了检索、工具和记忆等增强功能。我们当前的模型可以主动使用这些功能——生成自己的搜索查询、选择适当的工具并决定保留哪些信息。
我们建议关注实现的两个关键方面:将这些功能定制化以适应您的特定用例,并确保它们为 LLM 提供一个易于使用且文档完备的接口。尽管可以通过多种方式实现这些增强功能,但一种方法是使用我们最近发布的 Model Context Protocol,该协议允许开发人员通过简单的 客户端实现 集成到日益增长的第三方工具生态系统中。
在本文的剩余部分中,我们假设每次 LLM 调用都可以访问这些增强功能。
工作流:提示链(Prompt chaining)
提示链将任务分解为一系列步骤,每次大语言模型(LLM)调用都会处理前一步的输出。您可以在任何中间步骤添加程序化检查(请参阅下图中的“gate”),以确保流程仍然在正确轨道上。
何时使用此工作流:
当任务可以轻松、清晰地分解为固定的子任务时,该工作流非常理想。主要目标是通过将每次 LLM 调用简化为更易处理的任务,在降低延迟的同时提高准确性。
提示链适用的示例:
- 生成营销文案后将其翻译成不同语言。
- 编写文档的大纲,检查大纲是否符合某些标准,然后根据大纲撰写文档。
工作流:路由(Routing)
路由对输入进行分类,并将其引导至一个专门的后续任务。此工作流允许关注点分离,构建更专业的提示。如果不使用该工作流,为某种输入优化可能会降低对其他输入的性能。
何时使用此工作流:
当复杂任务有不同类别需要分别处理,并且分类可以通过 LLM 或更传统的分类模型/算法准确处理时,路由工作流表现良好。
路由适用的示例:
- 将不同类型的客户服务查询(一般问题、退款请求、技术支持)引导至不同的下游流程、提示和工具。
- 将简单/常见问题路由至较小的模型(如 Claude 3.5 Haiku),而将复杂/不常见问题路由至更强大的模型(如 Claude 3.5 Sonnet),以优化成本和速度。
工作流:并行化(Parallelization)
LLM 有时可以同时处理任务,其输出通过程序化方式进行聚合。并行化工作流主要有以下两种关键变化:
- 分段处理(Sectioning): 将任务分解为可以并行运行的独立子任务。
- 投票(Voting): 多次运行相同任务以获取多样化输出。
何时使用此工作流:
当分解的子任务可以并行处理以提高速度,或需要多种视角或尝试以获得更高置信度结果时,并行化是有效的。对于具有多重考量的复杂任务,每个考量由单独的 LLM 调用处理通常表现更好,从而专注于每个具体方面。
并行化适用的示例:
- 分段处理(Sectioning):
- 实施防护措施,其中一个模型实例处理用户查询,另一个筛选不当内容或请求。这通常比让同一个 LLM 调用同时处理防护措施和核心响应效果更好。
- 自动化评估 LLM 性能,其中每次 LLM 调用评估模型在给定提示上的不同性能方面。
- 投票(Voting):
- 审查代码漏洞,通过不同提示多次检查代码并标记发现的问题。
- 评估内容是否不适当,使用多个提示评估不同方面或需要不同的投票阈值以平衡误报和漏报。
工作流:协调者-工作者(Orchestrator-workers)
在协调者-工作者工作流中,中心 LLM 动态分解任务,将其委派给工作者 LLM,并综合它们的结果。
何时使用此工作流:
当任务复杂且无法预测所需子任务时(例如在编码中,需要更改的文件数量和每个文件中的更改性质可能取决于具体任务),该工作流非常适用。与并行化工作流类似,但关键区别在于其灵活性——子任务不是预先定义的,而是由协调者根据具体输入决定。
协调者-工作者适用的示例:
- 编码产品,每次对多个文件进行复杂更改。
- 搜索任务,涉及从多个来源收集并分析信息以找到可能相关的信息。
工作流:评估器-优化器
在评估器-优化器工作流中,一个大语言模型(LLM)调用生成响应,而另一个提供评估和反馈,形成循环。
何时使用该工作流: 当我们有明确的评估标准,并且迭代优化能带来可衡量的价值时,该工作流特别有效。两个适用标志是:首先,当人类表达反馈时,可以显著改善 LLM 的响应;其次,LLM 能够提供这样的反馈。这类似于人类作家在撰写精炼文档时可能经历的迭代写作过程。
评估器-优化器适用的示例:
- 文学翻译,其中翻译 LLM 可能无法初步捕捉到所有细微差别,但评估器 LLM 可以提供有用的批评。
- 复杂的搜索任务,需要多轮搜索和分析以收集全面信息,由评估器决定是否需要进一步的搜索。
智能体/Agents
随着 LLM 在理解复杂输入、推理和规划、可靠使用工具以及从错误中恢复等关键能力上的成熟,代理(Agents)正逐步在生产中出现。代理开始工作时,要么来自人类用户的指令,要么通过交互讨论。当任务明确后,代理会独立计划和操作,可能会返回人类以获取更多信息或判断。在执行期间,代理必须在每一步从环境中获取“真实信息”(例如工具调用结果或代码执行结果)以评估其进度。代理可以在检查点或遇到阻碍时暂停以获取人类反馈。任务通常在完成时终止,但也常包括停止条件(如最大迭代次数)以保持控制。
代理可以处理复杂任务,但其实现通常相对简单。它们通常只是基于环境反馈循环使用工具的大语言模型。因此,设计工具集及其文档需要清晰且经过深思熟虑。我们在附录 2(“工具的提示工程”)中扩展了工具开发的最佳实践。
何时使用代理: 代理可以用于无法预测所需步骤数量的开放式问题,以及无法硬编码固定路径的情况。LLM 可能需要多轮操作,因此您必须对其决策能力有一定信任。代理的自主性使其非常适合在受信任环境中扩展任务。
代理的自主性意味着更高的成本,以及潜在的错误积累风险。我们建议在沙盒环境中进行广泛测试,并设置适当的安全措施。
代理适用的示例:
以下示例来自我们的实际实现:
- 用于解决 SWE-bench 任务 的编码代理,这些任务涉及根据任务描述编辑多个文件;
- 我们的 “计算机使用”参考实现,其中 Claude 使用计算机完成任务。
组合和定制这些模式
这些构建块并非强制规定。它们是开发人员可以根据不同用例调整和组合的常见模式。与任何 LLM 功能一样,成功的关键在于测量性能并迭代实现。再次强调:仅在显著提高结果时,您才应考虑增加复杂性。
摘要
在大语言模型 (LLM) 领域的成功并不在于构建最复杂的系统,而在于构建最适合您需求的系统。从简单的提示入手,通过全面评估进行优化,只有当简单的解决方案无法满足需求时,才添加多步骤的代理系统。
在实施代理时,我们遵循三个核心原则:
- 保持代理设计的 简单性 。
- 通过明确展示代理的规划步骤来优先考虑 透明性 。
- 通过详细的工具 文档和测试 精心设计您的代理-计算机界面 (ACI) 。
框架可以帮助您快速入门,但在进入生产阶段时,不要犹豫减少抽象层,并使用基础组件构建。通过遵循这些原则,您可以创建不仅强大而且可靠、可维护且用户信赖的代理。
致谢
本文由 Erik Schluntz 和 Barry Zhang 撰写。这项工作基于我们在 Anthropic 构建代理的经验以及客户分享的宝贵见解,我们对此深表感谢。
附录 1: 代理的实际应用
我们与客户的合作揭示了两个特别有前景的 AI 代理应用,它们展示了上述模式的实际价值。这些应用表明,代理在需要结合对话与行动、具有明确成功标准、支持反馈循环并能实现有效的人类监督的任务中最具价值。
A. 客户支持
客户支持结合了熟悉的聊天机器人界面与工具集成的增强功能。这种场景非常适合更开放的代理,因为:
- 支持交互自然遵循对话流程,同时需要访问外部信息和执行操作;
- 可以集成工具以提取客户数据、订单历史和知识库文章;
- 操作(如发放退款或更新工单)可以通过编程方式处理;
- 成功可以通过用户定义的解决方案清晰衡量。
多家公司已经通过基于使用的定价模式证明了这种方法的可行性,该模式仅对成功解决的案例收费,表明对代理效果的信心。
B. 编程代理
软件开发领域对 LLM 功能展现出了显著的潜力,从代码补全发展到自主问题解决。代理尤其有效,因为:
- 代码解决方案可以通过自动化测试验证;
- 代理可以使用测试结果作为反馈迭代解决方案;
- 问题领域明确且结构化;
- 输出质量可以客观衡量。
在我们的实现中,代理已经能够基于拉取请求描述单独解决 SWE-bench Verified 基准测试中的实际 GitHub 问题。然而,尽管自动化测试有助于验证功能,但人工审查对于确保解决方案符合更广泛的系统需求仍然至关重要。
附录 2: 工具的提示工程
无论您正在构建哪种代理系统,工具可能都是您代理的重要组成部分。工具 使 Claude 能够通过指定其确切的结构和定义来与外部服务和 API 交互。当 Claude 响应时,如果计划调用工具,它将在 API 响应中包含一个 tool use block 。工具定义和规范应该像整体提示一样受到提示工程的关注。在本附录中,我们简要描述了如何对工具进行提示工程。
通常有多种方式可以指定同一操作。例如,您可以通过编写 diff 指定文件编辑,或者通过重写整个文件指定。对于结构化输出,您可以在 markdown 中返回代码或在 JSON 中返回代码。在软件工程中,这些差异是表面上的,可以无损地相互转换。然而,有些格式对 LLM 来说比其他格式更难书写。例如,编写 diff 需要在新代码编写之前知道块头中有多少行正在更改。在 JSON 中书写代码(与 markdown 相比)需要对换行符和引号进行额外转义。
关于工具格式的建议如下:
- 给模型足够的 Tokens “思考”,以免陷入困境。
- 保持格式接近模型在互联网上自然看到的文本。
- 确保没有格式上的“额外负担”,如必须精确计算数千行代码,或转义它写的任何代码。
一个经验法则是,考虑到人机界面 (HCI) 需要投入多少精力,也计划在创建良好的 代理 -计算机界面 (ACI) 上投入同等精力。以下是一些建议:
- 站在模型的角度思考。基于描述和参数,使用这个工具是否显而易见?如果需要仔细思考,那么对模型来说可能也是如此。一个好的工具定义通常包括使用示例、边界情况、输入格式要求,以及与其他工具的明确界限。
- 您如何更改参数名称或描述以使其更明显?可以将此视为为团队中的初级开发人员撰写优秀的文档注释 (docstring) 。在使用许多类似工具时,这一点尤其重要。
- 测试模型如何使用您的工具:在我们的 工作台 上运行许多示例输入,观察模型犯了哪些错误,并进行迭代。
- Poka-yoke 您的工具。更改参数,使犯错误变得更难。
在为 SWE-bench 构建代理时,我们实际上花了更多时间优化工具,而不是优化整体提示。例如,我们发现当代理从根目录移出后,使用相对文件路径的工具容易出现错误。为了解决这个问题,我们更改了工具,使其始终需要绝对文件路径——我们发现模型使用这种方法完全没有问题。