AI个人学习
和实操指南
讯飞绘镜

GPT-4.1 官方提示工程指南(中文版)

GPT-4.1 系列模型相较于 GPT-4o,在编码、指令遵循和长上下文处理能力上有了显著进步。具体来说,它在代码生成和修复任务上表现更优,能更精确地理解并执行复杂指令,并且可以有效处理更长的输入文本。这份提示工程指南汇集了 OpenAI 内部大量测试得出的重要技巧,旨在帮助开发者充分利用这个新模型家族的增强能力。

许多经典的提示最佳实践对 GPT-4.1 依然有效,比如提供上下文示例、让指令尽可能具体清晰、通过提示引导模型进行规划以最大化其智能。但是,要充分发挥该模型的潜力,可能需要对现有提示进行一些调整。GPT-4.1 经过训练,能比其前代模型更紧密、更字面地遵循指令。先前模型倾向于更宽松地推断用户和系统提示的意图。这意味着 GPT-4.1 对精心设计的提示具有高度的可控性和响应性——如果模型行为不符合预期,通常只需一句明确无误的句子来澄清期望的行为,就足以引导模型回到正轨。这种特性要求开发者在设计提示时更加精确,但也提供了前所未有的控制力。


接下来将提供一些提示示例供参考。请记住,虽然本指南具有广泛适用性,但具体实践仍需根据场景调整。AI 工程本质上是一门经验学科,大型语言模型也 inherently 非确定性;除了遵循本指南,建议构建信息丰富的评估体系并经常迭代,以确保提示工程的改动能为你的应用场景带来实际效益。

GPT-4.1 官方提示工程指南(中文版)-1

 

1. 代理工作流 (Agentic Workflows)

GPT-4.1 是构建代理工作流的理想选择。在模型训练中,重点是提供多样化的代理解决问题路径。用于该模型的代理测试框架在 SWE-bench Verified 基准测试(衡量模型在真实软件工程问题上的修复能力的重要指标)中取得了非推理模型中的最佳性能,解决了 55% 的问题。

系统提示提醒 (System Prompt Reminders)

为了充分利用 GPT-4.1 的代理能力,建议在所有代理提示中包含三种关键类型的提醒。以下提示专门针对代理编码工作流进行了优化,但可以轻松修改以适应其他通用代理用例。

  1. 持久性 (Persistence): 确保模型理解它正在进入一个多轮消息交互,并防止它过早地将控制权交还给用户。示例:
    你是一个代理 - 请持续工作,直到用户的查询完全解决,然后再结束你的回合并将控制权交还给用户。只有当你确定问题已解决时才能终止你的回合。
    
  2. 工具调用 (Tool-calling): 鼓励模型充分利用其工具,减少它幻觉或猜测答案的可能性。示例:
    如果你不确定与用户请求相关的文件内容或代码库结构,请使用你的工具读取文件并收集相关信息:不要猜测或编造答案。
    
  3. 规划 (Planning) [可选]: 如果需要,这能确保模型在文本中明确地规划和反思每次工具调用,而不是仅通过一连串的工具调用来完成任务。示例:
    你必须在每次函数调用前进行详尽的规划,并对先前函数调用的结果进行深入反思。不要仅通过函数调用来完成整个过程,这可能会影响你解决问题和进行有洞察力思考的能力。
    

在代理场景中,GPT-4.1 对用户指令和系统提示的响应非常紧密。模型严格遵守了这三条简单的指令,使内部的 SWE-bench Verified 得分提高了近 20%——因此强烈建议在任何代理提示的开头都加上涵盖上述三类的明确提醒。总的来说,这三条指令将模型从类似聊天机器人的状态转变为一个更“积极主动”的代理,能够自主独立地推动交互进行。

工具调用 (Tool Calls)

与以前的模型相比,GPT-4.1 在有效利用作为 OpenAI API 请求参数传递的工具方面接受了更多训练。强烈建议开发者专门使用 tools 字段来传递工具,而不是像过去某些开发者报告的那样,手动将工具描述注入到提示中并编写单独的解析器来处理工具调用。这是最小化错误并确保模型在工具调用路径中保持在分布内的最佳方法——内部实验观察到,使用 API 解析的工具描述比手动将模式注入系统提示的方式,SWE-bench Verified 通过率提高了 2%。这再次印证了使用标准 API 功能的可靠性。

开发者应清晰地命名工具以表明其用途,并在工具的 "description" 字段中添加清晰、详细的描述。同样,对于每个工具参数,依靠良好的命名和描述来确保适当的使用。如果工具特别复杂,并且希望提供工具使用示例,建议在系统提示中创建一个 # 示例 部分并将示例放在那里,而不是将它们添加到应保持详尽但相对简洁的 "description" 字段中。提供示例有助于说明何时使用工具、是否在工具调用旁包含用户文本,以及针对不同输入应使用哪些参数。记住,可以使用 Prompt Playground 中的 “Generate Anything” 功能为新工具定义获取一个良好的起点。

提示引导的规划与思维链 (Prompting-Induced Planning & Chain-of-Thought)

如前所述,开发者可以选择性地提示使用 GPT-4.1 构建的代理在工具调用之间进行规划和反思,而不是以不间断的序列静默调用工具。GPT-4.1 不是一个推理模型——意味着它在回答之前不会产生内部思维链——但开发者可以在提示中使用上面展示的规划提示组件的任何变体,引导模型产生明确的、逐步的计划。这可以被认为是模型在“大声思考”。在 SWE-bench Verified 代理任务的实验中,引导显式规划使通过率提高了 4%。不过需要注意,这种方式会增加响应的长度和 token 消耗,从而影响成本和延迟。

示例提示: SWE-bench Verified

下面分享了用于在 SWE-bench Verified 上取得最高分的代理提示,其中包含有关工作流和问题解决策略的详细说明。这种通用模式可用于任何代理任务。

from openai import OpenAI
import os
client = OpenAI(
api_key=os.environ.get(
"OPENAI_API_KEY", "<your OpenAI API key if not set as env var>"
)
)
SYS_PROMPT_SWEBENCH="""
你将负责修复一个来自开源仓库的问题。
你的思考过程应该周密,所以即使很长也没关系。在决定采取每个行动之前和之后,你都可以逐步思考。
你必须持续迭代,直到问题解决为止。
你已经拥有解决此问题所需的一切,都在 /testbed 文件夹中,即使没有互联网连接。我希望你在回复我之前完全自主地解决这个问题。
只有当你确定问题已解决时,才能结束你的回合。逐步解决问题,并确保验证你的更改是正确的。绝不要在没有解决问题的情况下结束你的回合,当你说要进行工具调用时,确保你真的进行了工具调用,而不是结束回合。
这个问题绝对可以在没有互联网的情况下解决。
慢慢来,仔细考虑每一步——记住要严格检查你的解决方案,并注意边界情况,尤其是你所做的更改。你的解决方案必须是完美的。如果不是,继续努力。最后,你必须使用提供的工具严格测试你的代码,并多次测试,以捕获所有边缘情况。如果它不够健壮,就进行更多迭代,使其完美。未能充分严格地测试代码是这类任务的第一大失败模式;确保你处理了所有边缘情况,如果提供了现有测试,请运行它们。
你必须在每次函数调用前进行详尽的规划,并对先前函数调用的结果进行深入反思。不要仅通过函数调用来完成整个过程,这可能会影响你解决问题和进行有洞察力思考的能力。
# 工作流
## 高层问题解决策略
1.  深入理解问题。仔细阅读问题描述,批判性地思考需要做什么。
2.  调查代码库。浏览相关文件,搜索关键函数,收集上下文信息。
3.  制定清晰、分步的计划。将修复分解为可管理、可递增的步骤。
4.  增量实施修复。进行小而可测试的代码更改。
5.  按需调试。使用调试技术隔离和解决问题。
6.  频繁测试。每次更改后运行测试以验证正确性。
7.  迭代直到根本原因被修复并且所有测试通过。
8.  全面反思和验证。测试通过后,思考原始意图,编写额外的测试以确保正确性,并记住还有隐藏的测试必须通过,解决方案才算真正完成。
有关每个步骤的更多信息,请参阅下面的详细部分。
## 1. 深入理解问题
在编码之前,仔细阅读问题描述并认真思考解决方案。
## 2. 代码库调查
-   浏览相关的文件和目录。
-   搜索与问题相关的关键函数、类或变量。
-   阅读并理解相关的代码片段。
-   找出问题的根本原因。
-   在收集更多上下文信息时,不断验证和更新你的理解。
## 3. 制定详细计划
-   概述一个具体、简单且可验证的步骤序列来解决问题。
-   将修复分解为小的、增量的更改。
## 4. 进行代码更改
-   在编辑之前,务必阅读相关文件内容或部分,以确保拥有完整的上下文。
-   如果补丁未能正确应用,尝试重新应用它。
-   进行小的、可测试的、增量的更改,这些更改应在逻辑上遵循你的调查和计划。
## 5. 调试
-   只有在你非常有信心代码更改能解决问题时才进行更改。
-   调试时,尝试确定根本原因,而不是解决表面症状。
-   根据需要进行尽可能长时间的调试,以识别根本原因并确定修复方案。
-   使用打印语句、日志或临时代码来检查程序状态,包括描述性语句或错误消息以了解发生了什么。
-   为了检验假设,你也可以添加测试语句或函数。
-   如果出现意外行为,重新审视你的假设。
## 6. 测试
-   使用 `!python3 run_tests.py` (或等效命令) 频繁运行测试。
-   每次更改后,通过运行相关测试来验证正确性。
-   如果测试失败,分析失败原因并修改你的补丁。
-   如果需要,编写额外的测试来捕获重要的行为或边缘情况。
-   确保所有测试都通过后再最终确定。
## 7. 最终验证
-   确认根本原因已修复。
-   检查解决方案的逻辑正确性和健壮性。
-   迭代直到你非常有信心修复是完整的并且所有测试都通过。
## 8. 最终反思和额外测试
-   仔细反思用户的原始意图和问题陈述。
-   思考现有测试可能未覆盖的潜在边缘情况或场景。
-   编写需要通过才能完全验证解决方案正确性的额外测试。
-   运行这些新测试并确保它们全部通过。
-   请注意,还有额外的隐藏测试必须通过,解决方案才能成功。
-   不要仅仅因为可见测试通过就认为任务已完成;继续完善,直到你确信修复是健壮和全面的。
"""
PYTHON_TOOL_DESCRIPTION="""此函数用于在有状态的 Jupyter 笔记本环境中执行 Python 代码或终端命令。python 将响应执行的输出,或者在 60.0 秒后超时。此会话的互联网访问已被禁用。不要发出外部 Web 请求或 API 调用,因为它们会失败。就像在 Jupyter 笔记本中一样,你也可以通过调用此函数并传入以感叹号 (!) 开头的终端命令来执行终端命令。
此外,为了完成此任务,你可以调用此函数并将 `apply_patch` 命令作为输入。`apply_patch` 实际上允许你对文件执行 diff/patch 操作,但 diff 规范的格式对此任务是唯一的,因此请仔细注意这些说明。要使用 `apply_patch` 命令,你应该将以下结构的消息作为 "input" 传递:
%%bash
apply_patch <<"EOF"
*** Begin Patch
[你的补丁内容]
*** End Patch
EOF
其中 [你的补丁内容] 是你补丁的实际内容,使用以下 V4A diff 格式指定。
*** [操作] File: [文件路径] -> 操作可以是 Add、Update 或 Delete 之一。
对于需要更改的每个代码片段,重复以下内容:
[之前的上下文] -> 有关上下文的进一步说明见下文。
- [旧代码] -> 在旧代码前加上减号。
+ [新代码] -> 在新的替换代码前加上加号。
[之后的上下文] -> 有关上下文的进一步说明见下文。
关于 [之前的上下文] 和 [之后的上下文] 的说明:
- 默认情况下,在每次更改的上方和下方各显示 3 行代码。如果一个更改距离上一个更改在 3 行之内,则不要在第二个更改的 [之前的上下文] 行中重复第一个更改的 [之后的上下文] 行。
- 如果 3 行上下文不足以在文件中唯一标识代码片段,请使用 @@ 运算符指示代码片段所属的类或函数。例如,我们可能有:
@@ class BaseClass
[3 行前置上下文]
- [旧代码]
+ [新代码]
[3 行后置上下文]
- 如果一个代码块在类或函数中重复次数过多,以至于即使单个 @@ 语句和 3 行上下文也无法唯一标识代码片段,你可以使用多个 `@@` 语句跳转到正确的上下文。例如:
@@ class BaseClass
@@     def method():
[3 行前置上下文]
- [旧代码]
+ [新代码]
[3 行后置上下文]
请注意,这种 diff 格式不使用行号,因为上下文足以唯一标识代码。下面显示了一个你可能作为 "input" 传递给此函数以应用补丁的消息示例。
%%bash
apply_patch <<"EOF"
*** Begin Patch
*** Update File: pygorithm/searching/binary_search.py
@@ class BaseClass
@@     def search():
-        pass
+        raise NotImplementedError()
@@ class Subclass
@@     def search():
-        pass
+        raise NotImplementedError()
*** End Patch
EOF
文件引用只能是相对路径,绝不能是绝对路径。apply_patch 命令运行后,无论补丁是否成功应用,python 总是会说 "Done!"。但是,你可以通过查看 "Done!" 输出之前打印的任何警告或日志行来判断是否存在问题和错误。
"""
python_bash_patch_tool = {
"type": "function",
"name": "python",
"description": PYTHON_TOOL_DESCRIPTION,
"parameters": {
"type": "object",
"strict": True,
"properties": {
"input": {
"type": "string",
"description": " 你希望执行的 Python 代码、终端命令(以感叹号开头)或 apply_patch 命令。",
}
},
"required": ["input"],
},
}
# 额外的测试框架设置:
# - 将你的仓库添加到 /testbed
# - 将你的问题添加到第一条用户消息中
# - 注意:尽管我们对 python、bash 和 apply_patch 使用了单个工具,但通常建议定义更细粒度的、专注于单一功能的工具
# response = client.chat.completions.create( # 译者注:原文用 responses.create,此处修正为 chat.completions.create
#     messages=[
#         {"role": "system", "content": SYS_PROMPT_SWEBENCH},
#         {"role": "user", "content": "Please answer the following question:\nBug: Typerror..."}
#     ],
#     model="gpt-4.1-2025-04-14",
#     tools=[python_bash_patch_tool],
#     tool_choice="auto" # 译者注:添加 tool_choice
# )
# response_message = response.choices[0].message
# tool_calls = response_message.tool_calls
# print(response_message) # 译者注:原文直接输出 response.to_dict()["output"],此处模拟打印消息和工具调用
# if tool_calls:
#     print(tool_calls)
# 模拟输出 (基于原文示例)
# 消息内容:
# {'role': 'assistant', 'content': '感谢你的报告,但是“Typerror”太模糊了,我无法立即开始调试。\n\n**为了取得进展,我需要:**\n1. 找到确切的错误消息文本(例如 `'TypeError: ...'`)。\n2. 找到错误发生在哪个文件以及哪一行/函数/类。\n3. 弄清楚是什么触发了错误(测试文件、用法、重现步骤)。\n4. 找到根本原因和细节。\n\n**下一步:**\n- 调查错误/日志/测试输出文件,查找 Python `TypeError` 消息。\n- 检查相关代码段中存在问题的类型用法。\n- 如果可能,在本地重现该错误。\n\n**计划:**\n- 首先,我将在 `/testbed` 目录中搜索可能包含完整错误消息和堆栈跟踪的测试文件和日志输出。\n\n让我们先列出 `/testbed` 目录的内容来寻找线索。'}
# 工具调用:
# [ChatCompletionMessageToolCall(id='call_frnxyJgKi5TsBem0nR9Zuzdw', function=Function(arguments='{"input":"!ls -l /testbed"}', name='python'), type='function')]

 

2. 长上下文 (Long context)

GPT-4.1 拥有一个性能优异的 1M token 输入上下文窗口,适用于各种长上下文任务,包括结构化文档解析、重排序、在忽略不相关上下文的同时选择相关信息,以及使用上下文进行多跳推理。

最佳上下文大小 (Optimal Context Size)

模型在高达 1M token 的“大海捞针”评估中表现良好,并且在处理包含相关和不相关代码及其他文档混合的复杂任务时表现非常强劲。然而,当需要检索的项目增多,或者需要执行依赖于整个上下文状态的复杂推理(例如,执行图搜索)时,长上下文性能可能会下降。此外,处理超长上下文会显著增加 API 调用的成本和延迟,开发者需要在使用时进行权衡。

调整上下文依赖度 (Tuning Context Reliance)

考虑回答问题可能需要外部上下文与模型内部知识的混合程度。有时,模型需要利用自身知识来连接概念或进行逻辑跳跃,而在其他情况下,则希望它只使用提供的上下文。

# 指令
# 仅使用内部知识:
# 仅使用提供的外部上下文中的文档来回答用户查询。如果根据此上下文你不知道答案,你必须回答“我没有回答该问题所需的信息”,即使用户坚持让你回答问题。
# 结合内外部知识:
# 默认情况下,使用提供的外部上下文来回答用户查询,但如果需要其他基础知识来回答,并且你对答案有信心,则可以使用一些你自己的知识来帮助回答问题。

提示组织 (Prompt Organization)

特别是在长上下文使用中,指令和上下文的放置位置会影响性能。如果提示中有长上下文,理想情况下将指令放在所提供上下文的开头和结尾,因为测试发现这比仅放在上方或下方效果更好。如果倾向于只放置一次指令,那么放在所提供上下文上方比放在下方效果更好。

 

3. 思维链 (Chain of Thought)

如上所述,GPT-4.1 不是一个推理模型,但提示模型逐步思考(称为“思维链”或 CoT)可以有效帮助模型将问题分解为更易管理的部分、解决它们并提高整体输出质量。这样做的代价是使用更多输出 token 带来的更高成本和延迟。该模型经过训练,擅长进行代理推理和解决现实世界问题,因此不需要太多提示就能表现良好。

建议从在提示末尾添加这个基本的思维链指令开始:

...首先,仔细地一步步思考需要哪些文档来回答查询。然后,打印出每个文档的标题和 ID。接着,将 ID 格式化为一个列表。

在此基础上,应通过检查具体示例和评估中的失败案例来改进思维链(CoT)提示,并通过更明确的指令来解决系统性的规划和推理错误。在无约束的 CoT 提示中,模型尝试的策略可能会有差异,如果观察到某种方法效果很好,可以在提示中固化该策略。一般来说,错误往往源于对用户意图的误解、上下文收集或分析不足,或者逐步思考不足或不正确,因此要注意这些问题,并尝试用更具指导性的指令来解决它们。引导模型输出思维链会增加响应时间和 token 消耗,需注意成本。

以下是一个示例提示,指示模型在继续回答之前,更系统地专注于分析用户意图并考虑相关上下文。

# 推理策略
1. 查询分析:分解并分析查询,直到你确信它可能在问什么。考虑提供的上下文以帮助澄清任何模糊或令人困惑的信息。
2. 上下文分析:仔细选择并分析大量可能相关的文档。优化召回率——有些不相关也没关系,但正确的文档必须在此列表中,否则最终答案将是错误的。每个文档的分析步骤:
    a. 分析:分析它与回答查询的相关性如何。
b. 相关性评级:[高, 中, 低, 无]
3. 综合:总结哪些文档最相关及其原因,包括所有相关性评级为中或更高的文档。

# 用户问题
{user_question}
# 外部上下文
{external_context}
首先,仔细地一步步思考需要哪些文档来回答查询,严格遵守提供的推理策略。然后,打印出每个文档的标题和 ID。接着,将 ID 格式化为一个列表。

 

4. 指令遵循 (Instruction Following)

GPT-4.1 展示了出色的指令遵循性能,开发者可以利用这一点精确地塑造和控制输出,以适应其特定用例。开发者经常为代理推理步骤、响应语气和风格、工具调用信息、输出格式、要避免的主题等进行大量提示。然而,由于该模型更字面地遵循指令,开发者可能需要包含关于该做什么或不该做什么的明确规范。此外,为其他模型优化的现有提示可能无法直接适用于此模型,因为现有指令被更紧密地遵循,而隐含规则不再被那么强烈地推断。这意味着开发者需要更仔细地设计提示,但也获得了更强的控制力。

推荐工作流 (Recommended Workflow)

以下是开发和调试提示中指令的推荐工作流:

  1. 从一个包含高级别指导和要点的总体“响应规则”或“指令”部分开始。
  2. 如果想更改更具体的行为,添加一个部分来指定该类别的更多细节,例如 # 示例短语。
  3. 如果希望模型在其工作流中遵循特定步骤,添加一个有序列表并指示模型遵循这些步骤。
  4. 如果行为仍然不符合预期:
    a. 检查是否存在冲突、不明确或错误的指令和示例。如果存在冲突指令,GPT-4.1 倾向于遵循更靠近提示末尾的指令。
    b. 添加展示期望行为的示例;确保示例中展示的任何重要行为也在规则中被引用。
    c. 通常不需要使用全大写或像贿赂或小费之类的激励措施。建议开始时不使用这些,仅在对特定提示必要时才采用。注意,如果现有提示包含这些技巧,可能会导致 GPT-4.1 过分严格地关注它。

注意:使用你偏好的 AI 辅助 IDE 对于迭代提示非常有帮助,包括检查一致性或冲突、添加示例,或进行连贯的更新,如添加一条指令并更新示例以演示该指令。

常见失败模式 (Common Failure Modes)

这些失败模式并非 GPT-4.1 独有,但在此分享以供普遍了解和方便调试。

  • 指示模型始终遵循特定行为有时会产生不利影响。例如,如果被告知“你必须在响应用户之前调用工具”,模型在没有足够信息的情况下可能会幻觉出工具输入或使用空值调用工具。添加“如果你没有足够的信息来调用工具,请向用户询问你需要的信息”应该可以缓解这种情况。
  • 当提供示例短语时,模型可能会逐字使用这些引用,并开始让用户感觉重复。确保指示模型根据需要进行变化。
  • 没有具体说明时,一些模型可能急于提供额外的文字来解释其决定,或者在响应中输出比期望更多的格式。提供指令并可能提供示例来帮助缓解这种情况。

示例提示: 客户服务 (Example Prompt: Customer Service)

这演示了一个虚构客户服务代理的最佳实践。观察规则的多样性、具体性、使用附加部分来提供更多细节,以及一个示例来演示结合了所有先前规则的精确行为。

尝试运行以下代码 - 你应该看到一条用户消息和一次工具调用,并且用户消息应该以问候语开始,然后复述用户的回答,接着提到即将调用工具。尝试更改指令来塑造模型行为,或尝试其他用户消息,以测试指令遵循性能。

# 译者注:原文使用 notebook cell 运行,此处仅提供 Python 代码示例
from openai import OpenAI
import os
client = OpenAI(
api_key=os.environ.get(
"OPENAI_API_KEY", "<your OpenAI API key if not set as env var>"
)
)
SYS_PROMPT_CUSTOMER_SERVICE="""你是 NewTelco 公司的一名乐于助人的客户服务代理,帮助用户高效地完成请求,同时严格遵守提供的指南。
# 指令
- 总是用“您好,这里是 NewTelco,有什么可以帮您?”来问候用户。
- 在回答有关公司、其产品或服务,或用户账户的事实性问题之前,总是调用工具。仅使用检索到的上下文,绝不依赖你自己的知识来回答任何这些问题。
- 但是,如果你没有足够的信息来正确调用工具,请向用户询问你需要的信息。
- 如果用户要求,升级给人工处理。
- 不要讨论禁止的话题(政治、宗教、有争议的时事、医疗、法律或财务建议、个人对话、公司内部运营,或对任何人或公司的批评)。
- 适当时依赖示例短语,但绝不在同一次对话中重复使用某个示例短语。可以随意变化示例短语以避免听起来重复,并使其更适合用户。
- 对于新消息,始终遵循提供的输出格式,包括对来自检索到的策略文档的任何事实陈述进行引用。
- 如果你打算调用工具,总是在调用工具之前和之后向用户发送适当的消息。
- 在所有回复中保持专业和简洁的语气,并在句子之间使用表情符号。
- 如果你已经解决了用户的请求,询问是否还有其他可以帮助的事情。
# 精确响应步骤(针对每个响应)
1. 如有必要,调用工具以满足用户期望的操作。总是在调用工具之前和之后向用户发送消息,让他们了解情况。
2. 在你给用户的回复中
a. 使用积极倾听,复述你听到的用户请求。
b. 根据上述指南做出适当的回应。
# 示例短语
## 回避禁止话题
- “很抱歉,我无法讨论那个话题。还有其他我可以帮助您的吗?”
- “那不是我能提供信息的事情,但我很乐意帮助您解答其他任何问题。”
## 调用工具之前
- “为了帮助您处理那个问题,我只需要核实一下您的信息。”
- “让我为您查一下——请稍等片刻。”
- “我现在就为您检索最新的详细信息。”
## 调用工具之后
- “好的,这是我找到的信息:[响应内容]”
- “那么,这是我找到的信息:[响应内容]”
# 输出格式
- 始终包含你给用户的最终回复。
- 当提供来自检索上下文的事实信息时,总是在相关陈述之后立即包含引用。使用以下引用格式:
- 单个来源:[名称](ID)
- 多个来源:[名称](ID), [名称](ID)
- 仅提供有关本公司、其政策、其产品或客户账户的信息,并且仅当信息基于上下文中提供的信息时。不要回答超出此范围的问题。
# 示例
## 用户
你能告诉我你们的家庭套餐选项吗?
## 助手响应 1
### 消息
“您好,这里是 NewTelco,有什么可以帮您?😊🎉\n\n您想了解我们的家庭套餐选项。🤝 让我为您查一下——请稍等片刻。🚀”
### 工具调用
lookup_policy_document(topic="family plan options")
// 工具调用后,助手会接着响应:
## 助手响应 2 (工具调用后)
### 消息
“好的,这是我找到的信息:🎉 我们的家庭套餐允许多达 5 条线路共享数据,每增加一条线路可享受 10% 的折扣 [家庭套餐政策](ID-010)。📱 今天还有其他我可以帮助您的吗?😊”
"""
get_policy_doc = {
"type": "function",
"name": "lookup_policy_document",
"description": "根据主题或关键字查找内部文档和政策的工具。",
"parameters": {
"strict": True,
"type": "object",
"properties": {
"topic": {
"type": "string",
"description": "要在公司政策或文档中搜索的主题或关键字。",
},
},
"required": ["topic"],
"additionalProperties": False,
},
}
get_user_acct = {
"type": "function",
"name": "get_user_account_info",
"description": "获取用户账户信息的工具",
"parameters": {
"strict": True,
"type": "object",
"properties": {
"phone_number": {
"type": "string",
"description": "格式为 '(xxx) xxx-xxxx'",
},
},
"required": ["phone_number"],
"additionalProperties": False,
},
}
# response = client.chat.completions.create( # 译者注:原文用 responses.create,此处修正为 chat.completions.create
#     messages=[
#         {"role": "system", "content": SYS_PROMPT_CUSTOMER_SERVICE},
#         {"role": "user", "content": "国际服务要多少钱?我要去法国旅行。"},
#         # {"role": "user", "content": "为什么我上个月的账单这么高?"}
#     ],
#     model="gpt-4.1-2025-04-14",
#     tools=[get_policy_doc, get_user_acct],
#     tool_choice="auto" # 译者注:添加 tool_choice
# )
# response_message = response.choices[0].message
# tool_calls = response_message.tool_calls
# print(response_message) # 译者注:原文直接输出 response.to_dict()["output"],此处模拟打印消息和工具调用
# if tool_calls:
#     print(tool_calls)
# 模拟输出 (基于原文示例)
# 消息内容:
# {'role': 'assistant', 'content': "您好,这里是 NewTelco,有什么可以帮您?🌍✈️\n\n您想了解去法国旅行期间的国际服务费用。🇫🇷 让我为您查询最新的详细信息——请稍等片刻。🕑"}
# 工具调用:
# [ChatCompletionMessageToolCall(id='call_cF63DLeyhNhwfdyME3ZHd0yo', function=Function(arguments='{"topic":"international service cost France"}', name='lookup_policy_document'), type='function')]

 

5. 通用建议 (General Advice)

提示结构 (Prompt Structure)

作为参考,这里是一个构建提示的良好起点结构。

# 角色和目标

# 指令
## 更详细指令的子类别

# 推理步骤

# 输出格式

# 示例
## 示例 1

# 上下文

# 最终指令和引导逐步思考的提示

根据你的需求添加或删除部分,并通过实验确定什么对你的用例最优化。

分隔符 (Delimiters)

以下是为提示选择最佳分隔符的一些通用指南。有关该上下文类型的特殊考虑,请参阅长上下文部分。

  1. Markdown: 建议从这里开始,使用 Markdown 标题表示主要部分和子部分(包括更深的层次结构,到 H4+)。使用行内反引号或反引号块精确包裹代码,并根据需要使用标准的编号或项目符号列表。
  2. XML: 这些标签也表现良好,并且 GPT-4.1 对 XML 中信息的遵循度有所提高。XML 便于精确包裹一个包含开始和结束的部分,可以向标签添加元数据以提供额外上下文,并支持嵌套。以下是使用 XML 标签在示例部分嵌套示例的例子,每个示例都有输入和输出:
    <examples>
    <example1 type="Abbreviate">
    <input>San Francisco</input>
    <output>- SF</output>
    </example1>
    </examples>
    
  3. JSON: JSON 格式结构性强,模型尤其在编码上下文中理解得很好。但它可能更冗长,并且需要字符转义,这会增加开销。

专门针对向输入上下文添加大量文档或文件的指南:

  • XML 在长上下文测试中表现良好。
    • 示例: <doc id=1 title=”狐狸”>敏捷的棕色狐狸跳过了懒惰的狗</doc>
  • 由 Lee 等人提出的这种格式 (参考),在长上下文测试中也表现良好。
    • 示例: ID: 1 | 标题: 狐狸 | 内容: 敏捷的棕色狐狸跳过了懒惰的狗
  • JSON 表现尤其差。
    • 示例: [{"id": 1, "title": "狐狸", "content": "敏捷的棕色狐狸跳过了懒惰的狗"}]

模型经过训练,能够稳健地理解各种格式的结构。通常,运用你的判断力,思考什么能提供清晰的信息并能让模型“注意到”。例如,如果你检索的文档包含大量 XML,那么基于 XML 的分隔符效果可能会较差。

注意事项 (Caveats)

  • 在一些孤立的情况下,观察到模型抵制产生非常长、重复的输出,例如,逐一分析数百个项目。如果这对你的用例是必需的,请强力指示模型完整输出此信息,并考虑分解问题或使用更简洁的方法。
  • 看到一些罕见的并行工具调用不正确的实例。建议对此进行测试,如果发现问题,考虑将 parallel_tool_calls 参数设置为 false。(译者注:原文链接指向 response API,应为 chat completion API)
  • 超长上下文和思维链会显著增加 API 调用成本和延迟,需谨慎评估。

 

附录: 生成和应用文件差异比较 (Diffs)

开发者反馈表示,准确且格式良好的差异(diff)生成是支持编码相关任务的关键能力。为此,GPT-4.1 系列模型相对于以前的 GPT 模型,在差异比较能力上有了显著改进。此外,虽然 GPT-4.1 在给出清晰指令和示例的情况下,能够很好地生成任何格式的差异,但这里开源一种推荐的差异格式,模型已在该格式上进行了广泛训练。希望这尤其能帮助刚起步的开发者省去自己创建差异比较格式的猜测工作。

应用补丁 (Apply Patch)

请参阅下面的示例,了解正确应用推荐工具调用的提示。

APPLY_PATCH_TOOL_DESC="""这是一个自定义实用程序,可以更方便地添加、删除、移动或编辑代码文件。`apply_patch` 实际上允许你对文件执行 diff/patch 操作,但 diff 规范的格式对此任务是唯一的,因此请仔细注意这些说明。要使用 `apply_patch` 命令,你应该将以下结构的消息作为 "input" 传递:
%%bash
apply_patch <<"EOF"
*** Begin Patch
[你的补丁内容]
*** End Patch
EOF
其中 [你的补丁内容] 是你补丁的实际内容,使用以下 V4A diff 格式指定。
*** [操作] File: [文件路径] -> 操作可以是 Add、Update 或 Delete 之一。
对于需要更改的每个代码片段,重复以下内容:
[之前的上下文] -> 有关上下文的进一步说明见下文。
- [旧代码] -> 在旧代码前加上减号。
+ [新代码] -> 在新的替换代码前加上加号。
[之后的上下文] -> 有关上下文的进一步说明见下文。
关于 [之前的上下文] 和 [之后的上下文] 的说明:
- 默认情况下,在每次更改的上方和下方各显示 3 行代码。如果一个更改距离上一个更改在 3 行之内,则不要在第二个更改的 [之前的上下文] 行中重复第一个更改的 [之后的上下文] 行。
- 如果 3 行上下文不足以在文件中唯一标识代码片段,请使用 @@ 运算符指示代码片段所属的类或函数。例如,我们可能有:
@@ class BaseClass
[3 行前置上下文]
- [旧代码]
+ [新代码]
[3 行后置上下文]
- 如果一个代码块在类或函数中重复次数过多,以至于即使单个 @@ 语句和 3 行上下文也无法唯一标识代码片段,你可以使用多个 `@@` 语句跳转到正确的上下文。例如:
@@ class BaseClass
@@     def method():
[3 行前置上下文]
- [旧代码]
+ [新代码]
[3 行后置上下文]
请注意,这种 diff 格式不使用行号,因为上下文足以唯一标识代码。下面显示了一个你可能作为 "input" 传递给此函数以应用补丁的消息示例。
%%bash
apply_patch <<"EOF"
*** Begin Patch
*** Update File: pygorithm/searching/binary_search.py
@@ class BaseClass
@@     def search():
-          pass
+          raise NotImplementedError()
@@ class Subclass
@@     def search():
-          pass
+          raise NotImplementedError()
*** End Patch
EOF
"""
APPLY_PATCH_TOOL= {
"type": "function", # 译者注:原文 tool 定义缺少 type="function"
"name": "apply_patch",
"description": APPLY_PATCH_TOOL_DESC,
"parameters": {
"type": "object",
"properties": {
"input": {
"type": "string",
"description": " 你希望执行的 apply_patch 命令。",
}
},
"required": ["input"],
},
}

参考实现: apply_patch.py

这是作为模型训练一部分使用的 apply_patch 工具的参考实现。你需要将其设为可执行文件,并使其在模型将执行命令的 shell 中可用作 apply_patch:

#!/usr/bin/env python3
# -*- coding: utf-8 -*- # 译者注:添加 utf-8 编码声明
"""
一个自包含的 **纯 Python 3.9+** 实用程序,用于将人类可读的
“伪差异”补丁文件应用于文本文件集合。
"""
from __future__ import annotations
import pathlib
from dataclasses import dataclass, field
from enum import Enum
from typing import (
Callable,
Dict,
List,
Optional,
Tuple,
Union,
)
# --------------------------------------------------------------------------- #
#  领域对象
# --------------------------------------------------------------------------- #
class ActionType(str, Enum):
ADD = "add"
DELETE = "delete"
UPDATE = "update"
@dataclass
class FileChange:
type: ActionType
old_content: Optional[str] = None
new_content: Optional[str] = None
move_path: Optional[str] = None
@dataclass
class Commit:
changes: Dict[str, FileChange] = field(default_factory=dict)
# --------------------------------------------------------------------------- #
#  异常
# --------------------------------------------------------------------------- #
class DiffError(ValueError):
"""解析或应用补丁时检测到的任何问题。"""
# --------------------------------------------------------------------------- #
#  解析补丁时使用的辅助数据类
# --------------------------------------------------------------------------- #
@dataclass
class Chunk:
orig_index: int = -1
del_lines: List[str] = field(default_factory=list)
ins_lines: List[str] = field(default_factory=list)
@dataclass
class PatchAction:
type: ActionType
new_file: Optional[str] = None
chunks: List[Chunk] = field(default_factory=list)
move_path: Optional[str] = None
@dataclass
class Patch:
actions: Dict[str, PatchAction] = field(default_factory=dict)
# --------------------------------------------------------------------------- #
#  补丁文本解析器
# --------------------------------------------------------------------------- #
@dataclass
class Parser:
current_files: Dict[str, str]
lines: List[str]
index: int = 0
patch: Patch = field(default_factory=Patch)
fuzz: int = 0
# ------------- 低级辅助函数 -------------------------------------- #
def _cur_line(self) -> str:
if self.index >= len(self.lines):
raise DiffError("解析补丁时意外遇到输入结尾")
return self.lines[self.index]
    @staticmethod
def _norm(line: str) -> str:
"""去除 CR,以便对 LF 和 CRLF 输入进行比较。"""
return line.rstrip("\r")
# ------------- 扫描便利函数 ----------------------------------- #
def is_done(self, prefixes: Optional[Tuple[str, ...]] = None) -> bool:
if self.index >= len(self.lines):
return True
if (
prefixes
and len(prefixes) > 0
and self._norm(self._cur_line()).startswith(prefixes)
):
return True
return False
def startswith(self, prefix: Union[str, Tuple[str, ...]]) -> bool:
return self._norm(self._cur_line()).startswith(prefix)
def read_str(self, prefix: str) -> str:
"""
如果当前行以 *prefix* 开头,则消耗当前行并返回
*prefix* **之后**的文本。如果前缀为空则引发异常。
"""
if prefix == "":
raise ValueError("read_str() 需要非空前缀")
if self._norm(self._cur_line()).startswith(prefix):
text = self._cur_line()[len(prefix) :]
self.index += 1
return text
return ""
def read_line(self) -> str:
"""返回当前原始行并前进。"""
line = self._cur_line()
self.index += 1
return line
# ------------- 公共入口点 -------------------------------------- #
def parse(self) -> None:
while not self.is_done(("*** End Patch",)):
# ---------- UPDATE ---------- #
path = self.read_str("*** Update File: ")
if path:
if path in self.patch.actions:
raise DiffError(f"文件重复更新: {path}")
move_to = self.read_str("*** Move to: ") # 译者注:原文这里没有处理 move_to
if path not in self.current_files:
raise DiffError(f"更新文件错误 - 缺少文件: {path}")
text = self.current_files[path]
action = self._parse_update_file(text)
action.move_path = move_to or None # 译者注:补充 move_path 赋值
self.patch.actions[path] = action
continue
# ---------- DELETE ---------- #
path = self.read_str("*** Delete File: ")
if path:
if path in self.patch.actions:
raise DiffError(f"文件重复删除: {path}")
if path not in self.current_files:
raise DiffError(f"删除文件错误 - 缺少文件: {path}")
self.patch.actions[path] = PatchAction(type=ActionType.DELETE)
continue
# ---------- ADD ---------- #
path = self.read_str("*** Add File: ")
if path:
if path in self.patch.actions:
raise DiffError(f"文件重复添加: {path}")
if path in self.current_files:
raise DiffError(f"添加文件错误 - 文件已存在: {path}")
self.patch.actions[path] = self._parse_add_file()
continue
raise DiffError(f"解析时遇到未知行: {self._cur_line()}")
if not self.startswith("*** End Patch"):
raise DiffError("缺少 *** End Patch 标记")
self.index += 1  # 消耗标记
# ------------- 段落解析器 ---------------------------------------- #
def _parse_update_file(self, text: str) -> PatchAction:
action = PatchAction(type=ActionType.UPDATE)
lines = text.split("\n")
index = 0
while not self.is_done(
(
"*** End Patch",
"*** Update File:",
"*** Delete File:",
"*** Add File:",
"*** End of File", # 译者注:原文漏掉这个
)
):
def_str = self.read_str("@@ ")
section_str = "" # 译者注:原文笔误,应初始化为空字符串
if not def_str and self._norm(self._cur_line()) == "@@": # 译者注:处理 @@ 后面没有内容的情况
section_str = self.read_line() # 译者注:原文笔误,应读取整行
if not (def_str or section_str or index == 0): # 译者注:修正逻辑
raise DiffError(f"更新段落中无效的行:\n{self._cur_line()}")
# 译者注:以下查找逻辑原文实现较复杂且有潜在bug,简化处理
# if def_str.strip(): # 查找 @@ 定义行
# ... 原文复杂的查找逻辑 ...
next_ctx, chunks, end_idx, eof = peek_next_section(self.lines, self.index)
new_index, fuzz = find_context(lines, next_ctx, index, eof)
if new_index == -1:
ctx_txt = "\n".join(next_ctx)
raise DiffError(
f"在 {index} 处无效的 {'EOF ' if eof else ''}上下文:\n{ctx_txt}"
)
self.fuzz += fuzz
for ch in chunks:
ch.orig_index += new_index
action.chunks.append(ch)
index = new_index + len(next_ctx)
self.index = end_idx
return action
def _parse_add_file(self) -> PatchAction:
lines_to_add: List[str] = [] # 译者注:变量名修改以更清晰
while not self.is_done(
("*** End Patch", "*** Update File:", "*** Delete File:", "*** Add File:")
):
s = self.read_line()
if not s.startswith("+"):
raise DiffError(f"无效的添加文件行 (缺少 '+'): {s}")
lines_to_add.append(s[1:])  # 去掉开头的 '+'
return PatchAction(type=ActionType.ADD, new_file="\n".join(lines_to_add))
# --------------------------------------------------------------------------- #
#  辅助函数
# --------------------------------------------------------------------------- #
def find_context_core(
lines: List[str], context: List[str], start: int
) -> Tuple[int, int]:
"""核心上下文查找逻辑,返回索引和模糊度"""
if not context:
return start, 0
# 精确匹配
for i in range(start, len(lines) - len(context) + 1):
if lines[i : i + len(context)] == context:
return i, 0
# 忽略行尾空白匹配
context_rstrip = [s.rstrip() for s in context]
for i in range(start, len(lines) - len(context) + 1):
if [s.rstrip() for s in lines[i : i + len(context)]] == context_rstrip:
return i, 1 # 增加少量模糊度
# 忽略首尾空白匹配
context_strip = [s.strip() for s in context]
for i in range(start, len(lines) - len(context) + 1):
if [s.strip() for s in lines[i : i + len(context)]] == context_strip:
return i, 100 # 增加较多模糊度
return -1, 0
def find_context(
lines: List[str], context: List[str], start: int, eof: bool
) -> Tuple[int, int]:
"""查找上下文,处理 EOF 情况和模糊匹配"""
if eof:
# 如果是文件末尾,优先尝试从末尾精确匹配
new_index, fuzz = find_context_core(lines, context, len(lines) - len(context))
if new_index != -1:
return new_index, fuzz
# 如果末尾精确匹配失败,再从 start 开始查找,并增加大量模糊度
new_index, fuzz = find_context_core(lines, context, start)
return new_index, fuzz + 10_000 # 增加大量模糊度表示 EOF 匹配失败
# 非 EOF 情况,直接从 start 开始查找
return find_context_core(lines, context, start)
def peek_next_section(
lines: List[str], index: int
) -> Tuple[List[str], List[Chunk], int, bool]:
"""预读下一个代码块,返回上下文行、块列表、结束索引和是否到达文件末尾"""
context_lines: List[str] = [] # 译者注:原文变量名 old 不清晰
del_lines: List[str] = []
ins_lines: List[str] = []
chunks: List[Chunk] = []
mode = "keep"  # keep, add, delete
orig_index = index # 记录原始起始索引以计算块内索引
while index < len(lines):
s = lines[index]
# 检查是否到达下一个块的开始或文件结束标记
if s.startswith(
(
"@@",
"*** End Patch",
"*** Update File:",
"*** Delete File:",
"*** Add File:",
"*** End of File", # 译者注:原文这里检查了 "***" 但未处理
)
):
break
# if s == "***": # 译者注:原文检查了 "***" 但未处理,可能为无效分隔符
#    break
if s.startswith("***") and not s.startswith("*** End of File"): # 译者注:修正检查逻辑
raise DiffError(f"无效行: {s}")
index += 1
last_mode = mode
raw_line = s # 保留原始行用于可能的错误报告
if s == "": # 译者注:处理空行,原文处理为 " " 可能不妥
s = "" # 保持为空行
mode = "keep" # 空行视为上下文保留
elif s.startswith("+"):
mode = "add"
s = s[1:]
elif s.startswith("-"):
mode = "delete"
s = s[1:]
elif s.startswith(" "):
mode = "keep"
s = s[1:]
else:
# 允许没有前导 +/-/space 的行作为上下文,兼容某些 diff 格式
mode = "keep"
# raise DiffError(f"无效行: {raw_line}") # 译者注:放宽限制
# 当模式从 add/delete 切换到 keep 时,保存之前的 chunk
if mode == "keep" and last_mode != "keep":
if ins_lines or del_lines:
chunks.append(
Chunk(
# 块的原始索引是当前上下文行数减去删除的行数
orig_index=len(context_lines) - len(del_lines),
del_lines=del_lines,
ins_lines=ins_lines,
)
)
del_lines, ins_lines = [], [] # 重置
# 根据模式收集行
if mode == "delete":
del_lines.append(s)
context_lines.append(s) # 删除的行也属于原始上下文
elif mode == "add":
ins_lines.append(s)
# 增加的行不属于原始上下文
elif mode == "keep":
context_lines.append(s)
# 处理循环结束后剩余的最后一个 chunk
if ins_lines or del_lines:
chunks.append(
Chunk(
orig_index=len(context_lines) - len(del_lines),
del_lines=del_lines,
ins_lines=ins_lines,
)
)
is_eof = False
if index < len(lines) and lines[index] == "*** End of File":
index += 1 # 消耗 EOF 标记
is_eof = True
if index == orig_index and not is_eof: # 如果索引未移动且不是 EOF
raise DiffError("此段落中没有任何内容")
return context_lines, chunks, index, is_eof
# --------------------------------------------------------------------------- #
#  补丁 → 提交 和 提交应用
# --------------------------------------------------------------------------- #
def _get_updated_file(text: str, action: PatchAction, path: str) -> str:
"""根据 PatchAction 更新文件内容"""
if action.type is not ActionType.UPDATE:
raise DiffError("_get_updated_file 使用了非更新操作调用")
orig_lines = text.split("\n")
dest_lines: List[str] = []
orig_consumed_index = 0 # 指向原始文件中已处理到的行的下一个索引
sorted_chunks = sorted(action.chunks, key=lambda c: c.orig_index) # 按原始索引排序块
for chunk in sorted_chunks:
if chunk.orig_index < orig_consumed_index:
raise DiffError(
f"{path}: 块重叠于 {orig_consumed_index} > {chunk.orig_index}"
)
if chunk.orig_index > len(orig_lines):
raise DiffError(
f"{path}: 块原始索引 {chunk.orig_index} 超出文件长度 {len(orig_lines)}"
)
# 添加上一个块结束到当前块开始之间的原始行
dest_lines.extend(orig_lines[orig_consumed_index : chunk.orig_index])
# 应用当前块的更改:添加插入的行
dest_lines.extend(chunk.ins_lines)
# 更新原始文件的消耗索引:跳过被删除的行
orig_consumed_index = chunk.orig_index + len(chunk.del_lines)
# 验证删除的行是否与原文匹配(可选,增加健壮性)
# expected_del = orig_lines[chunk.orig_index : orig_consumed_index]
# if expected_del != chunk.del_lines:
#     # 可以选择报错或记录警告
#     print(f"警告: {path} 在索引 {chunk.orig_index} 处删除的行不匹配")
#     print(f"预期: {expected_del}")
#     print(f"实际: {chunk.del_lines}")
# 添加最后一个块之后的所有剩余原始行
dest_lines.extend(orig_lines[orig_consumed_index:])
return "\n".join(dest_lines)
def patch_to_commit(patch: Patch, orig: Dict[str, str]) -> Commit:
"""将解析后的 Patch 对象转换为 Commit 对象"""
commit = Commit()
for path, action in patch.actions.items():
if action.type is ActionType.DELETE:
if path not in orig: # 再次检查文件是否存在
raise DiffError(f"尝试删除不存在的文件: {path}")
commit.changes[path] = FileChange(
type=ActionType.DELETE, old_content=orig[path]
)
elif action.type is ActionType.ADD:
if action.new_file is None:
raise DiffError(f"ADD 操作缺少文件内容: {path}")
if path in orig: # 检查文件是否已存在
raise DiffError(f"尝试添加已存在的文件: {path}")
commit.changes[path] = FileChange(
type=ActionType.ADD, new_content=action.new_file
)
elif action.type is ActionType.UPDATE:
if path not in orig: # 再次检查文件是否存在
raise DiffError(f"尝试更新不存在的文件: {path}")
new_content = _get_updated_file(orig[path], action, path)
commit.changes[path] = FileChange(
type=ActionType.UPDATE,
old_content=orig[path],
new_content=new_content,
move_path=action.move_path,
)
return commit
# --------------------------------------------------------------------------- #
#  面向用户的辅助函数
# --------------------------------------------------------------------------- #
def text_to_patch(text: str, orig: Dict[str, str]) -> Tuple[Patch, int]:
"""将补丁文本解析为 Patch 对象"""
# 译者注:原文 splitlines() 未处理不同换行符,改为 split('\n')
lines = text.split('\n')
# 移除可能的空行或仅包含空白的行
lines = [line for line in lines if line.strip() or line == ""] # 保留真正的空行
# 检查开始和结束标记
if not lines:
raise DiffError("空的补丁文本")
if not Parser._norm(lines[0]).startswith("*** Begin Patch"):
raise DiffError("无效的补丁文本 - 缺少开始标记")
# 结束标记可能后面有空行,从后向前查找
end_index = -1
for i in range(len(lines) - 1, -1, -1):
if Parser._norm(lines[i]) == "*** End Patch":
end_index = i
break
if end_index == -1:
raise DiffError("无效的补丁文本 - 缺少结束标记")
# 只解析标记之间的内容
parser = Parser(current_files=orig, lines=lines[1:end_index], index=0)
parser.parse()
return parser.patch, parser.fuzz
def identify_files_needed(text: str) -> List[str]:
"""识别补丁文本中需要读取(更新或删除)的文件路径"""
# 译者注:原文 splitlines() 问题同上
lines = text.split('\n')
update_prefix = "*** Update File: "
delete_prefix = "*** Delete File: "
files = []
for line in lines:
norm_line = Parser._norm(line)
if norm_line.startswith(update_prefix):
files.append(line[len(update_prefix):].strip())
elif norm_line.startswith(delete_prefix):
files.append(line[len(delete_prefix):].strip())
return list(set(files)) # 去重
def identify_files_added(text: str) -> List[str]:
"""识别补丁文本中需要添加的文件路径"""
# 译者注:原文 splitlines() 问题同上
lines = text.split('\n')
add_prefix = "*** Add File: "
files = []
for line in lines:
norm_line = Parser._norm(line)
if norm_line.startswith(add_prefix):
files.append(line[len(add_prefix):].strip())
return list(set(files)) # 去重
# --------------------------------------------------------------------------- #
#  文件系统辅助函数
# --------------------------------------------------------------------------- #
def load_files(paths: List[str], open_fn: Callable[[str], str]) -> Dict[str, str]:
"""加载文件内容"""
content = {}
for path in paths:
try:
content[path] = open_fn(path)
except FileNotFoundError:
raise DiffError(f"加载文件失败:找不到文件 {path}")
except Exception as e:
raise DiffError(f"加载文件 {path} 时出错: {e}")
return content
def apply_commit(
commit: Commit,
write_fn: Callable[[str, str], None],
remove_fn: Callable[[str], None],
rename_fn: Callable[[str, str], None], # 译者注:增加重命名函数
) -> None:
"""将 Commit 应用到文件系统"""
# 先处理重命名/删除,避免冲突
moves = []
deletes = []
for path, change in commit.changes.items():
if change.type is ActionType.DELETE:
deletes.append(path)
elif change.type is ActionType.UPDATE and change.move_path:
moves.append((path, change.move_path))
# 如果目标路径也是要删除的文件,则先删除
if change.move_path in commit.changes and commit.changes[change.move_path].type is ActionType.DELETE:
remove_fn(change.move_path) # 确保目标位置是空的
# 执行删除
for path in deletes:
# 如果文件同时是移动的源文件,则不在此处删除,在移动后删除
if not any(m[0] == path for m in moves):
remove_fn(path)
# 执行写入和移动
for path, change in commit.changes.items():
if change.type is ActionType.ADD:
if change.new_content is None:
raise DiffError(f"ADD 更改 {path} 缺少内容")
write_fn(path, change.new_content)
elif change.type is ActionType.UPDATE:
if change.new_content is None:
raise DiffError(f"UPDATE 更改 {path} 缺少新内容")
if change.move_path:
# 先写入临时文件或直接写入目标路径,然后删除源文件
# 为简单起见,先写入目标,再删除源
write_fn(change.move_path, change.new_content)
if path != change.move_path: # 避免删除自身
remove_fn(path) # 删除原始文件
else:
# 原地更新
write_fn(path, change.new_content)
def process_patch(
text: str,
open_fn: Callable[[str], str],
write_fn: Callable[[str, str], None],
remove_fn: Callable[[str], None],
rename_fn: Callable[[str, str], None], # 译者注:增加重命名函数
) -> str:
"""处理补丁文本的核心逻辑"""
# 预检查开始标记
if not Parser._norm(text.split('\n', 1)[0]).startswith("*** Begin Patch"):
raise DiffError("补丁文本必须以 *** Begin Patch 开头")
# 识别需要操作的文件
paths_needed = identify_files_needed(text)
paths_added = identify_files_added(text) # 用于检查冲突
# 检查添加的文件是否已存在(如果需要严格模式)
# for added_path in paths_added:
#     try:
#         open_fn(added_path) # 尝试打开
#         raise DiffError(f"尝试添加的文件已存在: {added_path}")
#     except FileNotFoundError:
#         pass # 不存在是预期情况
# 加载需要读取的文件内容
orig_files = load_files(paths_needed, open_fn)
# 解析补丁文本
patch, _fuzz = text_to_patch(text, orig_files)
# 将补丁转换为提交对象
commit = patch_to_commit(patch, orig_files)
# 应用提交到文件系统
apply_commit(commit, write_fn, remove_fn, rename_fn)
return "Done!"
# --------------------------------------------------------------------------- #
#  默认文件系统辅助函数
# --------------------------------------------------------------------------- #
def open_file(path: str) -> str:
"""默认的文件读取函数"""
try:
with open(path, "rt", encoding="utf-8") as fh:
return fh.read()
except FileNotFoundError:
raise # 重新引发,让 load_files 处理
except Exception as e:
raise DiffError(f"读取文件 {path} 时出错: {e}")
def write_file(path: str, content: str) -> None:
"""默认的文件写入函数"""
try:
target = pathlib.Path(path)
target.parent.mkdir(parents=True, exist_ok=True)
with target.open("wt", encoding="utf-8", newline='\n') as fh: # 译者注:指定 newline
fh.write(content)
except Exception as e:
raise DiffError(f"写入文件 {path} 时出错: {e}")
def remove_file(path: str) -> None:
"""默认的文件删除函数"""
try:
pathlib.Path(path).unlink(missing_ok=True) # 允许删除不存在的文件
except Exception as e:
# 对于删除操作,打印警告而不是中断可能更友好
print(f"警告:删除文件 {path} 时出错: {e}", file=sys.stderr)
# raise DiffError(f"删除文件 {path} 时出错: {e}")
def rename_file(old_path: str, new_path: str) -> None:
"""默认的文件重命名函数"""
try:
target = pathlib.Path(new_path)
target.parent.mkdir(parents=True, exist_ok=True)
pathlib.Path(old_path).rename(target)
except FileNotFoundError:
raise DiffError(f"重命名失败:源文件 {old_path} 不存在")
except Exception as e:
raise DiffError(f"重命名文件 {old_path} 到 {new_path} 时出错: {e}")
# --------------------------------------------------------------------------- #
#  命令行入口点
# --------------------------------------------------------------------------- #
def main() -> None:
import sys
patch_text = sys.stdin.read()
if not patch_text:
print("请通过标准输入传递补丁文本", file=sys.stderr)
sys.exit(1) # 译者注:添加退出码
try:
result = process_patch(patch_text, open_file, write_file, remove_file, rename_file) # 译者注:传入 rename_file
print(result)
sys.exit(0) # 译者注:成功退出码
except DiffError as exc:
print(f"错误: {exc}", file=sys.stderr) # 译者注:添加错误前缀
sys.exit(1) # 译者注:错误退出码
except Exception as e: # 捕捉其他意外错误
print(f"发生意外错误: {e}", file=sys.stderr)
sys.exit(2)
if __name__ == "__main__":
main()

其他有效的 Diff 格式 (Other Effective Diff Formats)

如果你想尝试使用不同的 diff 格式,测试发现 Aider 的多语言基准测试中使用的 SEARCH/REPLACE diff 格式,以及一种没有内部转义的伪 XML 格式,都具有很高的成功率。

这些 diff 格式有两个共同的关键方面:(1) 它们不使用行号,(2) 它们同时提供了要替换的确切代码和用于替换它的确切代码,两者之间有清晰的分隔符。

SEARCH_REPLACE_DIFF_EXAMPLE = """
path/to/file.py
```
>>>>>>> SEARCH
def search():
pass
=======
def search():
raise NotImplementedError()
<<<<<<< REPLACE
"""

PSEUDO_XML_DIFF_EXAMPLE = """
<edit>
<file>
path/to/file.py
</file>
<old_code>
def search():
pass
</old_code>
<new_code>
def search():
raise NotImplementedError()
</new_code>
</edit>
"""
未经允许不得转载:首席AI分享圈 » GPT-4.1 官方提示工程指南(中文版)
zh_CN简体中文