编者按:在 GPT-5 发布后,市场反响却褒贬不一。为回应外界的疑虑并帮助用户释放其真实潜力,OpenAI 迅速发布了这份官方高级提示词指南。
请在此处阅读官方指南:https://cookbook.openai.com/examples/gpt-5/gpt-5_prompting_guide
两大主题
控制 GPT-5 的主动性:可选择让它成为一个谨慎的助手,或是一个果断的智能体。 使用 Responses API:跨工具调用传递推理过程,以获得更快、更便宜、更智能的结果。


提示指导
将大型工作流拆分为多个独立的步骤,每个任务对应一次交互。 使用元提示,即请求 GPT-5 告知如何以最精简的方式改进效果不佳的提示。 添加一个兜底条款 (escape clause),允许模型在不确定性可接受的情况下继续执行。 仅在用户界面 (UI) 需要层级格式时,才在提示中要求输出 Markdown 结构。 定义安全与不安全的操作,并为诸如“删除”之类的高风险工具设置更低的操作阈值。 提供了多种控制智能体主动性的方法:通过调整 reasoning_effort
参数、增加停止标准,甚至限制工具调用次数,可以让 GPT-5 变得更加谨慎或更加执着。为每个任务调整 reasoning_effort
参数,对复杂任务应调高该值,对追求速度的任务则应调低。升级到 Responses API,以便在多次工具调用之间持久化推理过程。 传递 previous_response_id
参数来复用过去的思考过程,从而减少延迟。通过为探索、停止和移交等行为设定明确规则,来校准智能体的主动性。 当你希望对搜索行为进行严格控制时,请设置固定的工具调用预算。 保持智能体的持久性,让它持续工作,直到查询被完全解决。 状态文本应保持简短,而代码差异的输出则应详尽且易于阅读。 在运行前,移除所有相互矛盾的指令,并修正规则的层级关系。 为上下文信息收集设定明确的停止标准,以避免过度搜索。 在风险较低的情况下,不鼓励模型提出澄清性问题,以增强其自主性。 对于编码任务,预先指定目录布局、设计规则和视觉标准。 对于一次性应用 (one-shot apps),让模型自行创建并使用其专属的质量评估准则。 鼓励模型主动提出代码编辑建议,用户可以选择接受或拒绝。 当模型的内部知识足以完成任务时,避免过度使用工具。 使用 apply_patch
命令进行编辑,以匹配模型的训练数据分布。
一键三连「点赞」「转发」「小心心」
欢迎在评论区留下你的想法!