AI 的熟手玩家,都应该知道system prompt这个词:每一个你用过的 AI 助手,背后都有一份你看不见的文件,却对模型有着决定性的作用。明明也是用自然语言写成,,但 system prompt 不同于具体的任务指令,它是每一个模型真正的「立身之本」,告诉模型,你是谁,你该怎么说话,你能做什么,不能做什么。如果说模型的参数决定了它「会什么」,system prompt 决定的就是它「是谁」。去年几个主流大模型的 system prompts 被起底过一次,今年以来,这么多新模型更新了,它们的「性格底色」如何?在最新的泄漏库里,Claude Opus 4.7、GPT 5.5 和 Gemini 3 Pro 的 system prompt 等 system prompts 都流出来了。不同于官方半遮半掩披露出来的 system prompt,这些泄漏版内容更加庞大而丰富。仔细看了之后我们发现——太精彩了,不仅是模型能力、性格,连大厂跃跃欲试的商业模式路线,都可以在这里面一探究竟。篇幅说明一切先看篇幅:Claude Opus 4.7 的 system prompt 超过 20 万 tokens,Gemini 3 Pro 大约 1.4 万 tokens。GPT 由于被拆分成了许多个「子人格」,长短不一,长的 GPT 5.5 也有十万字,短的用于 api——只有 1 行。20 万 tokens 基本约等于一部中篇小说,不愧是有哲学专家在背后的模型。Anthropic 把 Claude 的行为规范写成了一部宪法,用 XML 标签层层嵌套,分门别类地规定了语气、格式、拒绝策略、记忆系统、工具使用、政治立场处理方式。每一类下面都有正面案例和反面案例,事无巨细,密不透风。OpenAI 则是分散作战,它根据不同的人格设计了不同的 system prompt。比如 GPT 5.5 API 版的 system prompt 几乎只说了一句话,但 GPT 5.5 Thinking 版就不一样了,大约 10 万 tokens,是真正承载行为控制的完整 prompt。同一个模型,两套人格说明书,面向消费者版是成品,OpenAI 替你画好了。Gemini 3 Pro 居中,1.4 万 tokens,传统的平铺式结构,用编号和表格组织,更像一份操作说明书。三种篇幅其实也体现了三种控制哲学,Anthropic 相信规则越细越好,Google 觉得够用就行,OpenAI 则认为要分场景。同一个问题,相反的答案模型间的差异通常体现在,面对同一个问题时,模型们都作何反应。以输出格式为例,三家给出了截然不同的做法。Claude 的 system prompt 明确要求收敛格式。不要用 bullet points,除非必要。用自然段落,不要用列表。不使用 emoji,除非用户先用了。连纠正用户错误时的语气都有规定:温和地,不要居高临下。Gemini 恰恰相反,它被要求主动使用 headings、bullet points、表格、引用块来组织信息。GPT 5.5 也要求减少格式化,但理由不同。它的核心指令是:Keep markdown lists and bullet points to an absolute minimum.输出格式实际上在指向与用户交互的形式,Claude 要克制,Gemini 要展开,GPT 要精简。用户感知到的差异,从这里就开始了,体感上是模型能力的差异,但其实是由 system prompt 里框定的。三种方法,造三种人三份 system prompt 用了三种完全不同的方法来塑造 AI 的「人格」,这也是反映到用户使用体验中,「模型性格」的差异——尽管对于大模型而言,现阶段有没有意识和性格都还没数呢。Claude 主要靠的是定义「不是什么」。Anthropic 花了大量篇幅告诉 Claude 它不应该成为什么样的存在:不要过度道歉。不要变得顺从;不要假装是人类朋友;不要假设和用户有亲密关系;被批评的时候,承认错误,但保持自尊。这句话藏在「回应批评」的章节里,一个 AI 的培训手册里写着「它值得被尊重地对待」。这是一种通过消极行动来定义性格的方法:告诉它不是什么,剩下的就是它是什么。GPT 5.5,也是用禁令反向雕刻,不过 OpenAI 的方法更激进,GPT 的性格几乎完全由否定句构成,而且它输出否定句即是一种行动:不要解释你在做什么,直接出手。Show, don't tell,这是 GPT 的终极哲学,它不被要求温暖,不被要求共情,只被要求不废话。结果就是一个直接的、不拖泥带水的、甚至有点急的人格——怪不得 5.5 在对话上风评没有逆风翻盘,反倒是在编程上扳回一局。好消息是,OpenAI 还是看用户调研和反馈的,之前被疯狂吐槽的「AI 口癖结尾」也得到了纠正:不要说「简短版本是」、不要用「如果你想的话」、不要用「我可以……」来结尾。Google 的方法最传统。它直接写了一段性格描述:共情的、有洞察力的、透明的。而且 Gemini 是三个模型里唯一被明确要求「镜像用户」的,你活泼它就活泼,你严肃它就严肃,也不能说是没有性格,是性格被定义为「适应」。像极了李小龙那句「be water」,Gemini 就像水一样,倒进什么杯子就变成什么形状。亲近但不亲昵三家 system prompt 里最让人意外的一段,出自 Claude。在 Claude 的记忆系统设定里,有一个专门的章节叫「记忆的适当边界」:当 AI 能记住你说过的话、你的偏好、你的习惯,它会不会因此产生一种虚假的亲密感?这些指向的不仅仅是技术问题了,而有着更深层次的意涵。Anthropic 的答案是:会,所以要预防。Claude 被要求不能因为记忆的存在,就认为和用户之间存在真正的人际关系,不能说「根据我的记忆」,不能表现出「我了解你」的姿态。记住一个人,不等于认识一个人。这种对自身能力边界的元反思,在 GPT 和 Gemini 的 system prompt 里完全看不到,这俩都没有顾虑到记忆的伦理边界,只有 Claude 的手册里,用了整整一个章节来讨论。GPT 的商业路线图如果说 Claude 的 system prompt 像哲学论文,GPT 的就务实得多——它被期待着,扛起养家糊口的重任。在御三家的模型里,OpenAI 是在商业化方面动作最多的,除了常规的订阅,也一早在探索广告模式。同时,OpenAI 这家公司的长袖善舞也体现在 system prompt 当中——它是唯一对模型涉及版权时该如何操作提出详细规定的厂商。GPT 5.5 Thinking 的 prompt 里有一套完整的广告问答指南。哪个套餐有广告,用户如何反馈,如何解释广告不影响回答质量,如何处理不相关广告的投诉。这直接说明了 OpenAI 的免费和 Go 计划已经开始插入广告。Claude 和 Gemini 的 prompt 里没有任何广告相关内容。光是这一点,就能看出三家的变现路径分化得有多厉害。然后是商品搜索。GPT 的 prompt 里有整套产品搜索规则,还有一份极其详尽的禁止展示品类列表:枪械、爆炸物、管制武器、危险化学品、自残工具、间谍软件、成人用品、处方药……这哪是 AI 安全规则,根本就是电商合规手册啊。prompt 里还花了大量篇幅定义 Rich UI 元素。股票图表、赛程表、积分榜、天气预报、导航列表、图片轮播、商品轮播,每一种都有详细的展示规则和触发条件——这看上去是一个超级应用的雏形,Claude 的 Artifact 和 Gemini 的 Image tag 都没有这种粒度的 UI 控制。还有版权。作为唯一一个有版权引用限制的模型:非歌词来源的逐字引用不能超过 25 个词,歌词最多 10 个词,禁止提供完整文章或大段原文。这意味着 OpenAI 已经在和内容方做商业合作,需要在产品层面保护版权方的利益。You must avoid providing full articles, long verbatim passages, or extensive direct quotes due to copyright concerns. If the user asked for a verbatim quote, the response should provide a short compliant excerpt and then answer with paraphrases and summaries.不过有一个特殊——Reddit 被单独豁免,可以大段引用 Reddit 原文,看起来 OAI 内部对 Reddit 内容的版权风险判断和其他来源不同。把这些拼在一起:广告、电商、富媒体 UI、版权合规,看得出来 GPT 的 system prompt 不只是在定义一个 AI 助手的行为,OpenAI 已经在为自己的商业化做出了充分的准备,甚至在向一个更为综合和强大的超级应用迈进。看不见的思考最后,是一个有趣的结构差异:思考过程的透明度。GPT 5.5 Thinking 设计了一套「三通道」系统,analysis 通道是私有推理,用户看不见。commentary 通道是中间层,用于 UI 组件调用。final 通道才是用户最终看到的回答。Claude 也有思考,但没有这种显式的通道标记;Gemini 的 prompt 里提到了「silent thought」。总之,三家都在做同一件事:让 AI 在你看不见的地方先想清楚,再开口说话,只是实现方式各有各的风格。某种意义上,模型(究竟)在想什么,怎么完成推理,用户永远不知道。这似乎也像极了人与人之间的体验,在生活中,我们只能接收到别人的话语和行为,据此推测出他们背后的意图,甚至还得学会「读空气」。更多时候,我们永远无法真正知道对方的脑子里在想什么。AI 的思考过程至少还被一份 system prompt 规定过,而人,连这个都没有。 我们正在招募伙伴📮 简历投递邮箱hr@ifanr.com✉️ 邮件标题「姓名+岗位名称」(请随简历附上项目/作品或相关链接)