Anthropic 旗下模型 Claude Sonnet 4 迎来重磅升级,其上下文窗口现已支持高达 100 万令牌。
这一容量是过去的五倍,意味着单次提示就能处理整个代码库或数十篇学术论文。
不过,这项百万级窗口目前仅限于 Sonnet 模型,更强大的 Opus 模型并未同步更新。
核心要点速览
测试版特性
请注意,这仍是测试功能,未来的正式版可能会调整功能与定价,甚至取消。
用户等级门槛
百万令牌窗口并非对所有用户开放,需要达到官方使用等级 4 或拥有定制速率的组织才能使用。
当前可用平台
开发者目前可以通过 Anthropic API 和 Amazon Bedrock 使用该功能,未来也将登陆 Google Vertex AI。
定价策略
一旦请求超过 20 万令牌,将按溢价费率计费:输入端为每百万令牌 6 美元,输出端为 22.50 美元。
速率限制
为了保证服务稳定,针对长上下文的请求设置了专门的速率限制,详情需查阅官方文档。
多模态应用的考量
当同时处理大量图片或 PDF 时,文件大小会显著影响令牌消耗,需警惕超出请求大小的限制。
定价折扣叠加
值得一提的是,长上下文的溢价可以与批量 API 的五折优惠及提示词缓存的折扣叠加使用,有助于控制成本。
百万令牌意味着什么?
百万令牌究竟是多大?它相当于模型能一次性读完约 75 万个单词或 7.5 万行代码。
如此一来,模型便能轻松掌握整个项目的代码结构,追踪不同文件间的调用关系,甚至深入理解长篇技术文档,无需再将内容割裂处理。
在学术研究或法律文件审查等领域,这种能力同样关键,因为它能一次性理清多份文档间的引用脉络。
Anthropic 特别强调了有效上下文的概念,即模型能真正理解和运用的部分,而不仅仅是看到。
这对需要长时间运行的代理式编码任务来说至关重要。完整的上下文能有效防止模型在执行中跑偏,减少不必要的返工。
市场竞争中的策略
放眼整个市场,Claude 并非孤军奋战。其竞争对手包括 GPT-5 的 40 万、Gemini 2.5 Pro 的 200 万,以及 Llama 4 Scout 高达 1000 万的令牌容量。
面对参数竞赛,Anthropic 的策略并非追求最高的数字。
他们更强调在 100 万这个实用区间内的信息召回的可靠性、灵活的定价策略,以及对大型代码库和长周期智能体任务的无缝支持。
相比之下,谷歌的 Gemini Pro 和 Flash 在价格上更具优势。Gemini 2.5 Pro
在 20 万令牌以下的成本为 10,超出后为 15,极具竞争力。
开发者若想启用这一功能,只需在 API 请求中加入特定的 beta 版头信息即可:
“
anthropic-beta: context-1m-2025-08-07
从实际测试来看,Claude Sonnet 4
在处理文本分析时,速度和抑制幻觉方面通常优于 Gemini 模型。但在代码细节分析上,Gemini 的长上下文能力依然更胜一筹。
行业格局与 Anthropic 的位置
在 AI 模型商业化的赛道上,Anthropic 已经建立起庞大的企业业务版图。
其核心打法是将 Claude 模型销售给专注于编程的 AI 平台,比如微软的 GitHub Copilot、Windsurf 和 Anysphere 的 Cursor。
Claude 一度是开发者的宠儿,但 GPT-5 凭借其低成本和出色的编码能力,正成为一个不容小觑的挑战者。一个微妙的信号是,Anysphere 的 CEO 甚至亲自为 GPT-5 的发布站台,并将其设为 Cursor 新用户的默认模型。
这背后反映了 OpenAI 与 Anthropic 不同的商业模式。OpenAI 的收入主力是面向消费者的 ChatGPT 订阅,而 Anthropic 则高度依赖通过 API 向企业销售模型。
因此,留住 AI 编码平台这类大客户对 Anthropic 至关重要。在 GPT-5 步步紧逼的背景下,推出更具吸引力的功能成为必然选择。
就在上周,Anthropic 还发布了其顶级模型 Claude Opus 4.1 的升级版,进一步强化了编码能力,意图明显。
更大的上下文无疑会提升 AI 在软件开发等复杂任务中的表现。当模型能俯瞰整个应用的全貌而非冰山一角时,它生成的功能自然会更出色、更贴合需求。
Claude 的巨大窗口使其在需要长时间、自主运行的编码任务中独具优势,因为它能始终记得任务的全过程。
当然,也有其他厂商走得更远。谷歌的 Gemini 2.5 Pro
提供 200 万令牌,Meta 的 Llama 4 Scout
甚至达到 1000 万。
但一些研究也指出,上下文窗口并非越大越好。如果模型无法有效消化海量信息,超大窗口有时反而不会带来性能的提升。
参考资料:https://docs.anthropic.com/en/docs/build-with-claude/context-windows#1m-token-context-window
一键三连「点赞」「转发」「小心心」
欢迎在评论区留下你的想法!