Anthropic 的 Claude 现在拥有百万级 token 上下文窗口,是之前的 5 倍

智能情报所 2025-08-13 16:10

资讯配图

Anthropic 旗下模型 Claude Sonnet 4 迎来重磅升级,其上下文窗口现已支持高达 100 万令牌。

这一容量是过去的五倍,意味着单次提示就能处理整个代码库或数十篇学术论文。

不过,这项百万级窗口目前仅限于 Sonnet 模型,更强大的 Opus 模型并未同步更新。

核心要点速览

测试版特性

请注意,这仍是测试功能,未来的正式版可能会调整功能与定价,甚至取消。

用户等级门槛

百万令牌窗口并非对所有用户开放,需要达到官方使用等级 4 或拥有定制速率的组织才能使用。

当前可用平台

开发者目前可以通过 Anthropic API 和 Amazon Bedrock 使用该功能,未来也将登陆 Google Vertex AI。

定价策略

一旦请求超过 20 万令牌,将按溢价费率计费:输入端为每百万令牌 6 美元,输出端为 22.50 美元。

速率限制

为了保证服务稳定,针对长上下文的请求设置了专门的速率限制,详情需查阅官方文档。

多模态应用的考量

当同时处理大量图片或 PDF 时,文件大小会显著影响令牌消耗,需警惕超出请求大小的限制。

定价折扣叠加

值得一提的是,长上下文的溢价可以与批量 API 的五折优惠及提示词缓存的折扣叠加使用,有助于控制成本。

百万令牌意味着什么?

百万令牌究竟是多大?它相当于模型能一次性读完约 75 万个单词或 7.5 万行代码。

如此一来,模型便能轻松掌握整个项目的代码结构,追踪不同文件间的调用关系,甚至深入理解长篇技术文档,无需再将内容割裂处理。

在学术研究或法律文件审查等领域,这种能力同样关键,因为它能一次性理清多份文档间的引用脉络。

Anthropic 特别强调了有效上下文的概念,即模型能真正理解和运用的部分,而不仅仅是看到。

这对需要长时间运行的代理式编码任务来说至关重要。完整的上下文能有效防止模型在执行中跑偏,减少不必要的返工。

市场竞争中的策略

放眼整个市场,Claude 并非孤军奋战。其竞争对手包括 GPT-5 的 40 万、Gemini 2.5 Pro 的 200 万,以及 Llama 4 Scout 高达 1000 万的令牌容量。

面对参数竞赛,Anthropic 的策略并非追求最高的数字。

他们更强调在 100 万这个实用区间内的信息召回的可靠性、灵活的定价策略,以及对大型代码库和长周期智能体任务的无缝支持

相比之下,谷歌的 Gemini Pro 和 Flash 在价格上更具优势。Gemini 2.5 Pro 在 20 万令牌以下的成本为 10,超出后为 15,极具竞争力。

开发者若想启用这一功能,只需在 API 请求中加入特定的 beta 版头信息即可:

anthropic-beta: context-1m-2025-08-07 

资讯配图

从实际测试来看,Claude Sonnet 4 在处理文本分析时,速度和抑制幻觉方面通常优于 Gemini 模型。但在代码细节分析上,Gemini 的长上下文能力依然更胜一筹。

行业格局与 Anthropic 的位置

在 AI 模型商业化的赛道上,Anthropic 已经建立起庞大的企业业务版图。

其核心打法是将 Claude 模型销售给专注于编程的 AI 平台,比如微软的 GitHub Copilot、Windsurf 和 Anysphere 的 Cursor。

Claude 一度是开发者的宠儿,但 GPT-5 凭借其低成本和出色的编码能力,正成为一个不容小觑的挑战者。一个微妙的信号是,Anysphere 的 CEO 甚至亲自为 GPT-5 的发布站台,并将其设为 Cursor 新用户的默认模型。

这背后反映了 OpenAI 与 Anthropic 不同的商业模式。OpenAI 的收入主力是面向消费者的 ChatGPT 订阅,而 Anthropic 则高度依赖通过 API 向企业销售模型。

因此,留住 AI 编码平台这类大客户对 Anthropic 至关重要。在 GPT-5 步步紧逼的背景下,推出更具吸引力的功能成为必然选择。

就在上周,Anthropic 还发布了其顶级模型 Claude Opus 4.1 的升级版,进一步强化了编码能力,意图明显。

更大的上下文无疑会提升 AI 在软件开发等复杂任务中的表现。当模型能俯瞰整个应用的全貌而非冰山一角时,它生成的功能自然会更出色、更贴合需求。

Claude 的巨大窗口使其在需要长时间、自主运行的编码任务中独具优势,因为它能始终记得任务的全过程。

当然,也有其他厂商走得更远。谷歌的 Gemini 2.5 Pro 提供 200 万令牌,Meta 的 Llama 4 Scout 甚至达到 1000 万。

但一些研究也指出,上下文窗口并非越大越好。如果模型无法有效消化海量信息,超大窗口有时反而不会带来性能的提升

参考资料:https://docs.anthropic.com/en/docs/build-with-claude/context-windows#1m-token-context-window


一键三连点赞」「转发」「小心心

欢迎在评论区留下你的想法!


声明:内容取材于网络,仅代表作者观点,如有内容违规问题,请联系处理。 
IC
more
氮化镓,正在反超SiC?
东芝系芯片扩产50%!重点关注SiC和GaN芯片
【前沿】8.21发 荣耀MagicVFlip2新款小折叠官宣 4个配色外观给几分?
颠覆互联网的下一波浪潮:Agentic Web来了!
荣耀Magic8 Ultra发力!死磕拍照
新品 | 第二代CoolSiC™ MOSFET 1200V Q-DPAK封装分立器件产品扩展
ICCV 2025 | 新型后门攻击直指Scaffold联邦学习,NTU联手0G Labs揭示中心化训练安全漏洞
加速落地主驱逆变器,三安光电1200V 13mΩ SiC MOSFET完成验证
详解英飞凌CoolSiC™ Q-DPAK顶部散热封装技术和产品
荣耀放大招了?荣耀Magic 8系列信息汇总!
Copyright © 2025 成都区角科技有限公司
蜀ICP备2025143415号-1
  
川公网安备51015602001305号