xAI 刚刚推出了 grok-code-fast-1
,一个为智能体编码调优的推理模型,它牺牲了原始规模以换取速度和实用的工具使用能力。
这个新模型是一项专注于为日常编码提供快速智能体循环的重点投入,采用了全新的轻量级模型架构。
输入 token:每百万 $0.20 输出 token:每百万 $1.50 缓存输入 token:每百万 $0.02
该团队从零开始构建了一个全新的架构,在一个以代码为主的语料库上进行了预训练,然后使用围绕真实的拉取请求 (pull requests) 和日常编码任务构建的数据进行了后训练。
在使用中,该模型可以调用 grep
、shell
和文件编辑器,使其能够在几乎没有指导的情况下浏览代码仓库、运行检查并应用有针对性的修复。
在服务层面,通过与合作伙伴的合作,模型增加了推理技巧和超过 90% 的提示词缓存,因此许多工具调用都能即时响应,不会出现卡顿。
在编码基准测试方面,他们报告称在 SWE-Bench-Verified 上达到了 70.8% 的分数。该基准测试用于检验智能体是否能在真实代码仓库的测试框架下成功修复漏洞。
模型覆盖了 TypeScript、Python、Java、Rust、C++ 和 Go 等语言,因此大多数常见的技术栈问题和代码编辑都在其能力范围之内。
目前,该模型可通过 GitHub Copilot、Cursor、Cline、Roo Code、Kilo Code、opencode 和 Windsurf 限时免费使用,同时也通过 xAI API 以相同价格提供。
xAI 还发布了一份针对 Grok Code Fast 1 的提示词工程指南
该模型在以下情况下表现最佳:提供精确的上下文、明确的目标、快速迭代、执行智能体任务、使用原生工具调用、详细的系统提示词、使用 Markdown 或 XML 良好标记的上下文,以及稳定的历史记录以提高缓存命中率。
提供精确的上下文:当提示词中指定了确切的文件、路径和依赖项时,模型表现更佳,因为专注的上下文能将编辑操作牢牢地固定在正确的代码上。
阐明清晰的目标:当请求阐明了清晰的目标和约束条件时,结果会得到改善,例如,明确目标文件、预期行为和验收检查标准。
鼓励快速迭代:鼓励进行快速试错和修正,因为
grok-code-fast-1
提供了约 4 倍的速度和约十分之一的成本,所以你可以利用上一次运行的具体失败案例来迭代优化你的提示词。专注于智能体任务:该模型专为智能体任务设计,如浏览代码仓库、调用工具和完成代码编辑。而当完整的上下文已经准备好时,Grok 4 更适合进行深度问答。
使用原生工具调用:工具集成应使用原生工具调用,因为使用 XML 格式化的工具输出可能会降低可靠性。
撰写详细的系统提示词:一份列出任务范围、期望和边界情况的详细系统提示词,能够更好地引导模型行为并减少返工。
结构化上下文:应使用 Markdown 或 XML 标题等结构化区块来引入上下文,这有助于模型快速索引和检索正确的部分。
实时追踪思考过程:API 用户可以流式传输
reasoning_content
来实时展示模型的思考轨迹,从而在长时间的工具运行过程中改善开发者体验。保持历史记录稳定:吞吐量依赖于缓存命中率,因此在多工具调用的序列中,保持提示词历史的稳定性和重用通用前缀对于维持速度至关重要。
参考资料:https://x.ai/news/grok-code-fast-1
https://docs.x.ai/docs/guides/grok-code-prompt-engineering
一键三连「点赞」「转发」「小心心」
欢迎在评论区留下你的想法!