
【科技24时区】在软件开发过程中,同行评审对早期发现漏洞、保持代码库一致性以及提升整体软件质量至关重要。然而,随着“氛围编程”(vibe coding)的兴起——即开发者使用AI工具,通过自然语言指令快速生成大量代码——传统评审机制正面临新挑战。这类工具虽显著加速了开发流程,却也引入了新型漏洞、安全风险及难以理解的代码。
为应对这一趋势,人工智能公司Anthropic于本周一正式推出其全新产品“Code Review”,集成于Claude Code平台。该工具旨在充当AI代码审查员,在代码合并至主干前自动识别潜在问题。Anthropic产品负责人吴凯(Cat Wu)向TechCrunch表示:“我们观察到Claude Code在企业用户中增长迅猛,而高管们反复提出的问题是:当Claude Code自动生成大量拉取请求(pull requests)后,如何高效完成审查?”
拉取请求是开发者提交代码变更以供审核的标准流程。吴凯指出,Claude Code大幅提升了代码产出量,进而导致审查需求激增,形成代码交付的瓶颈。“Code Review正是我们对此问题的回应。”
此次发布的Code Review首阶段面向Claude for Teams与Claude for Enterprise客户开放研究预览版,正值Anthropic业务转型的关键节点。就在同一天,该公司还就美国国防部将其列为“供应链风险”一事,向该部门提起两起诉讼。在此背景下,Anthropic正加速押注其快速增长的企业业务——据公司披露,年初以来企业订阅量已增长四倍,Claude Code自上线以来年化营收已突破25亿美元。
吴凯强调,Code Review主要面向Uber、Salesforce、埃森哲等已大规模采用Claude Code的大型企业。“这些客户现在需要应对AI生成的海量拉取请求。”她介绍,团队技术负责人可一键启用该功能,使其默认为所有工程师运行。工具将与GitHub深度集成,自动分析每个拉取请求,并直接在代码行上添加评论,说明潜在问题及修复建议。
值得注意的是,Code Review聚焦于逻辑错误而非代码风格。吴凯解释:“许多开发者曾体验过AI自动反馈,若建议不可操作,极易引发反感。因此我们决定只关注逻辑层面的高优先级问题。”AI会逐步阐明其判断依据:问题所在、为何构成风险,以及可能的解决方案。
系统采用颜色标签标识问题严重程度:红色代表最高危漏洞,黄色提示需人工复核的潜在问题,紫色则关联历史代码或既有缺陷。为实现高效分析,该工具采用多智能体架构——多个AI代理并行工作,从不同维度审视代码库;最终由一个聚合代理整合结果、去重并排序优先级。
此外,Code Review提供基础安全分析,工程负责人还可根据内部规范定制额外检查项。Anthropic近期推出的Claude Code Security则负责更深入的安全扫描。吴凯坦言,多智能体架构使该工具资源消耗较高,其定价采用按Token计费模式,单次审查平均成本约15至25美元,具体取决于代码复杂度。“这是一次高端体验,但在AI生成代码日益普及的今天,也是必要投入。”
她总结道:“市场对Code Review的需求极为强烈。工程师使用Claude Code开发新功能时,摩擦显著降低,但对代码审查的需求却急剧上升。我们希望借此工具,助力企业以前所未有的速度构建更少漏洞的软件。”