Anthropic在 Claude Code 平台发布全新的AI代码审查能力 Code Review,目标是在问题进入代码库之前就自动发现潜在缺陷,缓解企业因审查工作量飙升带来的效率瓶颈。该功能已于周一上线,并以研究预览的形式优先开放给 Claude for Teams 与 Claude for Enterprise 用户。

随着“直觉编码”(vibe coding)风潮兴起,开发者越来越常用AI以自然语言生成大量代码,虽能明显提速,却也引入漏洞、安全隐患和可读性下降等问题。Anthropic产品负责人Cat Wu在接受TechCrunch采访时表示,随着Claude Code显著提升产出,企业内部的Pull Request数量猛增,传统纯人工审查已难以承载,正演变为软件交付的关键卡点。
此次推出的Code Review可与GitHub集成,自动分析开发者提交的Pull Request,并直接在代码中标出疑点和修复建议。系统更关注逻辑错误,而非代码风格,以提高建议的落地性。AI会分步说明判断依据,包括问题位置、可能影响以及可行的解决方案,并用颜色标记风险级别:红色代表严重问题,黄色提示需要关注的潜在风险,紫色指向与历史错误或既有代码结构相关的提醒。
在技术实现上,系统采用多智能体协同机制,多个代理从不同视角并行审查代码库,最后由汇总代理整合结论、去重并设定优先级,从而提升自动审查效率。工具还提供基础安全检测,企业可按内部规范添加自定义检查规则;而此前推出的 Claude Code Security 则面向更深入的安全排查。
鉴于多智能体方案计算开销较高,Code Review采取基于代币的计费方式,费用会随代码复杂度变化。Cat Wu预计,平均每次审查成本约在15至25美元之间。她表示,产品主要面向大型企业客户,例如Uber、Salesforce和埃森哲等,这些公司已在大规模使用Claude Code,并希望借助自动审查处理海量Pull Request。
这次发布恰逢Anthropic发展的关键节点。当天公司还就被美国国防部列为供应链风险企业一事提起两项诉讼。与此同时,企业业务快速增长,官方称自年初以来企业订阅用户已增长四倍,而Claude Code自上线以来的年化收入已超过25亿美元。
随着AI生成代码的规模持续扩大,自动化代码审查正逐步成为企业研发流程的关键基础设施。Anthropic希望通过这项能力,在加快开发节奏的同时降低漏洞风险,推动AI辅助软件开发迈向更高的可靠性。


















用户38505528 6个月前0
粘贴不了啊用户12648782 7个月前0
用法杂不对呢?yfarer 7个月前0
草稿id无法下载,是什么问题?