微软 GitHub 发布跨模型 AI 复核功能 Rubber Duck,助力提升编码效率

4 月 6 日,微软 GitHub 宣布为 Copilot CLI 上线一项名为 Rubber Duck 的实验功能。它引入跨模型的“第二视角”审查机制,帮助开发者更准确、更高效地写代码,让 AI 的整体表现提升接近 75%。

image.png

在软件开发中,早期决策一旦出错容易滚大,而传统的自检常受模型自身偏差影响。Rubber Duck 的思路是引入另一套模型作为独立审阅者,提供不同视角,及时发现潜在问题。用户可选 Claude 系列模型为主控,再由 GPT-5.4 进行代码复核,提升正确性与完整性。

在 SWE-Bench Pro 基准测试中,结果显示 Claude Sonnet 4.6 与 Opus 4.6 单独运行差距明显;而当 Sonnet 4.6 搭配 Rubber Duck 后,成功补回了 74.7% 的性能差距。处理复杂任务时,该功能表现更突出,得分比基线高出 3.8%。实际案例显示,它能有效识别架构逻辑缺陷、循环覆盖问题以及跨文件冲突等情况。

Rubber Duck 的使用方式很灵活,支持主动、被动和用户触发三种审查模式。系统会在制订计划、实现复杂功能和编写测试等关键节点自动寻求审查,也能在开发者卡住时被动介入。同时,用户可随时主动发起审查,系统会给出反馈和修改依据。

目前,Rubber Duck 已以实验模式开放。安装 GitHub Copilot CLI 并运行 /experimental 命令即可开启,体验 Claude 模型与 GPT-5.4 的协同审查。

划重点:

🌟 1. 微软 GitHub 上线 Rubber Duck,引入跨模型的 AI 复核机制,提升开发效率。  

🔍 2. 通过结合 Claude Sonnet 4.6 与 GPT-5.4,补齐 74.7% 的性能差距。  

⚙️ 3. 提供多种审查模式,支持用户主动发起,保障代码质量。  

爱智特-AI智能体一站式企业智能体交易学习发行平台|智能体教程|智能体社区
© 版权声明
THE END
喜欢就支持一下吧
点赞14 分享