GitHub 政策急转弯:私有仓库代码或将用于 AI 训练

全球最大的代码托管平台 GitHub 近日抛出重磅消息:官方称将自 2026 年 4 月 24 日起,开始利用用户与产品的交互数据训练自家的 AI 模型。许多开发者把这一变化戏称为按下了“撤销键(CTRL-Z)”,因为 GitHub 此前多次公开强调会尊重用户的私有数据,而这项新政策显然打破了原有共识。

代码 互联网  (2)

“默认加入”惹争议,私有仓库不再绝对私密

按 GitHub 最新的隐私条款,Copilot 的免费版、个人版(Pro)以及专业增强版(Pro+)用户都在此次数据收集范围内。系统会自动记录包括代码片段、输入与输出、光标上下文,甚至文件名与目录结构在内的细节。更让社区不安的是,只要在编辑时开启了 Copilot,即便代码位于“私有仓库”,相关片段也可能被用于模型训练。GitHub 首席产品官马里奥·罗德里格斯表示,内部测试显示,纳入真实交互数据能明显提升 AI 捕捉 Bug 的准确率,但将其设为“默认开启”而非“手动同意”的做法,在开发者社区引发强烈反弹,公告下的反对票迅速攀升。

如何自保:企业用户豁免与手动关闭指南

并非所有用户都只能被动接受。GitHub 明确称,购买了 Copilot 商业版(Business)或企业版(Enterprise)的付费组织,以及经认证的学生与教师,将受合同条款保护,其数据不会被用于训练。

对普通个人用户而言,若不想让自己的代码成为 AI 演进的“养料”,需要在 4 月 24 日前手动进行设置。进入 GitHub 的设置页面,在 Copilot 的隐私选项中找到“允许 GitHub 使用我的数据进行 AI 模型训练”,将其关闭。尽管官方辩称此举与 Anthropic、JetBrains 等同行的做法一致,但在“隐私优先”呼声持续走高的当下,这番解释显然难平社区怒火。

爱智特-AI智能体一站式企业智能体交易学习发行平台|智能体教程|智能体社区
© 版权声明
THE END
喜欢就支持一下吧
点赞13 分享