全球最大的代码托管平台 GitHub 近日抛出重磅消息:官方称将自 2026 年 4 月 24 日起,开始利用用户与产品的交互数据训练自家的 AI 模型。许多开发者把这一变化戏称为按下了“撤销键(CTRL-Z)”,因为 GitHub 此前多次公开强调会尊重用户的私有数据,而这项新政策显然打破了原有共识。

“默认加入”惹争议,私有仓库不再绝对私密
按 GitHub 最新的隐私条款,Copilot 的免费版、个人版(Pro)以及专业增强版(Pro+)用户都在此次数据收集范围内。系统会自动记录包括代码片段、输入与输出、光标上下文,甚至文件名与目录结构在内的细节。更让社区不安的是,只要在编辑时开启了 Copilot,即便代码位于“私有仓库”,相关片段也可能被用于模型训练。GitHub 首席产品官马里奥·罗德里格斯表示,内部测试显示,纳入真实交互数据能明显提升 AI 捕捉 Bug 的准确率,但将其设为“默认开启”而非“手动同意”的做法,在开发者社区引发强烈反弹,公告下的反对票迅速攀升。
如何自保:企业用户豁免与手动关闭指南
并非所有用户都只能被动接受。GitHub 明确称,购买了 Copilot 商业版(Business)或企业版(Enterprise)的付费组织,以及经认证的学生与教师,将受合同条款保护,其数据不会被用于训练。
对普通个人用户而言,若不想让自己的代码成为 AI 演进的“养料”,需要在 4 月 24 日前手动进行设置。进入 GitHub 的设置页面,在 Copilot 的隐私选项中找到“允许 GitHub 使用我的数据进行 AI 模型训练”,将其关闭。尽管官方辩称此举与 Anthropic、JetBrains 等同行的做法一致,但在“隐私优先”呼声持续走高的当下,这番解释显然难平社区怒火。


















用户38505528 6个月前0
粘贴不了啊用户12648782 7个月前0
用法杂不对呢?yfarer 7个月前0
草稿id无法下载,是什么问题?