Linux 内核团队发布 AI 编程工具新规:提交者需对代码负责

近日,Linux 内核维护团队公布了关于 AI 生成代码的使用规则,明确允许开发者在编程时使用 GitHub Copilot 等 AI 辅助工具。但无论代码由谁生成,因代码问题造成的 Bug 和安全风险,最终都由提交该代码的开发者承担。

代码 互联网 电脑

这项规则是在社区几个月的讨论后落地的。期间,关于是否限制使用 AI 工具的争论不断。今年 1 月,英特尔工程师 Dave Hansen 与甲骨文员工 Lorenzo Stoakes 就此展开激辩。最终,Linux 创始人 Linus Torvalds 表示,全面禁止 AI 工具没有意义,AI 只是开发工具之一。

Linus Torvalds 强调,提交不合格代码的人本就不太会遵守规则,与其限制工具,不如直接把责任落实到提交者身上。此态度与一些对 AI 持强烈反对态度的开源社区形成对比。

在新规出台前,不同开源项目对 AI 生成代码的态度差异明显。比如,NetBSD 和 Gentoo 明确禁止使用 AI 生成代码,认为大模型输出在法律上可能存在“污染”,因其训练数据的版权来源不清晰。此外,开发者原创声明(DCO)也引发争议:提交者需保证代码的权利归属,但模型训练常涉及使用受 GPL 等许可证约束的代码,这让开发者难以确认 AI 产出的合规性。

与此同时,许多维护者每天都在处理大量由 AI 生成的低质量提交。例如,cURL 曾被此类不合格代码淹没,不得不暂停漏洞奖励计划;Node.js 和 OCaml 也因成千上万行 AI 补丁引发内部讨论与分歧。

根据新规,Linux 维护团队不仅允许使用 AI 工具,还要求开发者明确标注哪些代码由 AI 生成,并将任何失误的责任明确归结于人类提交者。这样做是为了在借助 AI 提升效率的同时,确保代码质量与安全不被忽视。

划重点:

🌟 允许使用 AI 编程工具:Linux 内核团队正式认可使用 GitHub Copilot 等辅助工具。

⚠️ 开发者需担责:因代码引发的 Bug 与安全问题由提交者负责。

📝 强调透明度:需标注代码是否由 AI 生成,明确质量与安全责任。

爱智特-AI智能体一站式企业智能体交易学习发行平台|智能体教程|智能体社区
© 版权声明
THE END
喜欢就支持一下吧
点赞6 分享