
微新创想:近日 Linux 内核维护团队正式发布了针对 AI 生成代码的使用准则 允许开发者在编程中使用 GitHub Copilot 等 AI 辅助工具 这一政策的出台经过了几个月的讨论 开源社区内对于 AI 工具的争议逐渐升温
在今年 1 月份 英特尔工程师 Dave Hansen 和甲骨文员工 Lorenzo Stoakes 就是否应该严格限制 AI 工具的使用展开了激烈的争论 最终 Linux 创始人 Linus Torvalds 表示 全面禁止 AI 工具的做法毫无意义 他认为 AI 只是一种工具
Linus Torvalds 强调 提交不合格代码的开发者本身就不太可能遵守规则 因此与其限制开发者使用的工具 不如直接追究代码提交者的责任 这一立场与一些开源社区对于 AI 的强烈反对形成了鲜明对比
在这一政策出台之前 各大开源项目对待 AI 生成代码的态度不尽相同 例如 NetBSD 和 Gentoo 明确禁止 AI 生成代码 认为大模型的生成内容在法律上属于 “污染” 因为其训练数据的版权来源并不明确

此外 原创声明(DCO)也成为争议焦点 要求开发者确保提交代码的所有权 但 AI 模型训练时使用的代码常常受 GPL 等许可证的限制 这让开发者难以保证 AI 生成代码的合法性
与此同时 开源社区的维护者们每天都要处理大量 AI 生成的低质量代码 像 cURL 就被不合格代码淹没 被迫关闭漏洞奖励计划 Node.js 和 OCaml 也面临着上万行 AI 补丁的内部争议
Linux 维护团队的新规不但允许使用 AI 工具 还要求开发者明确标示代码是否由 AI 生成 将失误的责任明确归属到人类开发者 这一举措是为了确保在利用 AI 工具时 仍然能够对代码质量和安全性负责
划重点:🌟 允许使用 AI 编程工具:Linux 内核团队正式允许使用 GitHub Copilot 等 AI 辅助工具 ⚠️ 开发者需担责:所有由于代码问题引起的 Bug 和安全隐患由提交者负责 📝 强调透明度:开发者必须标明代码是否由 AI 生成 确保对代码质量的责任
