
微新创想:全球最大的代码托管平台 GitHub 近日丢下了一枚重磅炸弹 官方宣布将从 2026 年 4 月 24 日起 开始使用用户的交互数据来训练其 AI 模型 这一举动被不少开发者戏称为“撤销键(CTRL-Z)”操作 因为 GitHub 此前曾多次在公开场合强调对用户私有数据的尊重 而新政策显然打破了这一默契
微新创想:默认加入引发争议 私有仓库不再绝对私密 根据 GitHub 更新的隐私条款 Copilot 的免费版 个人版(Pro)以及专业增强版(Pro+)用户都在此次数据采集范围内 系统将自动抓取包括代码片段 输入输出内容 光标上下文 甚至文件名和目录结构在内的详尽数据 最令社区不安的是 即使是存储在“私有仓库”中的代码 只要用户在编辑时开启了 Copilot 相关代码片段也可能被摄取用于模型训练
微新创想:GitHub 首席产品官马里奥·罗德里格斯对此解释称 内部员工的测试证明 加入真实交互数据能显著提升 AI 捕捉 Bug 的准确率 但这种“默认开启”而非“手动加入”的策略 在开发者社区引发了强烈反弹 相关公告下的反对票数瞬间激增

微新创想:如何自保 企业用户豁免与手动关闭指南 在这场数据掠夺战中 并非所有用户都处于被动地位 GitHub 明确表示 购买了 Copilot 商业版(Business)和企业版(Enterprise)的付费组织 以及通过认证的学生和教师 将受到合同条款保护 其数据不会被用于训练
微新创想:对于普通个人用户 如果不想让自己的代码变成 AI 进化的养料 必须在 4 月 24 日限期前手动完成防御操作 用户需要前往 GitHub 的设置界面 在 Copilot 隐私选项中找到“允许 GitHub 使用我的数据进行 AI 模型训练”并将其关闭
微新创想:虽然官方辩称这一做法与 Anthropic JetBrains 等同行的行业惯例保持一致 但在“隐私优先”呼声日益高涨的今天 这种解释显然难以平息社区的怒火
