![]()
3月26日,GitHub扔出一颗政策炸弹:4月24日起,Copilot Free、Pro、Pro+用户的交互数据,除非手动退出,否则默认拿去训练AI模型。Business和Enterprise用户幸免于难,蹭免费Pro的学生老师也暂时安全。
官方话术很体面——"提前30天通知""随时可退出""充分尊重选择权"。但翻译成人话就是:普通用户被默认勾选,想跑?自己翻设置去。
哪些数据会被收走?你敲给Copilot的代码片段、Chat对话、行内建议的接受或拒绝——全在清单上。GitHub特意强调"静态存储"的私有仓库内容不动,但只要你主动调用Copilot,它处理私有代码的过程本身就可能被记录。这就像餐厅承诺"不会保存你的剩菜",但每口菜怎么嚼的都被记了小本本。
![]()
企业用户豁免的理由很直接:合同里写了不能。个人用户没这待遇,因为没签这条款。GitHub的自信写在脸上:对保护训练数据"很有信心"。
动机倒不复杂。Copilot用户飙到2600万,模型需要更多"真实世界数据"喂饱越来越杂的场景。GitHub搬出微软员工数据的成功案例——建议采纳率涨了,证明"真实交互确实管用"。现在轮到普通开发者当燃料了。
数据流向也交代了:GitHub和微软的AI团队能看,外包商能碰(签了保密合同),但不会卖给第三方,也不会拿去给OpenAI或Google练模型。GitHub还拉来微软、Anthropic、JetBrains垫背:大家都这么干。
![]()
但开发者没打算领情。第一波怒火烧向退出流程本身——邮件说"账户设置里选Copilot就能退",实际点进去只是展开列表,毛都没有。真正的退出入口藏在设置页最底部,文字表述还和邮件对不上。这设计像极了那些故意让你找不到取消按钮的订阅服务。
第二波焦虑更实际:我的仓库加了协作者,他们没退出,我的代码会不会被连带收走?20人小团队的组织管理员发现,没在组织层开Copilot,Security页面却能调用它生成修复建议——这算个人版还是"隐藏组织版"?要不要逼全员退一遍?
社区评论很说明问题:"这是我做过最快的退出操作""正在认真考虑关账号""受够了被当产品卖"。
GitHub的算盘打得响:2600万人的编码习惯,比任何实验室数据都值钱。但默认勾选这件事,本质上是在赌大多数用户不会发现、或者发现了也懒得找开关。一位用户的反馈很典型——"这种事本来就不该默认开启"。
讽刺的是,Copilot能火,恰恰因为开发者信任GitHub托管代码。现在这份信任被拿去换训练数据,而退出按钮被埋在三级菜单的最深处。产品增长和用户体验的博弈里,这次GitHub选了最省事的那条路。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.