GitHub上周给Copilot CLI连更了两条实验性功能。一条让AI自己找AI挑错,另一条让企业管理员终于能统一管插件了。两条更新都不声张,但指向同一个方向:AI编程工具正在从"个人外挂"变成"团队协作基础设施"。
先聊Rubber Duck。这个名字听起来像玩具,实际上是GitHub做的一个"交叉评审"机制。5月7日的更新让它彻底变样了——以前只有用Claude当主模型时才能开,现在GPT当主模型也能用,而且两边互相挑刺。
![]()
具体怎么运作?你选一个模型当"主刀医生"写代码,Rubber Duck自动派另一个模型家族的AI当"审稿人"。Claude写的代码,GPT来审;GPT写的,Claude来审。审稿意见很直接:"这个迁移没处理外键级联""批量大小超过1万行会内存溢出""这里假设UTC但数据库存的是本地时间"。
![]()
GitHub内部测试的数据是:这种交叉评审能把Sonnet和Opus在复杂多文件问题上的性能差距缩小74.7%。现在Claude用户还能用到升级后的GPT-5.5当审稿人,比之前的GPT-5.4更强。
关键是误报率低。从4月就开始用的开发者反馈,它标出来的问题"通常是对的"。功能还在/experimental开关里,但体感已经像正式功能了。
另一条更新是企业托管插件,5月6日进公测。以前企业要统一配插件,得发文档、发脚本、指望工程师手动执行。现实是有人照做,大部分人忽略,新人来了再重复一遍。
![]()
现在管理员在.github-private/.github/copilot/仓库里放一个settings.json,Copilot CLI自动同步。能标准化自定义Agent、强制预装特定插件、统一MCP服务器配置。工程师打开客户端就能用,不用手动装任何东西。
两条更新合起来看:Rubber Duck解决的是"AI写代码质量不稳定",企业插件解决的是"团队配置乱七八糟"。GitHub在把Copilot CLI从"个人效率工具"往"企业级开发平台"推。下一步估计就是正式版上线和更多模型家族接入了。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.