快速阅读:近期 Anthropic 的 Claude Code 被曝出存在针对特定关键词(如 OpenClaw)的“软拦截”行为。这种通过正则匹配或系统提示词实现的非透明收费与拒绝机制,正引发开发者对其商业伦理与产品稳定性的剧烈质疑。
作者声明:该图片由AI生成![]()
最近有个挺荒诞的事。如果你在 Git 提交记录里不小心写了个 `OpenClaw`,或者在代码里留了个相关的 JSON 块,Claude Code 可能会突然“罢工”,或者直接把你从订阅额度踢进昂贵的 API 计费模式。
这听起来像是个 Bug,但更像是一种极其粗糙的“防守”。
有网友提到,这简直是把代码编辑器变成了“竞争对手扫描仪”。你明明只是在做本地开发,或者在处理一个并不涉及该工具的项目,AI 却因为看到了某个名字就突然开始“装傻”——声称自己不知道这是什么,或者干脆直接断开连接。这种感觉就像你走进一家餐厅,服务员因为看到你包里有一张竞品餐厅的传单,就突然拒绝为你提供套餐,反而要求你按单点价格结账。
这种做法在技术上显得极其“Vibe Coding”(靠感觉写代码)。用最先进的 LLM 架构,却在防范滥用时用最原始的正则匹配。这种逻辑上的断层让很多人怀疑:这到底是由于算力不足导致的应急补丁,还是公司高层为了保护利润率而刻意设计的“暗箱操作”?
有观点认为,这反映了 AI 公司在面对订阅制模型与高昂算力成本之间的挣扎。当“全包自助餐”模式遇到像 OpenClaw 这样高频消耗 Token 的 Agent 时,公司倾向于通过增加摩擦力来驱逐“不听话”的用户。
但问题在于,信任的建立需要几年,而摧毁它只需要一个不透明的正则匹配。如果一个标榜“安全”与“伦理”的公司,开始通过这种带有歧视性的手段来管理用户,那么它所谓的“安全”可能只是为了防御竞争的护城河。
开发者们正在寻找退路。无论是转向开源权重模型,还是使用更透明的 API 转发工具,大家都在试图摆脱这种“被随时断粮”的恐惧。
毕竟,如果连代码里的一个字符串都能决定你的账单,那这种工具还算不算真正的生产力?
x.com/theo/status/2049645973350363168
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.