![]()
去年3月,技术博主N. Cailie在Medium发了篇帖子,标题直白得扎眼:《我绝对怀念AI之前的写作时代》。帖子没火,但评论区炸了——几百条回复,全是"我也是"。
事情起因很简单:她写了篇技术草稿,80%内容自己敲的,只是用LLM(大语言模型)过了遍语法和词汇检查。投稿时被系统判定"可能由AI生成",直接拒了。平台规则确实写明"禁用LLM",她认栽。但让她后背发凉的不是被拒,而是发现自己根本停不下来——连写邮件都想先问问AI"这样措辞好不好"。
英语是她的第四语言。2023年前,她几乎不用二稿。
Cailie不是新手。她早年写的博客登上过主流站点,最得意的一首诗是在 hostel 门口用纸笔完成的,凭那首进了艺术节。现在?她试着写了首 slam 诗参赛,读完直接懵了:"这是谁写的?太烂了。"
她把这种状态叫"超能力退化"——大脑被训练成先问AI,再问自己。
从工具到拐杖:语法检查的陷阱
Grammarly和Quillbot她用了多年,定位清晰:抓错误、改病句。LLM不一样,它提供的是"更好的版本"——更流畅、更"正确"、更……平均。
![]()
问题在于,写作的本质是决策。选这个词而非那个,断在这里而非那里,都是声音的一部分。当AI替你做这些选择,你其实在把自己的频率调到大众均值。Cailie那篇80%原创的技术文被判定AI生成,恰恰说明这种"均值化"已经深到系统都分不清了。
更隐蔽的伤害在创意层。她发现自己写不出诗了——不是不会押韵,是落笔前就预判"AI会怎么写",然后要么模仿,要么自我否定。创作变成了和幽灵较劲。
那篇Medium帖子本身成了实验:零工具辅助,直接输出。她提前道歉,说会有语法错误、冠词乱用、"可能不重新读一遍就发"。结果?几百人涌进评论区认领同款症状。
评论区里的集体焦虑
高赞回复来自一位自称"前诗人"的用户:用了两年ChatGPT,现在空白文档让他恐惧。"我知道它能写好,所以我不相信自己能写好了。"另一位说,他给AI的提示词越来越长,自己的句子越来越短——"我在训练它,它在废掉我。"
也有反向案例。一个写小说的人分享:强制手写三个月,不用任何电子设备,"前两周像戒毒,第三周开始做梦都是长句"。Cailie追问细节,对方没再回复——可能是真去写了,也可能是编的故事。但这条被顶到了最上面。
技术从业者的反应更有意思。有人贴出自己公司的内部规定:所有对外文档必须经过AI润色,"为了品牌一致性"。另一人反驳,说他的团队禁止AI写作,"但每个人都偷偷用,包括写禁令的人"。
![]()
平台检测的悖论
Cailie被拒稿的平台没公开检测标准,但行业惯例是混合信号分析:词汇多样性、句长分布、标点模式,甚至修改痕迹。讽刺的是,人类作者为了"避嫌",反而会刻意打乱节奏、插入错误——这又成了另一种被规训。
她后来那篇"纯人工"的抱怨帖,系统没判AI。但评论区有人指出:她的句法确实变了,更碎、更口语、更像……嗯,Medium上的人类。
这引出一个不舒服的问题:如果我们为了证明自己不是AI,而主动写得"更差",这是解放还是新的牢笼?
Cailie没有答案。她在帖子里说,发这篇就是为了"大声说出来",顺便问有没有成功戒断的人。回复很多,方法论各异:有人推荐晨间手写三页纸,不管内容多烂;有人建议用打字机,物理隔绝复制粘贴;最极端的一个说,他卖掉了电脑,只用图书馆的公共终端,"每次限时两小时,没空问AI"。
她没采纳任何一条。帖子发布一年后,她的Medium主页显示最新活动是三个月前——一篇用AI辅助修改的产品文档。
如果你现在关掉所有辅助工具,写一段完全属于自己的话,第一句会是什么?
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.