![]()
一个靠阻止AI部署吃饭的人,偷偷用AI完成了自己的核心项目。完成速度是预期的3倍,但她写下的第一句话是:"我恨它。"
这不是爽文,是一个安全研究员的自白书。
Taggart Institute创始人Kelly Shortridge在博客开篇就给自己判了刑:「如果你现在想骂我怪物或伪君子,我理解。」她的日常身份是AI安全专家——专门测试AI应用、阻止危险功能上线、对不可控的AI方案说「不」。这份工作要求她必须深度使用这些工具,而她内心希望它们「从未存在」。
矛盾的是,她刚刚用生成式编程(Generative Coding,即AI辅助代码生成)完成了机构迁移中最棘手的模块:课程结业证书系统。
为什么不用现成的?
Shortridge的机构正在从Teachable和Discord迁移到Discourse。后者是论坛软件,灵活但原生不支持证书功能。Teachable的证书生成器确实好用,但年费高昂、AI功能越塞越多,还存在一个她暂时不能公开的漏洞。
她需要的是一个开源方案:公开可验证、防篡改、能对接LinkedIn分享——毕竟「LinkedIn用户永远热衷于宣布自己的成就」。找了一圈,没有现成工具完全符合需求。
自己写?她已经被迁移工作淹没,时间预算约3周。
最终她用AI辅助编程,7天交付。但她描述这个过程时用的词是「hated it」(恨它),重复了两次。
AI编程的「认知税」
![]()
Shortridge详细拆解了使用体验。AI确实能快速生成代码框架,但代价是她必须保持高度警觉,像审问嫌疑人一样审查每一行输出。这种「人机协作」没有减轻认知负担,反而叠加了一层:既要理解业务逻辑,又要识别AI的幻觉(Hallucination,即生成看似合理但实际错误的内容)。
她发现一个危险模式:AI倾向于给出「看起来能跑」的代码,但隐藏边界条件漏洞。比如证书验证的加密逻辑,AI生成的初版在特定时区下会失效——这种bug不会立即暴露,但会在某个凌晨让学员的证书链接变成404。
「我必须比独自编程时更懂代码,才能安全地使用AI。」她在文中写道。这和她预期的「AI降低门槛」完全相反。
更隐蔽的伤害是技能退化焦虑。Shortridge观察到,连续使用AI编程一周后,她发现自己手写基础函数的速度变慢了。「就像长期用导航的人,突然要看纸质地图会发慌。」她担心这种依赖会侵蚀核心能力——而她的职业恰恰需要深度技术判断力。
安全专家的囚徒困境
Shortridge的处境是个极端案例:她的收入来自阻止AI滥用,她的工作又强制她成为AI工具的专家。她在文中承认这种张力可能没有正确答案。
但她提出了一个被行业回避的问题:当AI安全研究者被迫成为重度用户,谁来研究「不使用AI」的可行性?
她的证书项目最终开源了(GitHub仓库:taggart-institute/certificates)。代码注释里留着她和AI的「对话痕迹」——某些函数上方写着「AI建议,已验证」或「AI生成,重写三次」。这成了某种元文档:记录人类在效率与自主之间的妥协。
Shortridge在结尾没有给出结论。她只陈述了一个事实:项目上线后,第一位学员在LinkedIn分享了证书,配图是Discourse生成的验证二维码。那条动态获得了47个赞,比她机构过去任何一条内容都高。
「我们在地狱里,不如试着互相拉一把。」她引用了自己早前的比喻,然后补充:「但地狱的电梯现在由AI控制,而我还在找楼梯。」
如果你是她,会选择7天交付但「恨它」,还是坚持3周手写但睡得安稳?
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.