一位写了500+技术文章、出过《Clean Code Cookbook》的资深工程师,最近公开了他的AI协作秘诀——不是更复杂的提示词,而是一个被多数人忽略的基础设置。
事件:一条"强制服从"指令的走红
![]()
Maximiliano Contieri,专注整洁代码、设计模式和测试驱动开发(TDD)的高级软件工程师,在AI编程圈突然引发讨论。
![]()
他的背景很硬:出版技术书籍、持续输出500多篇深度文章,长期观察代码异味(Code Smell)模式。这次他分享的并非新框架,而是与AI协作时的底层控制逻辑。
核心观点直指痛点:多数开发者抱怨AI"不听话",本质是提示词工程(Prompt Engineering)的权限边界没设对。
复盘:为什么"强制"比"请求"更有效
Contieri的实践路径很清晰——
第一步,明确角色锚定。在对话开局即声明专业身份("资深软件工程师,专精整洁代码"),建立技术话语权。
第二步,强制约束输出格式。不是问"你能生成测试吗",而是指定"使用TDD红绿重构循环,输出JUnit 5代码"。
第三步,引入负向规则。主动列出"禁止事项"(如禁止硬编码状态属性),比单纯描述需求更能规避典型陷阱。
![]()
这与他的文章《Code Smell 319 - Hardcoded Stateless Properties》形成呼应:AI生成的代码同样会继承人类代码的结构性缺陷,需要显式拦截。
启示:工具链的隐性成本
Contieri的方法论揭示了一个被低估的事实——AI编程助手的效率瓶颈,往往不在模型能力,而在交互协议的清晰度。
500篇文章的训练数据背后,是他对"可维护性"的执念。这种经验迁移到AI协作,表现为对输出确定性的极端追求:减少模糊空间,就是减少后期返工。
对25-40岁的技术从业者而言,这意味着什么?提示词工程正在从"艺术"转向"工程"——需要可复用的约束模板,而非每次重新摸索。
当AI代码生成成为标配,"如何让机器严格执行规范"会不会成为下一代工程师的核心竞争力?
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.