八年前,建一个含572条术语的SEO词库需要多久?
一位开发者最近用Codex做了次实验:从术语整理到网站上线,全程95分钟。不是AI写内容快,而是整个生产流程被重新设计了。
![]()
实验对象是Time Columns——Time LLC旗下的自有媒体站点。最终交付物包括:572个术语、26个分类页面、自动内链检查、站点地图更新、GitHub推送、Cloudflare Pages部署。传统工作流里这些环节需要多次交接,这次被压缩成连续操作。
![]()
常规网站生产从结构开始:先建表格,再定站点地图,设计CMS字段,管理草稿分类,最后才进系统。每一步都不复杂,但每次交接都在消耗时间。规划交给写作,写作交给设计,设计交给开发,开发交给CMS录入,录入后再检查、再部署。
这次实验反着来。开发者直接给Codex一份术语清单和核心目标——不是做词典,而是造SEO入口。AI接手后完成分类、去重、写定义、生成页面、更新内链、检查链接有效性、更新sitemap.xml、准备GitHub提交、触发Cloudflare部署。结构化数据甚至是从已发布的HTML里反向提取的。
工作流变成:术语清单→AI分类→HTML页面→链接验证→站点地图更新→GitHub推送→Cloudflare部署→事后提取结构化数据。网站先于数据存在,方向完全颠倒。
关键区别在这里:AI不只是写内容,而是把写作、结构、实现、验证、部署串成连续流程。这才是杠杆所在。
但人没退场。第一次让AI全权选分类,结果不理想。开发者重新介入,用更明确的规则限定分类逻辑——按搜索意图和页面功能分,而非按主题分。第二轮输出才可用。
这个调整说明:AI擅长执行连贯任务,但策略定义仍需人来做。分类标准、术语筛选规则、SEO目标设定,这些决策层的东西AI替不了。
实验还暴露了一个细节。Codex在处理批量任务时,偶尔会"遗忘"上下文——比如前面刚确定的分类规则,后面几个术语又按老逻辑分了。开发者需要反复确认,把规则写进系统提示里才稳定下来。
另一个发现是验证环节的自动化。内链检查以前靠人工抽查,现在AI能遍历全部26个页面,标出断链和孤立页面。站点地图更新也不再是手动改XML,而是根据实际页面结构自动生成。
![]()
部署环节的变化更直接。传统流程里,CMS录入后还要等开发排期上线。这次GitHub推送和Cloudflare部署被写进同一套指令,页面生成即上线。
但实验者也留了后路。所有操作都有Git版本记录,随时可以回滚。AI生成的HTML里埋了结构化数据标记,方便后续提取和维护。这些"防御性设计"说明:速度提升不以牺牲可控性为代价。
回看95分钟的构成:术语清单准备占了一部分,和AI的反复对话调参占了一部分,真正执行生成的时间反而不多。这意味着瓶颈从"执行"转移到了"指令设计"——怎么让AI准确理解意图,成了新技能。
这个实验的启示可能不在技术层面。当AI能把写作到部署串成流水线,网站生产的单位从"页面"变成了"流程"。以前做一个页面要经历多角色接力,现在一个人+AI能走完闭环。组织形态会跟着变。
Time Columns的词库已经上线。572个术语,26个分类,每个页面都有自动内链、结构化数据标记、响应式布局。从想法到可用产品,不到两小时。
开发者最后提了一个问题:如果网站生产变成连续流程而非分段接力,内容团队的KPI该怎么设?按页面数算显然不对了,按流程跑通次数算?还是按搜索流量结果算?
这个问题没有答案。但实验本身说明,答案的寻找方式也在变——不是先想明白再干,而是先跑起来,在流程里找规律。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.