![]()
2024年,Stack Overflow调研显示67%开发者每周使用AI编码工具,平均节省47%开发时间。这个数字背后,是一群写了半辈子代码的人正在经历的身份危机。
前特斯拉AI总监Andrej Karpathy公开承认:"我已经注意到,手动写代码的能力正在慢慢退化。"这位OpenAI创始成员、斯坦福讲师,用"atrophy(萎缩)"形容自己的技能流失,像肌肉长期不练会松弛一样。
前谷歌CEO Eric Schmidt的反应更直接。做了55年编程的他,看着AI在面前完成自己曾需手写数小时的任务:"看着某件事在你眼前开始又结束,真的很震撼。"source
象牙塔里的"无用之学",突然成了护城河
作者拿到加州大学伯克利分校法语文学博士那年是1998年。六年苦读,研究的是中世纪法国文学,方向冷门到连家人都 politely confused。
同期硅谷正经历.com泡沫,同系的斯堪的纳维亚研究博士生退学加入热门创业公司时,他们这群人文生"略带轻蔑"——斯堪的纳维亚研究比法国研究更边缘,这不是常识吗?
他们当时没意识到,人文博士项目的核心功能其实是培养廉价助教(GSI,研究生讲师)。每天教法语入门课,接受强制教学法培训,只为让本科生完成语言必修课。真正的目标?熬出头,拿终身教职。
这条路在90年代末已经崩塌。1991-2001年间,美国终身教职岗位增长仅12%,而博士毕业人数增长超过60%。作者那届32人,最终拿到终身教职的:2人。
转行产品经理的意外发现
作者2002年离开学术圈时,简历上唯一的"技术"经历是用HTML做过个人主页。第一份工作是在一家创业公司做产品经理,工资是助教津贴的4倍。
关键转折发生在2005年。公司需要有人写产品文档,作者自告奋勇。同事惊讶地发现,这个"搞法国文学的"能把复杂功能拆解成用户能理解的步骤——不是因为她懂技术,而是因为她习惯了把12世纪法语史诗解释给大一学生听。
这种能力后来有了名字:技术传播(Technical Communication)。但当时没人把它当回事。作者只是继续做着"翻译"工作:把工程师的语言,变成用户的语言。
2008年金融危机期间,公司裁员40%。作者留下的原因是:她能同时和工程师、设计师、销售、客户沟通,且让每方都觉得被理解了。这种"无用"的软技能,成了裁员潮中的硬通货。
AI写代码时代,"品味"成了稀缺品
回到当下。Karpathy和Schmidt的焦虑,作者太熟悉了——只是方向相反。二十年前,她的法国文学训练被认为"过时";现在,纯编程技能正在经历同样的贬值。
![]()
变化的速度让计算机科学教育陷入混乱。2023年入学时被告知"学好Python就能拿高薪"的学生,2024年发现招聘JD里多了"AI协作能力""系统架构思维""产品判断力"。部分CS项目正在快速调整课程,另一些则在经历生源流失。
作者现在的身份是某AI初创公司的产品负责人。团队里有三名"纯码农"背景的工程师,和两名哲学系转行的产品经理。一个有趣的现象:当AI生成的代码需要审核时,哲学背景的产品经理往往能更快发现逻辑漏洞——不是因为他们懂代码,而是因为他们习惯了检验论证的严密性。
这种能力很难量化。OpenAI的招聘数据或许能说明问题:2024年技术岗位中,"研究品味(research taste)"被明确列为评估维度,占比15%。这个模糊的概念,指的是判断"什么值得做"而非"怎么做"的能力。
人文训练的隐藏技能树
作者梳理了自己从"无用"人文博士到AI产品经理的路径,发现几个被低估的 transferable skills:
第一,处理模糊性。中世纪法语手稿常有残缺,学者必须在信息不完整时做出合理推断。产品决策同样如此:用户调研说"想要更快",但"更快"是什么意思?工程师问"具体优化哪段代码",你需要先定义问题。
第二,多重视角切换。文学批评要求同时考虑作者意图、文本结构、历史语境、读者反应。产品工作类似:技术可行性、商业目标、用户体验、团队资源,永远在博弈。
第三,叙事构建。作者博士论文研究的是12世纪骑士文学中的身份表演。现在她用这个能力做路演PPT:不是编故事,而是把技术路径组织成投资人能理解的因果链条。
这些能力在AI时代反而增值了。GitHub Copilot能生成代码,但不能决定"这个功能该不该做";ChatGPT能写产品文档,但分不清"用户说的"和"用户真正需要的"。
一个具体案例:提示词工程的人文解法
2023年,作者团队尝试用AI生成用户调研报告。工程师写的提示词(prompt)结构清晰:角色设定+任务描述+输出格式。结果AI给出了条理分明但完全脱离业务语境的分析。
作者重写了提示词。关键改动:加入一段"背景故事"——这个调研要解决什么决策?之前尝试过什么方法?为什么失败了?AI的输出立刻变得更贴合实际需求。
这种写法没有标准模板。它依赖的是对"沟通情境"的敏感:对方(即使是AI)需要多少上下文才能理解你的意图?这是人文训练的核心——所有文本都产生于特定情境,剥离情境的理解必然失真。
团队后来把这个方法命名为"叙事式提示工程"。2024年,这种方法被写入公司的AI协作指南,成为新入职产品经理的必修课。
历史轮回:技术变革中的"无用"溢价
![]()
作者注意到一个反复出现的模式。1990年代,"懂HTML"是稀缺技能;2000年代,变成基础要求。2010年代,"会数据分析"能拿高薪;2020年代,Excel透视表成了简历默认项。
技能贬值的周期在缩短。编程能力的半衰期,从曾经的15年压缩到现在的5年甚至更短。但某些能力的价值曲线相反:批判性思维、跨领域沟通、复杂系统理解——这些需要长期浸润才能获得的"慢能力",在技术快速迭代期反而更稀缺。
Schmidt的55年编程经历是资产也是包袱。他承认,自己需要"重新学习如何与AI协作",而不是把AI当作更快的打字机。这种心态转换,对资深从业者尤其困难。
作者的人文背景反而成了优势。她从未把自己的技能定义为"会某门语言"或"懂某个领域",而是"快速进入陌生语境并建立理解"。AI时代,这种元能力比任何具体技能都更抗贬值。
给不同背景从业者的具体建议
基于自己和团队的经验,作者整理了分阶段的应对策略。
对于在校学生:CS专业学生正在恐慌性辅修人文课程,2024年伯克利"技术与社会"交叉选课人数增长210%。但作者建议反向操作:人文生应该主动接触技术实现,不是转码,而是理解"什么可行、什么不可行"。她招过一位比较文学硕士,优势不是会写Python,而是能准确判断"这个需求AI能做到什么程度"。
对于5-10年经验的开发者:最危险的阶段。技能足够熟练形成路径依赖,又未到管理岗需要系统思维。作者观察到的成功转型者,共同点是把"写代码"重新定义为"设计人机协作流程"——不是不用AI,而是决定何时用、如何用、用完后如何验证。
对于资深技术管理者:Schmidt的困境具有代表性。55年经验形成的直觉,在AI辅助决策时需要显性化——把"我觉得"转化为"我评估的依据是"。这对习惯凭感觉做判断的老手是额外负担,但也是与团队AI协作的前提。
一个正在发生的实验
作者现在的公司正在测试一种新协作模式:AI负责代码生成和基础测试,人类负责"边界情况判断"和"用户意图解读"。团队构成刻意保持多元——计算机、哲学、设计、语言学背景各占25%。
初步数据:这种混合团队的feature交付周期比纯技术团队长15%,但用户满意度评分高34%。更关键的是,迭代方向变更次数减少60%——意味着更少做"用户其实不需要"的功能。
这个实验的假设是:AI降低了"实现"的成本,因此"判断"的质量变得更重要。而判断质量,依赖的是多元视角的碰撞,而非单一技能的深度。
作者上周和那位退学的斯堪的纳维亚研究博士生重逢。他经历了.com泡沫破裂、三次创业、现在是一家AI基础设施公司的CTO。聊天时他提到,现在最头疼的招聘是"能找到AI生成代码问题的人"——不是bug,是"这段代码虽然能跑,但解决的是错误的问题"。
他看着作者说:"你现在做的事,和我们当年嘲笑的'搞法国文学的'有什么区别?都是在解释世界。"
所以问题来了:如果你的核心技能明天被AI覆盖50%,你简历上还有哪些能力,是过去十年积累、但从未被正式命名的?
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.