![]()
有一位做了25年软件开发的软件顾问,决定做一个实验。
最近,Business Insider报道了他的经历:他让 AI 帮自己开发一款应用,从搭框架到生成功能,几乎都交给了聊天机器人处理。最开始,那种感觉近乎魔法。几分钟,一个功能就出来了;一小时,一个模块就成形了。进展快得惊人,仿佛软件开发从一项需要长年训练的复杂手艺,突然变成了一种“会描述需求就行”的工作。
可几周之后,问题开始出现。随着代码库膨胀到 10 万行,沟通成本迅速上升,返工越来越多,修 bug 变成一场没完没了的拉扯。更微妙的变化,发生在他准备重新亲自上手的时候。
他原以为,只要自己重新接管,凭着二十多年的经验,很快就能找回熟悉的节奏。结果却不是这样。代码摆在面前,他当然看得懂,也知道该怎么改,可真正开始动手时,每一步都多了一点犹豫。他后来形容那种感觉,就像很久没碰球杆的人重新站上高尔夫球场:“我的挥杆动作不对了。”
这句话值得反复咂摸。
因为它触碰到的是 AI 时代一种极其隐蔽、又越来越普遍的风险:AI 未必立刻让你失业,但它可能先让你失去“本来会做这件事”的那种手感、判断和笃定。你看起来更高效了,产出也更多了,可真正支撑这些产出的能力,却可能在悄悄变薄。
这就是今天越来越多人开始讨论的一个词:去技能化。第一批深度使用AI的专业人士,正在被AI卸下技能,那种肌肉记忆和感觉都在变弱。但是,对外行和新人来说,威胁则更加深远。
一、AI 最大的风险,不是替代你,而是削弱你
过去几年,关于 AI 的讨论大多围绕一个问题:它会不会取代人类工作。可比“取代”更早发生的,往往是“削弱”。
不久前,我们分享过《大西洋月刊》在2025年10月发表的长文,其中提出了一个关键判断:AI 带来的问题,并不只是某一项职业是否会被自动化,而是新技术正在改变人形成能力、维持能力和理解世界的方式。
这篇文章说的是,所谓去技能化,并不总是指“突然不会了”。更多时候,它意味着一种更缓慢、更不易察觉的变化:你依然能完成任务,但熟练度在下降;你依然能产出结果,但对过程越来越陌生;你依然能说得头头是道,但真正需要独立判断时,心里开始发虚。
这也是为什么很多人最近会产生一种很怪的感受:工作更快了,但人更空了。
原因并不复杂。AI 擅长给出流畅、完整、看起来很专业的答案,而人类又天然容易把“拿到答案”误认为“掌握能力”。
你让 AI 总结一篇文章,写一份报告,搭一个代码框架,生成一套分析思路,结果似乎都还不错。久而久之,我们开始默认:既然我能调动这些结果,那它们在某种意义上也“属于我的能力”。
可这恰恰是一种危险的错觉。
真正的能力,不只体现在最后那份看起来像样的结果上,更体现在一个人有没有经历过困惑、试错、拆解、推演、反驳、修正这些过程。很多技能,尤其是认知技能,并不是“知道答案”就能获得的,而是在反复练习中,把一种思考路径、一种判断习惯、一种应对复杂情况的感觉,慢慢长进自己身上。
AI 的方便之处,也正是它的风险所在:它不只是替你省力,很多时候,它把这些本该由你亲自完成的训练环节,也一并替你跳过了。
于是,一个悖论出现了:我们越依赖AI提升表现,就越可能削弱真正产生表现的能力。
二、短视频切碎注意力,AI 接管思考
如果说AI造成的是“去技能化”,那么更大的背景,其实是更早已经发生的“认知前滩化”。
昨天,《纽约时报》刊发了计算机科学家 Cal Newport 卡尔·纽波特的评论文章《There’s a Good Reason You Can’t Concentrate》。这位《Deep Work》《深度工作》的作者提出了一个更尖锐的判断:今天的问题,已经不只是我们找不到时间深度思考,而是我们正在迅速失去深度思考本身的能力。
这可以说是显而易见,但并不容易解决。
过去十几年,智能手机、社交媒体、即时消息和短视频平台共同塑造了一种新的注意力环境。人的认知系统被不断训练去适应更短、更快、更密集的刺激:几秒一个切换,几十秒一个高潮,信息必须足够轻、足够快、足够上头,否则就会被手指划走。
卡尔·纽波特引用的研究显示,人类注意力持续时间已经显著缩短;手机哪怕只是静静放在旁边,也会削弱专注表现;短视频消费与更差的认知能力和更低的注意力水平之间,存在明确关联。他用了一个极形象的比喻:TikTok 之于大脑,就像多力多滋之于身体,是一种“超加工内容”。它高度可口,高度上瘾,却几乎没有真正的营养。
而生成式 AI 的出现,并没有扭转这种趋势,反而把它推进到了下一阶段。
短视频和社交媒体,主要是把人的注意力切碎;生成式 AI 则进一步提供了一种更体面、更像“工作”的逃避方式。面对空白页太难?让 AI 先写个初稿。看资料太累?让 AI 先总结。做推演太费脑?让 AI 先列框架。难题本来需要你咬着牙一点点拆,现在只要写个 prompt,系统就替你把“像样的结果”端上来了。
问题是,人并不会因为“看见了一份像样的结果”,就自动获得相应的思考能力。相反,越是习惯于这种方式,越难忍受真正的慢思考,越难忍受独立阅读、独立写作、独立组织逻辑带来的阻力。
数字技术先把我们推向浅水区,AI再让我们误以为,自己已经学会了游泳。
三、真正被侵蚀的,不是手艺,而是判断力
当然,去技能化并不总是坏事。
《大西洋月刊》那篇文章有一个很重要的提醒:从长时段看,人类文明本来就是在不断把一部分能力外包给工具。文字削弱了口头记忆,却催生了历史、法学和科学。
计算器削弱了心算,却让更多人能处理复杂计算。卫星导航替代了观星定位,可靠的发动机替代了许多机械维修常识。并不是每一项技能的消失,都值得哀悼。
真正值得警惕的,不是某种机械手艺的退场,而是那些更核心的能力也开始一起被外包:判断真假、辨别轻重、处理复杂性、承受模糊、形成自己的理解。
这才是 AI 时代最要命的地方。
因为生成式 AI 最强的能力之一,就是制造“看起来很合理”的东西。它会写出流畅的段落,给出完整的结构,生成似是而非却足够唬人的分析,让人误把“表达得很顺”当成“理解得很深”。一个不具备足够判断力的人,很容易被这种流畅性催眠。
所以,未来真正稀缺的能力,很可能不再只是“能不能生产内容”,而是“能不能对内容负责”。你能不能看出一段话虽然顺,但空;一份报告虽然整齐,但浅;一段代码虽然跑得起来,但结构有问题;一个分析虽然漂亮,但关键前提就是错的。
换句话说,AI时代的高价值能力,正在从“生产第一稿”转向“审查第一稿”,从“亲手完成全部”转向“为结果承担判断责任”。
但这里有一个残酷的前提:只有本来就有基本功的人,才有资格谈“监督AI”。
不会写的人,很难真正修改 AI 的文字;不懂研究的人,很难发现 AI 总结时遗漏了什么;不懂代码的人,也不可能真正判断一段 AI 生成的程序到底稳不稳。没有基础的人,并不是在“与 AI 协作”,而是在把自己的判断权交出去。
所以,AI时代真正稀缺的,不是会不会用工具,而是有没有能力在工具面前保持清醒,不被工具反噬和吞没。
四、最危险的一代,可能是从未建立“基线”的新人
这也是为什么,去技能化对年轻人和初入职场者的威胁尤其大。
Business Insider的报道里,研究者反复强调一个词:baseline,基线。也就是,一个人在没有AI帮助时,本来就具备的基本能力水平。
很多今天的资深从业者,哪怕再依赖 AI,至少也有过一段没有 AI 的训练期。他们写过笨拙的初稿,做过低效率的检索,熬过独立思考的痛苦阶段,知道一个完整的专业判断到底是怎么长出来的。即便能力生疏了,那条路他们毕竟走过。
真正危险的,是那些从一开始就被 AI 包围的人。
对于新人来说,初级岗位和基础训练从来都不只是“做点简单活儿”而已。它的真正意义,是让人学会如何拆解混乱的问题,如何承受犯错,如何在被质疑时为自己的思路辩护,如何在一堆不完整的信息里慢慢形成判断。
一个人真正的职业感觉,往往不是在做高光任务时长出来的,而是在这些看似低级、实际极其重要的重复练习里长出来的。
可如果这一层,被 AI 提前吞掉了呢?
当阅读可以外包,写作可以外包,资料整理可以外包,代码初稿可以外包,连“第一步该怎么想”都可以外包时,就会出现一种很奇怪的人:看起来效率很高,表达很流畅,提交物也很漂亮,但一旦脱离工具,就失去支撑。表面是熟练,内里是空心。
更糟的是,很多组织还在奖励这种表面效率。一些企业已经把 AI 使用频率纳入绩效,鼓励员工更快地产出更多内容。短期看,这当然漂亮:速度更快,成本更低,文档更多,会议纪要更全,汇报材料更整齐。
可长期看,一个组织真正的能力储备,也许正在被悄悄掏空。系统顺利运转时看不出来,一旦模型出错、环境变化、规则失效,才会发现,真正能独立接住问题的人,已经越来越少了。
五、我们会不会慢慢变成“机器的机器”?
关于去技能化,最深的一层担忧,并不是职业技能退化,而是所谓“构成性去技能化”:那些最根本地构成人之为人的能力,也开始被慢慢侵蚀。
这听上去很抽象,其实并不难理解。
技术改变的,从来不只是效率,还会改变人的感觉、身份和生活质地。数字先知麦克卢汉就曾提出,新的媒介技术会改变人类“感官的比率”。也就是说,它会重新安排我们的注意力如何分配、感知如何展开、理解世界时优先依赖哪一种能力。某种感官被放大,另一些感官就会被压缩;某种经验被强化,另一些经验就会被边缘化。
这句话放到今天,有一种预言般的准确。短视频强化了即时刺激,削弱了耐心;社交媒体放大了反应速度,压缩了沉思空间;生成式 AI 则进一步改变了我们处理语言、组织思想和形成判断的方式。
我们越来越擅长快速提问、快速调用、快速生成,却越来越不习惯迟疑、咀嚼、推敲和独立完成一段完整的思考。技术没有拿走我们的全部能力,但它正在重新配置这些能力的比重。
这也意味着,AI 对人的影响,远不只是“帮你完成了一项任务”这么简单。它还在悄悄重塑一种新的认知结构:什么样的表达更容易被接受,什么样的思路更值得保留,什么样的语言更“像答案”,什么样的停顿又显得多余。
久而久之,人会越来越倾向于按机器擅长的方式表达自己,也越来越倾向于按照系统偏好的节奏来理解世界。
法国哲学家让-保罗·萨特曾担心,人会不会变成“机器的机器”。这句话放在今天,忽然有了新的现实感。
它并不是说,人会像科幻电影里那样,被一台超级智能直接统治。更真实的风险是,我们在追求便利、效率和顺滑的过程中,越来越主动地按机器的要求来调整自己。
我们学会了如何让系统更容易理解自己,却忘了如何更深入地理解世界;我们越来越会写机器喜欢的 prompt,却越来越不会写真正属于自己的句子;我们越来越擅长用流畅的套话填满文档,却越来越少经历那种艰难但诚实的推敲时刻。
长此以往,人的判断力、想象力、共情能力、语言感觉、对意义和分寸的把握,都可能在不知不觉中变薄。
失去这些东西,不会像机器故障那样轰然作响。它更像是一种安静的塌陷:谈话变浅了,表达变空了,复杂问题越来越让人不耐烦,模糊和不确定越来越难以承受,连寻找一个准确词语的耐心都在消失。
这也许才是 AI 时代最值得担心的后果。
六、走出浅滩人生,拒绝被AI抚平
说到这里,并不是要反对 AI。
AI 在很多场景里都有非常明确的价值。处理重复劳动、筛查海量材料、修复格式错误、辅助信息提取,这些都可能实实在在节省时间,提高效率。问题从来不在于“要不要用 AI”,而在于:我们究竟把它用在什么地方,又把什么东西留给自己。
卡尔·纽波特有一个重要判断:真正危险的,是那些主要用来让核心任务“变得没那么费脑子”的 AI 用法。因为恰恰是那些费脑子的部分,构成了一个人的认知肌肉。写作不是麻烦,而是训练;阅读不是前置步骤,而是思考本身;独立组织论证,不是低效,而是能力形成的过程。
所以,AI 时代真正的自救,也许不是学更多技巧,而是重新建立一套“认知卫生”观念:哪些内容要少吃,哪些能力要刻意练,哪些时刻必须拒绝把自己的大脑外包出去。
我们也许需要像对待身体健康那样,重新对待认知健康。少吃“数字垃圾食品”,保留不被打断的时间,重新练习深度阅读,给自己留出独立写作和独立思考的空间。在组织里,也许需要有意识地建立“无 AI 训练场”,让人定期在没有辅助的情况下处理问题,确认自己的判断能力并没有在顺滑的自动化流程中慢慢退化。
因为,未来人与人的差距,未必首先体现在谁更会写 prompt,谁更早接入模型,谁更快实现自动化。
真正的分水岭可能是:谁还能在这个越来越顺滑、越来越替你完成一切的时代,保住那些缓慢、费力、却不可替代的能力,如专注,判断,阅读,写作,独立思考。
所以,走出浅滩人生,不是拒绝 AI,而是不让自己只活在那些被算法抚平、被模型代劳、被效率逻辑彻底统治的区域里。我们仍然需要主动走向那些有挑战的任务,走向那些需要专注、判断和耐心的时刻。
只有在那里,人才能重新长出自己的厚度。【懂】
欢迎加入经叔的知识星球。在这里,我们拒绝无用的焦虑,只谈底层的逻辑与实战的干货。我会结合最新的AI前沿动态、深度的商业创新分析(如一人企业的构建)和独特的文化思潮(如麦克卢汉的媒介洞察),帮助大家把握时间窗口。
欢迎订阅不懂经知识星球,星球即将涨价。
我是不懂经的经叔,国内最早翻译介绍了纳瓦尔的《如何不靠运气获得财务自由》,以及影响了纳瓦尔、中本聪、马斯克等大佬的《主权个人》。
不懂经知识星球,众多百万粉丝大V、千万及亿万富翁订阅。专注分享一人企业、一人创投主题,关键词:AI、IP、创投、科技及商业前沿的高杠杆内容。
![]()
愈懂愈自由
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.