2024年Q3,全球企业AI工具支出突破127亿美元,但同期麦肯锡调研显示:72%的管理者说不清团队用AI到底产出了什么。钱花了,账算不清——这是过去18个月最普遍的职场困惑。
有人把AI当作弊器,有人当许愿池。两种想象都跑偏了。它更像类固醇:能让肌肉长得快,但去健身房的还得是你。
「工具不会替你举铁」
原文作者打了个粗粝但精准的比方。健身者用药,增肌速度翻倍,但训练强度、饮食控制、睡眠恢复一样不能少。药物不替你流汗,不帮你克服平台期,更不培养你对身体的理解。
AI对知识工作者的作用机制几乎一致。它能压缩 drafting 时间、把50页报告浓缩成3页要点、帮你突破 blank page paralysis(空白页瘫痪)。但这些输出质量的天花板,仍取决于使用者的判断力、领域深度、提问精度。
一个资深产品经理用AI,3小时能跑完竞品分析的MVP框架;新人用同款工具,3小时可能产出一份看起来专业、实则漏洞百出的战略文档。
差距不在工具,在谁握着鼠标。
放大器 vs 迷彩服
原文把职场人分成两类,这个切分比「会用AI/不会用AI」更锋利。
强者拿AI当 cognitive multiplier(认知放大器)。测试假设的速度从周变成天,从「想三个方案」变成「想三十个筛三个」,把机械劳动外包给机器,省下的注意力砸向真正需要人类决断的环节。
弱者的用法更隐蔽也更危险:用AI生成一份语法 flawless 的邮件,掩盖自己没想清楚;让模型写代码注释,假装理解了自己 copy-paste 的函数;用漂亮的可视化图表包装空洞的分析。
这不是 productivity 提升,是 competence theater(能力表演)。更麻烦的是,这种伪装在短期内难以识别——直到项目推进到需要真人担责的节点。
组织层面的新难题
当AI模糊了「谁真懂」和「谁看起来懂」的边界,招聘和晋升的逻辑被迫重构。
传统筛选依赖的输出物——报告、代码、设计方案——现在都能被AI批量生产。面试官开始加测「白板即兴」:关掉Copilot,现场解题。绩效考核从「交付了什么」转向「决策质量如何」「错误如何归因」。
一些团队在做反向实验:强制AI静默日,观察谁裸泳。另一些团队在重建协作协议——哪些环节必须人类签字,哪些输出必须标注AI参与度。
这些调整没有标准答案,但方向明确:组织正在从「评估产出」转向「评估产出背后的思维过程」。
一个未被回答的问题
原文停在了一个开放地带:当AI让「看起来专业」的门槛骤降,真正的专业能力该如何定价?
职场正在经历一场缓慢的信用重估。那些曾被包装成稀缺技能的能力——格式规范的PPT、流畅的商务写作、基础的数据处理——正在快速贬值。而定义问题、校准优先级、为错误买单的意愿,这些无法被AI代劳的特质,溢价还在上升。
变化的不是工具本身,而是「什么算本事」的共识。
你的团队最近半年修改过绩效考核标准吗?如果有,新增了哪些过去不存在的维度?
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.