![]()
BCG在2026年5月10日发布的《AI组织坍缩效应》报告中首次系统提出了部门墙坍缩、翻译型岗位消失、专家护城河转移等核心判断。本文以该报告为分析框架,结合中国企业案例和最新商业事件进行引申分析。
本文来自微信公众号:青萍见,作者:shushuhn,题图来自:AI生成
AI进入办公室已经不是新闻。但大多数人还在讨论AI帮我写周报、AI生成会议纪要——这些是工具思维,不是组织思维。
真正值得追问的是:当AI Agent开始直接参与业务执行,公司的权力结构会发生什么变化?
需要提前说明的是,本文的推演基于一个假设前提:AI Agent的能力会持续提升,能够更可靠地处理跨职能的复杂信息。但在现实中,大模型存在概率性而非确定性推理、输出不可复现等先天局限;更严峻的是,《Nature》在2024年发布的研究指出,如果AI反复在早期AI生成的内容上训练,会引发不可逆的模型坍缩,导致输出同质化、平庸化,放大早期偏差。因此,本文所讨论的组织坍缩更接近于一种在理想化条件下可能加速的理想趋势,而非板上钉钉的确定性预言。
![]()
一、为什么公司会有中层?
管理学的经典答案是管理幅度。一个人能直接管理的人数有限,公司规模大了,CEO管不过来,所以要加一层管理者。
但这只是表面原因。另一个被低估的真相是:中层管理者是信息不对称的受益者。当CEO的指令从董事会传达到一线执行员工,会经历产品调研、需求评审、研发、测试多道工序。两个月后交出来的结果,可能已经和最初想要的东西差得很远。中层就存在于这条信息链路里:把上面的想法翻译成下面能执行的任务,把下面的进展整理成上面能听懂的汇报。
出门问问创始人李志飞在一次采访中直言:“过去,企业要做大,往往靠人的规模化。人一多,管理就复杂,层级、流程、汇报、沟通都会变多,组织中间层也随之变厚。中间层越厚,信息损耗越大,熵增越明显。”
经济学里有一个概念叫信息租金,指因信息不对称而获取的额外收益。本文所说的信息税正是这种租金的一种体现——中层管理者因掌握上下级信息差而获得的隐性权力与价值。需要澄清的是,将中层的协调功能称为税并不意味着否定其生产性——在复杂组织中,信息转译本身就是必要的协调工作。这里的税更接近于交易成本概念:当AI能以更低成本、更高一致性完成同样的信息转译工作时,这部分原本必要的成本就变成了可被压缩的超额支出。
技术史上,第一个冲击中层管理者的工具是协同办公软件。钉钉、飞书把消息、文档、会议搬到线上,让CEO理论上可以直接看到一线员在干什么。但软件只是信息同步,没有业务执行。任务不会自己跑起来,推进还是要靠人催。
AI Agent做的事情比软件更深一层:它不只是帮人同步信息,而是在直接执行任务。
![]()
二、信息税正在被压缩
BCG报告的核心判断是:当Agent能够同时理解财务、HR、法务等多职能规则时,部门这一边界本身将逐步失去意义。共享中心不会被简单优化,而是被吸收进统一的AI运营体系。职能AI转型不再是拆墙,而是部门墙自己消失。
2026年4月21日,出门问问正式发布企业级AI原生协作平台CodeBanana。这个平台的核心逻辑是群即现场:一个群里,人与AI Agent共同作为协作单元。Agent负责写代码、做PPT、查资料、生成网站。群聊里的讨论可以直接触发Agent执行,Agent的结果再回到讨论区。会议纪要不再只是留档,而是变成Agent继续执行的入口。
当信息可以被AI直接跨职能处理时,中层的翻译权被绕开了。
![]()
需要指出的是,出门问问、GitLab等案例主要来自数字化基础较好的科技公司。在传统制造业、大型国企或强监管行业,科层制不仅是信息传递工具,还承担着合规风控、权责界定和利益平衡等功能。AI在这些领域短期内很难绕过复杂的人情成本与合规红线。此外,出门问问工程师的全栈化在一定程度上也源于其作为AI公司的高招聘标准,这部分能力是否可被普通企业复制,还需要更长时间的检验。
BCG的报告进一步指出:在财务预算与经营分析场景中,过去需要业务、财务与IT多轮对齐、数据整理与报告生成的流程,现在可以由三类Agent协同完成——业务伙伴Agent理解目标并拆解任务,执行Agent完成数据整合与分析,预测Agent提供风险提示。人类管理者只在关键决策点介入。
GitLab的最新调整是这个趋势的商业注脚。2026年5月11日,GitLab宣布重组,计划将全球运营国家数量减少30%、移除最多3个管理层级、研发部门重组为约60个更小团队,并用AI Agent自动化内部流程。CEO Bill Staples在内部信中称,这是为了迎接agentic era而进行的战略投资。需要说明的是,GitLab的重组动机可能包括远程办公成本、地缘政治风险等多种因素,将其完全归因于削减信息税是一种简化解读。但移除最多3个管理层级这个举措本身,确实意味着一部分中间层的职能正在被重新定义。
不是裁员优化,是组织换血。
![]()
三、留不下来的中层,长出来的能力
BCG报告提出了一个极具穿透力的判断:最先消失的不是干活的人,而是翻译的人。
报告解释道:过去中后台大量岗位承担信息转译职能——将业务需求转化为财务语言、将政策转化为合规要求、将数据整理为管理报告。而生成式AI天然具备跨语境理解与文本生成能力,这类接口型角色将率先被压缩。
李志飞在采访中说得更直白:“被淘汰的不是中层,是只干以前中层那些活的人。留下来的人,要有一线执行能力,也要有战略、产品和用户思维。”
过去被定义为管理者的能力——转译、协调、催办、汇报——正在被技术重新定价。而真正稀缺的能力——判断复杂情况、敢于拍板、愿意承担后果——AI还做不到。目前的技术局限在于:大模型缺乏因果推理能力,其输出本质上是概率预测而非逻辑推演;在需要价值判断(如这个方案是否符合公司价值观)的场景中,AI无法替代人的主体性。
BCG将这一转变概括为:专家的护城河从我记得变成我判断。以知识记忆为核心价值的能力将被逐步替代,而具备判断力、取舍能力与复杂决策能力的专家,将成为新的核心稀缺资源。
留下来的中层,开始长成另一种人。出门问问的工程师已基本能独立做前后端,产品经理和非研发人员也能处理简单研发任务,市场人员可以做Dashboard、爬数据、搭系统。他们不再是只会提需求的人,而是懂技术、懂业务、能指挥Agent的人。
![]()
四、管理者转型的隐性代价:认知债务
BCG报告描绘了一个乐观的未来:管理者从管人转向指挥人机系统,管理幅度显著放大。
但多伦多大学2025年的一项脑科学研究带来了一个冷静的提醒:长期依赖AI辅助写作的人,在处理复杂认知任务时,其大脑特定区域(与主动检索、逻辑推理相关的皮层)的神经连接活跃度显著降低,降幅约在数十个百分点。这种现象被称为认知债务——用进废退,越是把思考外包给AI,独立解决问题的能力退化得越快。该研究测量的是受试者在执行特定认知任务时的神经连接活跃度变化,而非大脑结构的物理萎缩或长期智力退化。同时,这类实验通常在限时、高压的单一任务环境下进行,与现实工作中非线性、多步骤的人机协作模式存在差异。
如果管理者不再亲历信息的获取与处理过程,而是完全依赖Agent过滤后的二手信息,他们的判断力将变成无源之水。这会产生一个深层悖论:管理者的判断力退化与组织对AI的依赖加深形成正反馈循环——人越依赖AI,判断力越弱,越不敢脱离AI,组织对AI的锁定越深。这不是组织变得更高效,而是组织变得更脆弱。
需要强调的是,这一风险并非不可避免。理论上,组织可以通过强制轮岗、定期下沉一线、保留无AI辅助的决策演练等方式,来对冲认知债务。但多数企业尚未将这类机制纳入AI转型的配套规划。
![]()
五、悖论:更小的单元,更高的协调成本
组织的Agent化带来一个不大被提及的悖论:当团队越拆越小,跨团队的协调成本反而可能上升。
BCG报告描述了理想状态:组织形态将从金字塔加速向哑铃型演化——执行端演化为“Agent+人工”的协同结构,中间环节大幅压缩。
但现实是,几十个小团队的接口、任务依赖、优先级冲突仍然需要人来对齐。这些成本并没有消失,只是从部门之间的摩擦,转移到了人机协作的界面。
管理者的管理幅度的确会放大——过去一位管理者带10位下属是常态,未来“一人+N个Agent”可能成为标配。但管理幅度的增加本身并不自动带来效率,反而可能放大管理者的认知负载。协调几十个Agent和协调几十个人,难度性质不同:Agent不会闹情绪、不会争资源,但会严格执行一个有隐性缺陷的指令,把错误放大得更快。
BCG报告也承认这一风险:当AI承担财务、HR、法务等核心任务时,一次偏差的分析、一份不合规的决策,都可能在AI规模化执行下被瞬间放大。小概率失误一旦发生,可能引发系统性连锁反应。
目前行业对如何系统化解决人机协同成本尚无成熟方案。可能性方向包括:技术层面用Agent间的通信协议(如ACL、工具调用契约)减少人工介入,组织层面设置轻量级人工抽查/SLA机制。可以预见,组织坍缩不会是一蹴而就的平滑趋势,而可能呈现局部先坍缩、局部保留的不均衡坍缩状态,或在试错中经历“坍缩—部分回退—再坍缩”的震荡反复。
![]()
六、坍缩的边界:谁会慢一些?
组织坍缩不会在所有行业同步发生。
高度监管的行业会更慢。金融、医疗、航空等领域的合规要求会延缓AI对核心决策流程的渗透。当一份财务报告出现偏差可能导致监管处罚时,让Agent自动处理的门槛会高很多。
创意型组织可能走不同的路。广告公司、设计工作室的核心价值在于非标创意,而不是流程效率。AI在那里更像一个思想碰撞的工具,而非替代中层的执行者。
中小企业与大型企业的速度也不一样。小公司本来就没有那么厚的中间层,坍缩的空间有限;大公司中间层厚,但利益格局更复杂,转型的阻力也更大。
组织惯性。大型企业的科层制不仅是信息传递通道,往往还嵌入了复杂的内部权力角力、利益分配格局和历史遗留问题。即使AI能解决技术层面的信息不对称,这些根深蒂固的官僚结构和跨部门壁垒仍是阻碍坍缩的巨大摩擦力。在中国,国企和大型民企的科层制文化与关系型协调还会进一步改变坍缩的节奏。信息税不只有技术成本,还有人情成本。
资本带来的能力分层。此外,未来的AI能力本身也会因资本投入而产生分层。头部企业可以通过巨额投入购买专属的、经过高精度微调的超级智能体,而中小企业只能使用基础版。这种智能力的贫富差距,可能会让组织坍缩的速度在不同体量的公司之间产生巨大鸿沟。
![]()
七、AI治理:当Agent犯错时,谁来负责?
尽管AI的执行能力在快速增强,多数企业还没有准备好应对AI深度嵌入业务流程带来的治理挑战。
BCG报告预测,将催生一类全新的职能角色——AI输出审核官或AI治理专家。他们兼具业务理解、合规敏感度与技术判断力,负责定义AI的能力边界、审核关键节点的输出、对重大风险进行兜底。
但这引出了一系列尚未解决的问题:
当AI犯错时,责任归属如何划分?是算法开发者负责技术缺陷、部署者负责场景适配、使用者负责输入质量、还是审核官负责输出把关?目前行业尚无统一框架。
当前的法律监管框架——如欧盟AI Act和中国《生成式人工智能服务管理暂行办法》——正在探索这些边界,但尚未给出清晰的责任分配方案。
审计追踪和人工复核机制具体如何设计?是每单必审还是抽样?触发人工复核的阈值是什么?这些问题,BCG报告没有给出答案,整个行业也还在探索。
![]()
八、如何在AI时代守住判断力底线?
第一批开始规模化人机协同的企业,已经暴露出两个刚性问题:审计追溯机制的缺失、管理者判断力被AI架空的风险。
一些头部团队正在试点几类基础制度:
强制无AI窗口:对关键决策环节保留无AI辅助的分析演练,避免团队对Agent输出形成路径依赖。
定期下沉一线:管理者必须周期性回到一线数据采集或客户界面,确保决策建立在真实感知之上,而非完全依赖Agent过滤后的二手信息。
复核与抽查阈值机制:对Agent自主输出的内容,设定明确的抽查比例和触发人工介入的风控口径(如超过10万元需双人复核)。
这些措施并非答案,但至少说明一点:人机协同需要制度设计,而不是坐等Agent成熟。
![]()
九、结语:组织坍缩的进程才刚刚开始
Gartner在2025年8月预测,到2026年底,40%的企业应用程序将集成任务特定的AI智能体,而2025年这一比例还不足5%。从5%到40%的跃迁,不是渐进优化,而是结构性重塑。
但正如本文反复提醒的,技术演进不会是线性的。模型坍缩、认知债务、合规红线、人情成本——这些现实摩擦力会让组织坍缩在反复试错中震荡前行,而非一帆风顺。
BCG报告在结尾留下了几个值得每一位管理者追问的问题:
你所在组织的中后台,有多少岗位正在承担信息转译,而非判断决策?
你的专家团队,护城河是建立在知识存量上,还是判断流量上?
在AI规模化执行之前,你的组织是否已经搭建起能够兜底风险的治理夹层?
组织的每一层结构——至少是那些以信息转译为核的岗位——都在被重新审视。对于每个知识工作者来说,真正值得追问的不是AI会替代我吗,而是我的岗位在AI时代值多少钱。如果过去你的价值来自信息不对称,那么这种不对称正在被压缩——尽管速度和程度因行业而异。
留下来的中层,不再是那个上传下达的人。他们是能设计工作流的人,是能指挥Agent拿结果的人,是能在复杂模糊的情境中做出判断的人。这仍然是AI做不到的事——因为判断的背后是价值立场、风险承担与主体性,而这些超出了当前概率模型的能力边界。
组织的命运,从来不取决于技术本身,而取决于谁能在技术重塑的权力结构中,重新定义自己的位置。这是AI Agent时代,每一个管理者都必须回答的问题。
![]()
说明:本文在BCG报告的分析框架基础上,进一步提出了信息税概念,并对认知债务(人机协同中的判断力退化风险)、组织惯性与资本壁垒等现实阻力进行了补充分析。这些延伸讨论不代表BCG的官方观点,由作者独立负责。
本文来自微信公众号:青萍见,作者:shushuhn
本内容由作者授权发布,观点仅代表作者本人,不代表虎嗅立场。如对本稿件有异议或投诉,请联系 tougao@huxiu.com。
本文来自虎嗅,原文链接:https://www.huxiu.com/article/4857634.html?f=wyxwapp
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.