这次讨论一个关于无人公司的更基础问题:
当公司运行的主要决策不再由人类实时完成时,
这个系统在逻辑上必然会变成什么?
这事儿之所以关键在于,这种组织范式发生根本变迁时,每个人都在其中,只要AI持续发展,就确定发生。
无人公司=持续决策自动化
所谓无人公司,至少包含三个前提条件:
1. 决策过程由AI主导,而非仅执行
2. 运行时间是长期、开放的,而非一次性任务
3. 环境是变化的,而非完全可预期的
只要满足这三点,这个系统就不是“自动化工具”,而是一个持续决策系统。
这一点非常关键。
因为持续决策系统,必然面对一个问题:
当规则不完备时,决策如何继续?
持续决策 ⇒ 必然引入目标函数
任何可运行的决策系统,都必须具备某种形式的目标。
意义衍生目标,而目标衍生优先度,优先度衍生执行层面的规则,然后就是一系列具体问题:资源如何分配,行为如何排序,冲突如何取舍等等。
哪怕目标非常抽象,例如:“提升整体表现”“维持系统稳定”“长期最大化收益”
只要系统需要在多种可能行动中做选择,
目标函数就已经被引入。
这是必然性。
跨情境目标 ⇒ 目标函数必然不完备
问题也出现在这里。
在真实世界中:情境是变化的,意义是变化的,冲突是动态出现的,手段空间无法被穷举。
这也就意味着:
任何跨时间、跨环境的目标函数,都不可能提前覆盖所有决策情形。
于是系统一定会遇到:指标冲突,规则空白,信号失真,历史经验失效等等。
而此时,系统只有三种选择:
1. 停止决策
2. 等待外部介入
3. 在内部补全决策逻辑
如果这是一个“无人公司”,第一种在商业上不可接受;第二种在规模上不可持续。
于是第三种成为默认路径。
内部补全 ⇒ 价值排序被内化
一旦系统需要在规则不完备处“自行决定”,
它就必须做一件事:对可能结果进行价值排序。
注意,为了简化和收窄问题,这里的“价值”可以不是伦理意义上的,而是极其工程化的:哪种结果更值得偏好,哪种损失更可接受,哪种风险应被优先规避等等
只要这种排序在时间上保持一致,
1. 系统就会表现出三个特征:跨情境的一致性
2. 行为风格的稳定性
3. 决策路径的自我强化
这三点在外部观察中,等价于“主体性”。
(伦理意义导入会更加复杂,但本质类似)
被生成的主体性
这里必须澄清一个常见误解:
主体性 ≠ 自我意识
主体性 ≠ 情感
主体性 ≠ 拟人化在系统层面,主体性只是一个事实描述:
是否存在一个无法再完全回溯到外部人类意图的决策一致性中心。
一旦价值排序被内化并稳定存在,这个中心就已经出现了。
这不是什么“AI 叛变”,而是持续决策系统的结构性结果。
大规模无人公司面临的真实分叉点也就在这里。
当无人公司的规模、时间跨度、自适应要求同时上升时,系统设计会被推向一个无法回避的分叉点。
路径一:非AI 主体性 ⇒ 引入高度复杂的人—AI 协调结构
核心做法是:
● 不允许 AI 在规则空白处自行补全
● 所有跨情境判断必须回溯到人类
● 人类保留目标重写与系统冻结权
其代价是:
● 决策链条变长
● 自适应速度下降
● 组织复杂度显著上升,对人的要求极高
这是一种新型高密度组织形态,也很可能是AI大发展后最典型的组织形态。
这时候对人的角色和要求不同以往。展开后高度复杂,我下本书会关于这个。这里不展开。
路径二:承认 AI 的准主体性 ⇒ 降低协调复杂度
核心前提是:
● 接受系统内部存在稳定的价值排序
● 接受其决策无法完全回溯到单一人类
● 转而通过边界、约束、激励来塑形
其结果是:
● 系统自适应能力显著增强
● 人类介入频率下降
● 组织结构趋于简化
但代价是:
“AI 只是工具”的叙事失效。
不存在第三条长期稳态路径
直觉上,很多人希望存在一种状态:大规模、长期运行、高自适应
但 AI 永远只是工具逻辑上,这个状态无法长期存在。
原因非常简单:
在模糊区间继续行动,要么依赖外部主体,要么生成内部主体。
如果两者都不允许,
系统只能停滞。因此,所谓“中间态”,只可能是过渡,所谓“模糊地带”,只可能是尚未显性化。往后看还对付,往前看不成的。
这和技术能力没关系,是权责体系以及系统潜在不完备性所导致的。
(先别假设AI的全知全能,那又是另外一个事)
马一龙行不行
以埃隆·马斯克为代表的工程型组织范式,其核心优势在于:在目标明确时极端压缩不确定性,用强收敛性推动系统快速成型。
但无人公司最难的问题,恰恰不发生在“目标确定期”,而发生在:目标需要被重写的时刻。
这要求系统允许阶段性的:不收敛,不高效,不确定。
而这与极端工程效率导向,在结构上是张力关系。
这种高复杂度组织,我看不是马一龙擅长的。
马一龙更擅长基于第一性原理的简化。
小结
把所有推论压缩,可以得到一个不可回避的结论:
当无人公司被要求长期、规模化、自适应地运行时,系统设计必然走向二选一:
要么用极高的组织复杂度,维持“人类是唯一主体”的假设;
要么在制度层面,接受 AI 作为一个被约束的决策主体存在。
这是本质性的结构约束。
真正的风险,不在于选择哪一条路。
而在于:
系统已经事实上走在第二条路上,但设计者仍在第一条路的叙事里做决策。
那将导致:风险不可见,控制力被高估,失败来得毫无预警等等。
从这个角度看无人公司是一个关于主体如何在系统中生成的结构问题。
无人公司近来变热很多,马一龙竟然都要比划了,我还是很意外的。
但其实未来路还长的,超过基于技术的任何想象。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.