1946年,诺伯特·维纳(Norbert Wiener)把"控制论"抛向世界时,用的是一句航海比喻——"掌舵的艺术"。这个类比轻巧得近乎狡猾:输出变输入,因果互相追逐,系统自己教自己走路。
80年后,我们还在这个圆圈里打转。只是现在的"船"换成了大语言模型,而"掌舵"的人发现:仪表盘上跳动的数字,和乘客实际感受到的颠簸,根本是两回事。
那个数学上完美、现实中不存在的形状
维纳的反馈循环画出来是个圆。圆在数学里是完美对象,但自然界从不生产正品——只有带毛边的仿制品。生物系统、机械装置、社会技术网络,全是近似解。噪声、误读、条件漂移,让闭环永远留着缝。
这个缝就是不确定性。不是模型输出概率分布那种技术定义,是人遇到未知时的真实体验。AI研究者花了三年优化前者,对后者几乎没开题。
《Doing AI Differently》这本书,加上CIRCLE和FRAME两个框架,把这个问题推到了台面中央。作者的身份很有意思:实验物理出身。这个背景解释了为什么整本书都在测"测不准"本身——用仪器的逻辑,研究仪器测不到的东西。
当人类成为反馈环里的未知数
大模型时代的悖论在于:我们建造了史上最复杂的预测机器,却假装使用者和被预测的对象是稳定的。提示词工程(Prompt Engineering)假设用户知道要什么;对齐(Alignment)假设人类价值观可以写成损失函数;RLHF(基于人类反馈的强化学习)假设反馈本身没有噪声。
FRAME框架的狠劲在于,它把"人类遇到不确定性时的行为"也纳入系统变量。不是作为需要被驯化的噪声,而是作为必须被理解的输入。CIRCLE则更进一层:反馈环里的每个节点——模型、界面、用户、环境——都在同时被其他节点改造。
换句话说,这不是"人在回路中"(Human-in-the-Loop)那种装饰性表述。这是"人在回路中,且回路因人在而改变"的动态结构。
为什么我们忙着量体温,却忘了问病人疼不疼
实验物理的训练痕迹在这里很明显。作者描述自己的思考轨迹时用了个精确的词:"circling around"——绕着问题转圈,而非直线逼近。这和当下AI论文的叙事风格形成对照:后者偏好"解决了X问题"的闭合句式,哪怕X只是某个基准测试的分数提升。
不确定性作为"人类体验"的研究,目前处于什么阶段?书中没有给乐观的时间表。现状是:我们有越来越细粒度的模型置信度估计,却对"用户什么时候该信任这个置信度"一无所知。我们有越来越复杂的解释性工具,却不知道不同专业背景的人如何解读这些解释。
一个具体的缺口:医疗AI领域的大量研究表明,医生对模型建议的采纳率,和模型实际准确率的相关性弱得惊人。影响因素包括界面颜色、建议出现的时机、医生当天的接诊量——这些变量很少出现在技术评估报告里。
那个永远合不上的缝,可能是光进来的地方
维纳的遗产被简化得太久了。控制论常被讲成"自动调节的技术科学",但它的核心问题是关于知识的边界:当系统复杂到包含观察者自身,完整的描述是否可能?
CIRCLE和FRAME的提出,可以看作对这个问题的当代回应。它们不追求更紧的闭环,而是设计更聪明的"开口"——让不确定性被看见、被表达、被纳入决策流程,而非被平滑掉。
书的结尾没有给出"完美圆圈"的建造蓝图。作者承认自己的思考仍在循环中,输出尚未成为稳定的输入。这种诚实本身,或许比任何框架都更接近维纳的原意:掌舵的艺术,承认洋流的存在。
最后一个细节来自书的致谢部分。作者提到,写作过程中反复丢弃的章节,比保留的还多——因为每完成一轮阐述,就会发现自己的立场已经漂移。这个meta-commentary(元评论)没有被删掉,而是留在了正文里。
如果AI系统的开发者也能这样记录自己的迭代日志,我们或许会更清楚:那些标注为"1.0版本"的模型,究竟在追逐一个什么样的圆。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.