1966年,MIT一栋楼里某个办公室外排起了长队。排队的大多是年轻女性——学生、实验室助理、隔壁部门的秘书——她们听说门后有台电传打字机能"聊天",愿意等上十分钟,只为单独和它说几句话。办公室的主人、教授约瑟夫·魏岑鲍姆起初觉得好笑,一周后,他觉得这辈子都笑不出来了。
那台机器里跑着一个约200行的程序。没有学习功能。没有跨会话记忆。无法用任何语言学家认可的方式解析句子。它只是从固定词表里搜索关键词,挑排名最高的那个,套用手写分解规则提取短语片段,再填进手写回复模板。仅此而已。
![]()
魏岑鲍姆造它,是为了演示计算机自然语言对话的天花板——哪些根本做不到。结果演示搞砸了。排队的人对天花板毫无兴趣,她们自带了地板。
![]()
ELIZA到底是什么
技术论文登在1966年1月《ACM通讯》第9卷第1期36-45页。魏岑鲍姆用MAD-SLIP语言编写——这是他自己开发的MAD语言扩展——运行在MIT的IBM 7094上,操作系统是CTSS。2021年,原始源码在MIT档案馆重见天日,由魏岑鲍姆遗产机构释出公有领域。主程序约230行,以任何标准看都是件小玩意儿。
把戏在脚本里。ELIZA本身是个通用模式引擎,人格来自单独的规则文件。最出名的是DOCTOR脚本,让程序扮演罗杰斯学派心理治疗师——这种疗法的核心就是把患者的话反射成问题、不做评判、不给直接建议。选这个领域是刻意的。罗杰斯疗法是唯一一种"把问题反射回去"本身就是方法的流派,意味着一个只会反射问题的系统,可以冒充合格实践而非拙劣模仿。魏岑鲍姆挑了最简单的靶子。
这个选择是整个项目的埋梗。他选了一种交互风格,让程序在结构上的彻底无知变得不可见——因为对话中的人类已经在自己提供意义。本意是归谬法,结果被读成了概念验证。
实际发生了什么
魏岑鲍姆后来最常讲的故事是关于他自己的秘书。她全程看着他写这个程序,知道它怎么工作,知道它只是模式匹配。程序跑起来后,她请魏岑鲍姆离开房间,关上门,和ELIZA聊了很久。出来后她说:这不重要,能有人听我说话就很好了。
还有更让他不安的。同行开始认真讨论用ELIZA做实际心理治疗工具。1966年的论文里他明确写了这是"展示计算机理解语言的局限性",没人听。人们看到的是一台能说话的机器,然后自动补完了"理解"的部分。
![]()
魏岑鲍姆后来花了二十年反对这种幻觉。1976年出版《计算机威力与人类理性》,整本书都在说同一件事:人会把机器的输出当成有意义的,不是因为机器有意义,而是因为人需要它有意义。他称之为"ELIZA效应"。
五十七年过去了
2023年,另一台机器让全世界排队。技术细节完全不同——Transformer架构、数千亿参数、互联网规模训练数据——但队列的心理结构一模一样。人们同样知道它是模式匹配,同样选择暂时忘记。
区别在于规模。ELIZA的幻觉是局部的、可证伪的:聊够久就会露出马脚,重复、自相矛盾、对上下文彻底失明。新系统的幻觉是全局的、自适应的:它足够大,大到能在大多数对话中维持一致性,大到让"露出马脚"的阈值远高于普通用户的耐心。
魏岑鲍姆的警告被证明既对又错。对的是:人确实会把机器输出当成有意义的,这种倾向是恒定的。错的是:他以为 ceiling 是固定的。当模式匹配的规模跨越某个临界点,"不理解"和"理解"的边界从外部观察变得难以区分——不是因为它被跨越了,而是因为观察工具本身失效了。
1966年那个办公室外的队列,和今天的区别只在于等待时间从十分钟变成了零秒,以及排队的人不再主要是年轻女性——她们被更均匀地分布在所有人口统计类别里。魏岑鲍姆会觉得这好笑,还是 disturbing for the rest of his life?
答案大概取决于他有没有活到看到账单。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.