很多人以为AI 的爆发是这几年的算力奇迹,但“瞭望”历史你会发现:
今天的Transformer,流着图灵 70 年前预言的血脉;
它的骨架,依然是皮茨在 1943 年手绘的那张神经元网络;
而它的心脏,则是辛顿在多伦多寒冷的冬夜里,用“反向传播”为机器注入的知觉。
这不是技术的更迭,这是一场跨越 80 年的接力。
![]()
一、 图灵的构想
“与其直接造一个全知全能的成年人大脑,不如造一个像'白纸'一样的孩童大脑”,这是图灵在《计算机器与智能》里提到了一个著名的类比,然后通过教育(惩罚与奖励)让它产生意识。这就是现在“强化学习”的灵魂。图灵在 1950 年就意识到,“意识”是复杂系统在学习过程中自然涌现的副产品。
1936年,著名数学家图灵(Alan Turing)发表论文,提出了著名的图灵机(Turing Machine)概念。它由无限纸带、读写头和一组运算规则组成,通过在纸带上读取、写入符号并按既定规则逐步执行操作来完成计算。图灵机为“通用计算机”概念奠定了理论基础,是现代计算机科学和人工智能发展的重要思想起点。
想象 1950年的图灵,手里拿着那个后来成为传说的苹果,在曼彻斯特昏暗的灯光下,构思着一个能和人“互诉衷肠”的机器。图灵并不在乎机器是否有灵魂,他在乎的是,机器能否让我们相信它有“灵魂”。
![]()
二、逻辑的诞生
如果说图灵是提出了“机器能否思考”的先驱,辛顿是让神经网络重生的教父,那么 Walter Pitts 就是用逻辑和数学为“人工神经元”铸魂的天才少年。
当 1943 年的冬天,15 岁的流浪少年 Walter Pitts 躲在芝加哥大学图书馆的阴影里,指出逻辑巨匠罗素《数学原理》中的逻辑错误时,没人意识到,这个连高中都没有读过的少年,正亲手为“人工智能”这头怪兽缝合第一层逻辑神经网络。
他和麦卡洛克共同提出的M-P 模型,首次定义了神经活动中内在概念的逻辑演算。他证明了神经元可以用“0 或 1”(开或关)的二元逻辑来表达。这是人类历史上第一个人工神经元数学模型。他告诉世界:大脑的思考过程本质上就是一种逻辑运算。
Pitts 把飘渺的意识,关进了严丝合缝的逻辑公式里。
天才在流浪,上帝在哭泣!
![]()
这就是那个 15 岁流浪少年 Walter Pitts 的真实容貌。他用逻辑为 AI 铸魂,却最终选择带着他那叠厚厚的、足以改变人类进程的手稿,消失在历史的尘烟里。
然而天妒英才,这位先驱没能走出内心的孤独,在他生命的最后阶段,他烧毁了自己所有的研究手稿,包括《关于三维神经网络的超前设想》,成为科学界永久的遗憾!
冯·诺依曼在设计现代计算机架构(冯·诺依曼架构)时,直接引用了 Pitts 的论文。可以说,没有 Pitts 对神经元逻辑的拆解,现代计算机的底层逻辑可能要推迟很久才出现。
三、 进化树分离
1956 年的那个夏天,在达特茅斯学院的草坪上,人类第一次试图扮演上帝。麦卡锡、明斯基、香农……这些在各自领域如雷贯耳的名字聚在一起,共同研究如何让机器使用语言、形成抽象概念、解决各种人类问题。麦卡锡(John McCarthy)首次提出“Artificial Intelligence(AI) ,“人工智能”从此被正式命名。
达特茅斯会议虽然给这个学科取了“人工智能”这个统一的名字,但参会者们对“什么是智能”的理解,从一开始就分道扬镳了。
符号主义(逻辑派)认为智能是高高在上的逻辑推导。代表人物麦卡锡和明斯基就像是“上帝”,试图把世界的规则一条条写进机器里。
连接主义(神经元派)认为智能是从底层生长出来的涌现。他们更想模仿大脑的物理结构,让机器像生物一样进化。
由于符号主义在早期解决数学证明、下棋等问题上见效极快,它迅速成了 AI 进化树上的“主干”,而连接主义则沦为了一根无人问津的侧枝,甚至被视为科学界的“伪科学”。
达特茅斯会议虽然命名了AI,但由于麦卡锡等人的强势,导致“连接主义”(神经元派)被冷落。当时的科学家们太想直接造出成年人的逻辑,却忘了图灵关于孩童学习的嘱托。
在那场盛会之后,AI 的进化树发生了一次彻底的断裂:逻辑派带走了所有的经费与赞誉,在聚光灯下编织着“逻辑全能”的幻梦;而连接主义则被流放到了边缘地带,在漫长的半个世纪里,它几乎成了“偏执与民科”的代名词。
![]()
四、寒冬的守望者
当 1980 年代的 AI 寒冬席卷全球时,学术界几乎已经宣判了神经网络的死刑。在那个逻辑至上的年代,如果你坚持研究神经元,无异于在科学界自毁前程,进化树的这一脉似乎已经枯萎。
这时,一个出身于科学世家的英国年轻人杰弗里·辛顿(Geoffrey Hinton)选择背对主流的喧嚣,一头扎进了这片荒原,他要在寒冬里,把这根枯枝重新接回“进化树”主干。
辛顿因为严重的背伤,几十年来几乎不能久坐,他要么站着工作,要么跪着,他在这种极度的冷寂中,不仅要对抗外界的嘲讽,还要对抗自己家族的“逻辑基因”(注:辛顿的曾祖父是逻辑学家乔治·布尔,正是布尔运算的奠基人),为了找回那个能让机器自我进化的“反向传播算法”,他在这片荒原上守候了三十年,在寒冬里站成了人工智能的一座灯塔。
![]()
“反向传播”就是让机器学会“反省”。每一次犯错,信号都会顺着神经元倒流回去,告诉前面的层:你错了,改过来!这就是机器产生智慧的瞬间。
辛顿在人工智能领域的贡献极其卓越,他被誉为 “神经网络之父”、“人工智能教父”。 他的主要贡献包括:反向传播算法的改进与推广、深度学习模型的创新(深度置信网络、卷积神经网络等多个深度学习网络结构)。辛顿还为AI行业培养了包括OpenAI前首席科学家 伊尔亚・苏茨克维(Ilya Sutskever)在内的诸多人才。
辛顿赢了,“神经网络”在2012 年之后席卷全球,连接主义终于接管了进化树。
2024 年 10 月,当诺贝尔物理学奖宣布授予这位曾经被视为“民科”的老人时,那棵在寒冬里枯萎了半个世纪的进化树,终于开出了全人类都能看到的繁花;随后 2025年11月,辛顿获得伊丽莎白女王工程奖。
如果你读到这里,也感到眼角有一丝温热,请记住:AI 的底层逻辑固然是数学和代码,但它的起源,却是一群天才在寒冬里的彼此守望,是那个烧毁手稿的少年未竟的梦想,是辛顿在那张旧黑板前孤独站立的三十年。
天才不再流浪,接力永不熄灭。
![]()
下一篇预告
他赢了,但进化并没有停止,更大的风暴正在酝酿……
随着数据量的爆炸,神经网络开始显得“笨重”且“健忘”。就在人类以为 AI 的进化又将陷入算力泥潭时,2017 年,谷歌的几位工程师在论文中写下了那个改变世界的词:Transformer。直到一个叫 Attention (注意力机制)的概念出现,才真正开启了大模型时代。
它不再模仿人类的记忆,而是模仿人类的“注意力”。这一变动,直接催生了后来的 GPT 和我们今天看到的 AlphaFold 3。
下一篇,我们将深入那个“注意力”的漩涡,看看 Transformer 是如何用一己之力,终结了 AI 的春秋战国时代。
如果你想知道,这种跨越 80 年的接力最终如何解决了生命科学的终极难题,可以回看我上一篇关于AlphaFold 3 的深度拆解。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.