网易首页 > 网易号 > 正文 申请入驻

2024诺贝尔物理奖是否出现了重大遗漏?

0
分享至

12.2

知识分子

The Intellectual

图源:pixabay

撰文 |吴思

这篇短文不是要讨论今年诺贝尔物理学奖是否不恰当地授予了人工智能专家,而是要澄清授奖对象是否出现了重大遗漏。

John Hopfield和Geoffrey Hinton两位教授获得了今年的诺贝尔物理学奖,其中Hopfield教授的获奖原因是因为发展了著名的Hopfield吸引子网络模型。由于我长期在做有点冷门的吸引子网络的理论研究(见微信公众号文章【学术思想】连续吸引子神经网络:神经信息表达的正则化网络模型),因此不少同事祝贺我,有种终于“苦尽甘来”,可以“与荣有焉”了的感觉。但我内心却是五味杂陈,因为我深知道Hopfield模型背后真实的故事。有朋友鼓励我说,为计算神经科学领域外的读者以及年轻学者计,我应该写下这段公案,给历史留一段记录。

简单说就是,日本著名科学家Shun-ichi Amari(甘利俊一)教授在1972年就已经提出了Hopfield教授在1982年发表的Hopfield模型,前者比后者整整早了十年。两个数学模型几乎一模一样,而且Amari教授的文章还做了更深入细致的数学分析。图1简单对比了两个模型的最关键相同之处,包括神经元的阈值动力学(threshold dynamics)和神经元连接的Hebbian 学习律。基于该数学模型,两篇文章都分析了网络动力学的稳定状态,即吸引子,并由此引申到了大脑的联想式记忆。读者可以仔细对比Amari1972年[1]和Hopfield 1982年[2]的文章。有科研经验的读者都知道,在模型如此相似的情况下,有了Amari 1972年的文章,Hopfield 1982年的文章其实很难能发表在重要杂志上了。当然在当时资讯条件下,有可能Hopfield教授并不知道Amari教授的工作。

图1:Amari原始模型和Hopfield原始模型的对比。两者的数学形式几乎是一模一样的,都采用了神经元的阈值动力学和神经元之间连接的Hebbian学习律。

在计算神经科学及相关领域,Amari教授比Hopfield教授早十年提出Hopfield模型并不是一个鲜为人知的秘密,而是一个很多人都知道的事实。计算神经科学领域的著名学者Haim Sompolinsky教授(2023年Brain Prize大奖的获得者)在一篇文章中曾评论到:“虽然Amari更早提出了一样的模型,但因为Hopfield贡献很大,所以我们叫它Hopfield模型“,英文参见[3]。计算神经科学领域另一位已过世的著名学者Daniel Amit(《Modelling Brain Function: The World of Attractor Neural Networks》书的作者)曾经当面给Amari教授道歉,表示这是学术界的一个错误,该模型应该叫Amari-Hopfield模型,并赠予了Amari教授一条红色领带作为歉意。

诚如Amit教授所言,在当年资讯远远落后于今天的时代,即便是Hopfield教授独立发展了该模型,出于科学惯例,这个模型也应该叫Amari-Hopfield模型更合适。但让人费解的是,诺贝尔奖评审委员会在明知Amari教授早期工作的情况下(诺奖的科学背景介绍还列出了Amari1972年的文章),依然忽视了Amari教授的贡献,实在是让人难以理解。

需要申明的是,我介绍这段历史并不全因为我是Amari教授的弟子,有为老师发声之嫌。其实在外网的一些论坛上,对此争论更激烈。著名的德国科学家Jurgen Schmidhurber教授(LSTM模型的发明人)就在一个有悠久历史的邮件群connectionist里为Amari教授的不公发声。摘录部分如下:

图2:Schmidhurber教授对Amari模型早于Hopfield工作10年的评论。

可能有读者知道,Schmidhurber教授在其它场合也为另一段公案发声,其涉及到了Amari教授在人工神经网络最基础的训练算法-反传算法(BackProp)上的重要贡献,我这里也介绍一下。简单说就是,Amari教授在1967年就提出了stochastic gradient descent(SGD)(但由于当时计算机算力受限,只在浅层神经网络上做了演示)[4],比Hinton教授等人提出的有相似思想的BackProp(1986)[5]早了19年。当然我本人特别崇敬Hinton教授,尤其佩服他锲而不舍地把基于深度学习的人工智能技术推广到了今天的高度,但在BackProp的优先权上还是应该一码归一码。有好事者在connectionist群里发布了一张Hinton教授在1997年ICNN会议上介绍BackProp的照片,演讲题目是“What’s wrong with Backprop?”, 其中Hinton教授本人写下了“Amari thought it first”(见下)。

图3:Hinton教授在ICNN1997会议的演讲稿,其中写下了Amari第一个想到BackProp。

在诺贝尔物理学发布之后,Amari教授很快就在日本理化学所的官网上发表了公开声明(见图4),其间只字未提自己的不公,反而真诚地祝贺了两位获奖者,体现了Amari教授一贯淡泊名利、与世无争的风格。但作为知情者,我认为不能因为Amari教授的高风亮节,我们就默认这种行为是无所谓的,其后果只会破坏科学共同体赖以健康发展的基石。

Amari教授一生在科学上建树太多,有兴趣的读者可以参见Amari教授回顾其在计算神经科学领域半个世纪工作的文章[3]。除了上面提到的吸引子网络、BackProp,还有一项在我看来理论上更漂亮的工作是信息几何(information geometry)。该工作用微分几何方法分析了数据驱动的模型学习的本质,是对模型学习机理最深刻的认识。因此,我虽心有怅然,但我坚信,没有诺奖或图灵奖的加持,Amari教授在科学上的巨大贡献也一样流芳百世!

图4:Amari教授在诺奖结果公布后,很快就在日本理化学研究所官网上发表的公开声明(中文翻译稿)。

ZHISHI

后记

最后我也向感兴趣的读者简单介绍一下吸引子网络的后续发展。在AI领域,Amari-Hopfield模型近年来被推广为了modern Hopfield模型[6]。在神经科学领域,Amari-Hopfield模型逐渐被其它生物学更合理的吸引子模型代替。当前最热的吸引子网络模型是连续吸引子网络(CANN)(参见微信公众号介绍文章【学术思想】连续吸引子神经网络:神经信息表达的正则化网络模型)。特别值得指出的是,Amari教授在1977年就发表一篇纯粹基于数学性质考虑的CANN模型[7],远远走在了实验证据的前面[8-9],也是领域内的一篇经典工作。作者在Amari教授实验室做博士后期间,和Amari教授一起发展了一个理论可解的CANN模型[10],并在随后的二十多年里围绕该模型开展研究。近年来,作者课题组进一步推广了该模型,在动力学方程中引入了适应性反应(adaptation),以解决吸引子网络面临的一个根本性难题:一方面,吸引子使得大脑可以稳定表征信息;但另一方面,其也不可避免地带来了副作用,即一旦神经系统进入了一个吸引子状态,就很难脱离该状态,使得大脑难以实现信息的快速迭代或搜索。通过在吸引子网络中引入时程相对较慢的适应性动力学(其可以被神经系统中广泛存在的副反馈作用实现),就能使神经系统既可以稳定地表征信息,同时又能快速搜索或迭代信息。我们系统分析该模型的计算性质[11-12],并用该模型成功了解释大量的神经生物学现象[13-14]。

本文作者吴思系北京大学心理与认知科学学院教授,麦戈文脑科学所常务副所长

参考文献:(上下滑动可浏览)

[1]Amari, S. (1972). Learning patterns and pattern sequences by self-organizing nets of threshold elements. IEEE Transactions on Computers, C-21(11), 1197–1206.

[2]Hopfield, J. J. (1982). Neural networks and physical systems with emergent collective computational abilities. Proceedings of the National Academy of Sciences of the United States of America, 79, 2554–2558.

[3]Amari, S. (2013). Dreaming of mathematical neuroscience for half a century. Neural Networks, 37, 48–51.

[4]Amari, S. (1967). Theory of adaptive pattern classifiers. IEEE Transactions, EC-16, 299–307.

[5]Rumelhart, D., McClelland, J., & Hinton, J. (1986). Learning internal representations by error propagation. In D. E. Rumelhart, & J. L. McClelland (Eds.), Parallel distributed processing: explorations in the microstructure of cognition, vol. 1. MIT Press.

[6]Krotov, Dmitry, and J.J. Hopfield (2016). Dense associative memory for pattern recognition. NeurIPS.

[7]Amari, S. (1977). Neural theory of association and concept-formation. Biological Cybernetics, 26, 175–185.

[8]Kim, S., Rouault, H., Druckmann, S. & Vivek Jayaraman (2017) Ring attractor dynamics in the Drosophila central brain. Science 356, 849–853.

[9]Gardner, R., Hermansen, E., Pachitariu, M., Burak, Y., Baas, N., Dunn, B., May-Britt Moser, & Moser, E. (2022). Toroidal topology of population activity in grid cells. Nature 602, 123-128.

[10]Wu, S., Amari, S. & Nakahara. H. (2002). Population Coding and Decoding in a Neural Field: A Computational Study. Neural Computation, v14, no.5, p.999-1026.

[11]Dong, X.#, Chu, T.#, Huang, T., Ji, Z.*, & Wu S* (2021). Noisy Adaptation Generates Levy Flights in Attractor Neural Networks. NeurIPS.

[12]Dong, X., Ji, Z., Chu, T., Huang, T., Zhang, W., Wu S* (2022). Adaptation Accelerating Sampling-based Bayesian Inference in Attractor Neural Networks. NeurIPS.

[13]Chu, T.#, Ji, Z.#, Zuo, J., Mi, Y., Zhang, W., Huang, T., ... & Wu, S.* (2023). Firing rate adaptation affords place cell theta sweeps, phase precession and procession. eLife.

[14]Ji, Z. L. #, Chu, T.#, Wu, S.* & Burgess, N.* (2024). A systems model of alternating theta sweepsvia firing rate adaptation. Current Biology.

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
奥运冠军杨威在香港的居住环境:一家六口蜗居在40多平米的小屋里

奥运冠军杨威在香港的居住环境:一家六口蜗居在40多平米的小屋里

观鱼听雨
2026-05-15 21:06:26
五一和老伴旅游,仅仅花了不到一万块钱,回来后却被儿子儿媳疏远

五一和老伴旅游,仅仅花了不到一万块钱,回来后却被儿子儿媳疏远

十指说情
2026-05-14 08:48:05
你的蓝牙耳机可能在“窃听”!国安部提醒涉密人员禁止使用,苹果、华为、小米、索尼等品牌客服回应

你的蓝牙耳机可能在“窃听”!国安部提醒涉密人员禁止使用,苹果、华为、小米、索尼等品牌客服回应

都市快报橙柿互动
2026-05-14 00:46:18
福州市仓山区民政局原党组书记、局长陈晶被查

福州市仓山区民政局原党组书记、局长陈晶被查

海峡网
2026-05-15 15:50:04
主动表态!勇士续约库里,2年1.36亿,一人一城的传奇还在延续

主动表态!勇士续约库里,2年1.36亿,一人一城的传奇还在延续

体育大朋说
2026-05-16 10:38:20
中方喊话以色列:停止在叙利亚境内一切军事行动

中方喊话以色列:停止在叙利亚境内一切军事行动

看看新闻Knews
2026-05-16 08:54:10
海港球迷意难平!不止因为2-2浙江,更多原因在于以下6点

海港球迷意难平!不止因为2-2浙江,更多原因在于以下6点

佳佳说奇事故事
2026-05-16 06:35:52
命中关键三分率队取胜,张镇麟出场34分钟&三分5中3取17分

命中关键三分率队取胜,张镇麟出场34分钟&三分5中3取17分

懂球帝
2026-05-15 21:44:31
一场87-82!输球不可怕,可怕的是赛后京媒一席话,被打服了

一场87-82!输球不可怕,可怕的是赛后京媒一席话,被打服了

晚雾空青
2026-05-16 10:58:10
毛主席83岁给华国锋的珍贵书法,练字真的有意义吗?

毛主席83岁给华国锋的珍贵书法,练字真的有意义吗?

书画相约
2026-05-11 10:09:02
成人片女星许诺萨福诺夫夺欧冠将共度良宵,球员妻子爆粗回应

成人片女星许诺萨福诺夫夺欧冠将共度良宵,球员妻子爆粗回应

懂球帝
2026-05-14 15:58:14
30岁夜市老板娘当众脱内裤套男子脖颈,丈夫全程旁观,细节太辣眼

30岁夜市老板娘当众脱内裤套男子脖颈,丈夫全程旁观,细节太辣眼

老特有话说
2026-05-15 16:18:24
天气 | 最新雨情!天津这里有暴雨或大暴雨!

天气 | 最新雨情!天津这里有暴雨或大暴雨!

天津广播
2026-05-16 08:55:52
破例举杯!川普国宴浅酌中国红酒,这款东方佳酿快断货了?

破例举杯!川普国宴浅酌中国红酒,这款东方佳酿快断货了?

超新星财经
2026-05-15 17:12:01
世乒赛落幕才几天,日本主帅锐评梁靖崑,只字不提球技却一针见血

世乒赛落幕才几天,日本主帅锐评梁靖崑,只字不提球技却一针见血

观史搜寻着
2026-05-15 14:28:14
叫嚣让华屈服?特朗普没想到,访华第一天,就见识了“待客之道”

叫嚣让华屈服?特朗普没想到,访华第一天,就见识了“待客之道”

田园小归
2026-05-16 10:13:47
中老年人同居要记住:没有生理上的需求,就不要搭伙了

中老年人同居要记住:没有生理上的需求,就不要搭伙了

三农老历
2026-05-16 09:40:00
随特朗普访华的白宫通讯主任:史蒂文.张,是华人移民的后代

随特朗普访华的白宫通讯主任:史蒂文.张,是华人移民的后代

魔都姐姐杂谈
2026-05-15 06:12:44
特斯拉突然甩出“五毛七电价”!1299元包6年2300度电

特斯拉突然甩出“五毛七电价”!1299元包6年2300度电

阿芒娱乐说
2026-05-16 09:18:54
女子骑马拍照,摔下马背手臂骨折,在救护车上还在问“没事弟弟,主要是出片了吗”,当事人回应:为安抚团队员工情绪,一直说话缓和气氛

女子骑马拍照,摔下马背手臂骨折,在救护车上还在问“没事弟弟,主要是出片了吗”,当事人回应:为安抚团队员工情绪,一直说话缓和气氛

潇湘晨报
2026-05-16 09:12:31
2026-05-16 12:20:49
知识分子 incentive-icons
知识分子
关注科学、人文、思想
654文章数 1097关注度
往期回顾 全部

科技要闻

涨的是车价,要的是老命

头条要闻

美国媒体在天坛里寻找俄勒冈木材 被指非常耐人寻味

头条要闻

美国媒体在天坛里寻找俄勒冈木材 被指非常耐人寻味

体育要闻

35岁坎特,干了一件这辈子最吵的事

娱乐要闻

张嘉译和老婆的差距让人心酸

财经要闻

造词狂魔贾跃亭

汽车要闻

高尔夫GTI刷新纽北纪录 ID. Polo GTI迎全球首秀

态度原创

艺术
数码
亲子
本地
手机

艺术要闻

19位当代画家油画作品欣赏

数码要闻

苹果“产品百科”应用Mactracker迎25周年,新增对比和收藏记录

亲子要闻

凯特访问幼儿园,与孩子们一同探索自然,温柔系穿搭让人眼前一亮

本地新闻

用苏绣的方式,打开江西婺源

手机要闻

支付宝回应关闭支付仍被扣款;苹果iPhone17Pro系列降价千元

无障碍浏览 进入关怀版