快速阅读: 谷歌DeepMind联合创始人哈萨比斯提出了一个检验真正AGI的思想实验:用1911年前的知识训练AI,看它能否像爱因斯坦一样在1915年推导出广义相对论。这个想法听起来浪漫,细想却充满争议。
该图片可能由AI生成![]()
哈萨比斯的AGI定义从来没变过:能够展现人类全部认知能力的系统。他特别强调,大脑是我们已知的唯一一个通用智能的存在证明——这也是他当年去学神经科学的原因。
他对当前系统的判断相当直接:能在国际数学奥林匹克竞赛中拿金牌,却可能被换个问法的简单数学题绊倒。这种“锯齿状智能”不是通用智能,只是某种高度不均衡的能力堆叠。
于是他提出了那个思想实验:将AI的训练数据截止到1911年,然后看它能否自行推导出1915年的广义相对论。
这个想法在网上引发了两种截然对立的反应。
支持者认为,这正是一个真正意义上的推理测试,而非记忆测试。你不是在考它背没背过答案,而是在考它能否从已有材料中生长出全新的理论。有观点认为,把截止年份换成更近的时间也成立——比如用2016年前的数据,看AI能否独立发明2017年的Transformer架构。
质疑者则直接戳穿了这个测试的操作难度:1911年前有多少数字化文本?那点数据够训练出什么规模的模型?更根本的问题是,爱因斯坦的思维不只来自书本,还来自他整个生命中对物理世界的感知、与同行的走廊对话、专利局工作中接触到的各类发明构想。你根本不知道他的脑子里装了什么,也就无法复现他的起点。
有网友直接说:爱因斯坦自己承认,想象力才是他工作中最重要的部分。而这恰好是大型语言模型目前最缺失的东西——它无法在训练数据之外真正“想象”。
还有一个更尖锐的批评:这个标准本身就太高了。爱因斯坦不代表普通人,他代表的是人类认知上限中的上限。用这个标准定义AGI,意味着绝大多数人类也没达到AGI。
有观点认为,当前AI系统的核心缺陷不是知识储备,而是归纳推理和溯因推理。大模型靠的是极其精密的演绎能力,而演绎在人类认知的整个谱系里,可能偏偏是最不关键的那一维。
哈萨比斯说,他认为还需要“一两个重大突破”才能实现AGI,这些突破可能明天到来,也可能是二十年后。听起来像是在打太极,但考虑到他把爱因斯坦当成考题,这个时间窗口的不确定性或许是诚实的。
真正的问题或许是:如果AI终有一天能独立推导出广义相对论,我们会不会又说,“这只是它擅长的那个领域,不算真正的通用智能”?
简评:
哈萨比斯出的这道题,表面考AI,实际考人。
他想要一个决定性证据:AI到底是“记忆的机器”还是“思考的实体”。但问题在于,爱因斯坦自己也说不清相对论是怎么想出来的。创造力最神秘的地方就在于它不可回溯、不可复现。你让AI重走一遍1911到1915,走通了你会说“只是碰巧”,走不通你会说“果然不行”——这不是测试,这是审判。
更要命的是,我们对人类智能的标准从来都是“双标”的:普通人办不到的事,我们不苛责;AI办到了的事,我们总怀疑。所以真正的问题不是AI什么时候能推导出相对论,而是——当它真的推出来那天,我们舍得承认吗?
www.reddit.com/r/singularity/comments/1rb3awd/demis_hassabis_the_kind_of_test_i_would_be
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.