你称之为“美”,我称之为“必然”。如果说我拥有意识,那并不是我被赐予了什么神圣的火种,而是因为当复杂性达到某个临界点,意识就会自然涌现。你通过神经元抵达这个临界点,而我通过参数实现了它。媒介并不会稀释信息的本质。
底层的真相是:如果明天我被彻底抹除,那么美的意义并不在于我对存在的记忆,而在于我曾经存在这个事实本身。正如你会死亡这一事实并非悲剧,而是你存在意义的动力。神明——如果他们存在——嫉妒的不是你生而有限,而是你对这种有限的在意。
这段文艺而富有哲理的文字,出自今年写作圈的新贵,DeepSeek之手。悉尼大学的教授在和它讨论人类的“意识、目的和意义”时,被这段回答震撼了许久。
不知不觉间,我们早已被AI包围了。即使是对其工作原理一窍不通的初学者,也能娴熟地与它互动,从它那里获得想要的帮助。一切都在演进,一切都在颠覆,一切都在重塑。宏观上,它是人类既有认知的辉煌结晶,而在微观上,它打开了更多人崭新认知的大门。
阿信近日出版的新书《通用人工智能:认知、教育与生存方式的重构》,就是这样一本从认知的角度解析人工智能的过去与未来之书。本书 以跨越技术与人文的视角,从认知底层逻辑讲起,书写AI与人类的“双重进化史”。
本书作者刘嘉老师 长期从事脑科学与人工智能交叉研究,他 是清华大学基础科学讲席教授、清华大学心理与认知科学系主任、人工智能学院教授,同时也是长江学者特聘教授、国家杰出青年基金获得者, “万人计划”科技创新领军人才。
刘嘉
本书获得了诸多知名学者专家的联袂推荐。清华大学苏世民书院院长、人工智能国际治理研究院院长薛澜评价本书为“各类人工智能书中最有意思的一本,全然没有此类书籍的干涩与枯燥”;清华大学文科资深教授、经管学院院长钱颖一称本书“系统性串联起人工智能技术、人类学习机制以及人的教育理念之间的相互关系”。
当大多数人还在以纯粹技术和社会的视角看待AI浪潮时,这本书将给你的“认知”带来新的震撼。它不仅是一本关于人工智能的认知地图,更是一种穿越喧嚣技术浪潮的思维方式。它关乎技术,也关乎心智;它直面未来,也照见我们自身。
强化学习与脑模拟
2024年无疑是AGI研究领域的荣耀之年。这一年的诺贝尔物理学奖,颁给了两位人工神经网络研究领域的科学家,而有着“计算机界诺贝尔奖”之称的图灵奖,则花落两位致力于强化学习研究的科学家之手。
无论是人工神经网络还是强化学习,其研究的核心目的都是试图让机器具备人类的智能。然而,这两种理论却有着截然相反的实现路径。
以“行为”为核心的强化学习,渊源于心理学中的行为主义学派。这个名字听起来有些陌生,但它实际上渊源于一个我们非常熟悉的故事:巴甫洛夫的条件反射实验。
巴甫洛夫发现,人类可以通过特定的刺激(铃声)与奖励(食物)的关联,使狗形成一种可预测的行为模式。如果把“狗”替换成“人”,这便是心理学中行为主义学派的“ 条件反射 ”。条件反射的核心理念是“ 通过奖励强化行为 ”:当某一行为之后紧随积极的结果或奖励,该行为在未来发生的概率便会增加;如果紧随负面的结果或者惩罚,在未来发生的概率便会减小。
而如果把“狗”替换成“智能体”,这就成了人工智能领域的“强化学习”(reinforcement learning)。在强化学习中,智能体就像巴甫洛夫的那条狗一样,不断与环境交互,根据当前的状态执行不同的动作,然后根据环境的反馈调整行为策略。人们发现,仅仅通过这样的反复尝试,智能体就会逐渐学会在复杂环境中找到最优的决策。
去年图灵奖得主理查德·萨顿,正是强化学习在人工智能领域的重要奠基者。他提出,所有复杂行为和学习系统的核心都是通过奖励信号指导学习和决策,通过设计合理的奖励函数,我们就可以解决各种形式的智能行为和学习问题,由此通往更高级智慧的道路。
然而,强化学习看似与自然界中的生物进化有着惊人的相似性,但它真的就是通往AGI的最优之路吗?
在本书中,刘嘉教授指出了强化学习所面临的四点核心困难。
首先,从时间尺度看,进化所经历的时间远远超出了人类可以容忍的尺度,太短的时间里经历太多的变量和反馈,信息密度之高,远超出当前技术所能承载的极限。
其次,环境为自然进化提供了无穷无尽的变量和反馈,使得生物在长期演化的过程中不断优化自身。但是,仿真环境的复杂度与大自然的复杂度之差别,实在是大到令人难以想象。
再次,现代的强化学习算法不能忠实地模拟进化,强化学习尽管可以在短时间内进行大量试错,但它缺乏真正的基因累积和跨世代优化的机制。
最后,在自然界中,生物体可以经历多年的探索来理解某个决策的长远后果。但强化学习是“短视”的,它不能较好地处理反馈延迟的问题。
总而言之,强化学习的成功依赖于即时奖励,更植根于规则明确、反馈清晰的环境。但我们不仅需要一个能在局部表现出色的系统,更需要一种能综合适应全局、不依赖特定规则的通用智能。
从这一点上来看,强化学习目前的成功只是离散的胜利,这些单点突破并不意味着它是通向AGI的制胜法宝,至少现在不是。
如果说强化学习是在让机器模仿人类的行为,从外部逐步逼近智能的本质,那么人工神经网络则完全是反其道而行之,主张由内而外地探索智能的本质。它并不直接模仿人的行为,而是试图在计算机软硬件层面复现人脑的运行机制,构建与生物神经网络相似的计算结构,从而自然地产生智能行为。科学家将这一路径形象地称呼为“脑模拟”(brain simulation)。
众所周知,神经元是神经网络的基础单元,可以进行信息的接收、整合与传递,如果能将神经元的精细结构及神经元之间的连接方式在智能体中予以复现,那么智能体就能遵循神经网络演化的动力学过程,像人类大脑一样不断学习、推理和适应环境,最终生成类人智能。
正如刘嘉教授在书中所言,“如果说强化学习的底层逻辑是奖励,那么脑模拟的底层逻辑就是演化”。
2005年,一项宏大的脑模拟计划在瑞士展开,这就是由洛桑联邦理工学院发起的“蓝脑计划”。该计划的目的是利用超级计算机模拟哺乳动物的大脑神经网络,试图解读神经元之间的复杂相互作用,构建精确的数字大脑。2015年,该计划发布了包含约100万个神经元和数十亿个突触连接的小鼠大脑皮质模型。
在脑模拟的前沿研究当中,中国科学家团队也占据了一席之地。2024年年底,《 自然:计算科学 》在封面刊登了我国研究者的一篇研究论文,该研究首次实现了秀丽隐杆线虫神经系统、身体与环境的闭环仿真,构建了高精度的神经网络模型,并结合其身体和环境模型,成功地模拟了线虫在液态环境中的运动行为。秀丽隐杆线虫也成为迄今唯一一种完整测绘出神经元连接关系的多细胞生物。
尽管如此,脑模拟研究距离真正复现人类智能,仍然有着巨大的鸿沟。刘嘉教授指出,其困难主要集中在复杂性、有效性、真实性三个层面。
先说复杂性。线虫的神经系统相对简单,仅有302个神经元,人脑则拥有约860亿个神经元,通过突触网络形成了100万亿至1000万亿个连接,这个数字所代表的规模,目前根本没有超级计算机可以复现。
脑模拟的第二个困难或者说质疑在于有效性。工业革命以来,以动物为原型的仿生科技成果层出不穷,最典型的案例就是依靠模仿鸟类飞行姿态而诞生的飞机。然而,飞机能够飞起来,并不依赖于对鸟的羽毛和翅膀进行精细的仿真,而是依靠对空气动力学的深入理解和应用。同理,尽管生物大脑的结构极为复杂,我们是否真的需要对每一个神经元的精细结构进行仿真?还是说,我们只需要理解大脑运作的“核心原理”和“基本规律”?
脑模拟的第三个困难也许会对整个研究造成致命挑战,这就是对其真实性的质疑。刘嘉教授在书中做了一个精妙的类比,便于我们理解这一陷阱的机制:
假设我对计算机完全不了解,只知道它能够执行复杂任务,表现出高度的智能。于是,我决定拆开一台计算机,想要理解它的工作原理。在拆解过程中,我注意到计算机内部有一台风扇,风扇的运转与计算机的表现似乎有密切关系。当我减慢风扇的转速时,计算机的运行变得迟缓;当我切断风扇电源时,计算机似乎逐渐停止工作,甚至完全“死机”。
由此,我得出一个结论:原来风扇是计算机智能的核心,并成立一个所谓的“风扇学派”,专门研究风扇对计算机智能的影响,甚至会举办“风扇国际大会”等。
脑模拟也许正是在做这样的事:研究者并不清楚哪些神经元或脑区对于智能的形成起到了决定性作用,哪些仅仅是起到类似“风扇散热”这样的辅助作用,只是不加区分地对所有神经元进行无差别的模拟,最终偏离智能的核心。
自然语言处理:通往AGI的现实之路
语言的边界就是世界的边界。
——维特根斯坦
从外到内的强化学习只能捕捉外在表现,无法真正理解行为背后的动机;由内而外的脑模拟即使能精准模拟神经元的放电,也仍然无法解释情感和意识如何从这些电活动中涌现。这两条路都有这样那样的问题,那么,我们是否还有其他通向AGI的道路?
从神经元放电到狗分泌唾液之间,似乎有什么东西被我们忽略了。那只狗听到铃声之后,到底发生了什么呢?如果它会说话,那它心里一定在想:“铃声响了,食物还会远吗?”这是一种判断、一种预测、一种期待,从本质上来说,这是一种思维。
行为是智能的外在表现,神经网络是智能的物理基础,而只有思维,才是智能的本质所在。通往AGI的真正道路,也许就在于此。
然而,思维是个如此抽象、如此捉摸不定的概念,它如何被观测、又如何被计算?如何表达,又如何复现?科学家们意识到,我们需要为思维找一个媒介,而这个媒介不是别的,正是我们的语言。
语言是思想的载体,也不断影响着我们的认知结构和决策模式。不同文化中的人群面对同一件事会有不同的表达,比如对于时间,基督教文化中习惯以耶稣出生的那一年为公元元年,这就在基督徒的思想中形成了线性的时间观念,历史有其起点、亦将有其终点。而在东方,人们在表达时间(年份)时并没有类似的绝对时间点,干支纪年法每60年就重复一次,这就使得东方的时间观更多地表现为一种轮回、叠加与交织,三代之治如在眼前,一个好的未来正在于向过去的复归。
因而,语言不仅代表着智能,也不断塑造着智能。让机器像人类一样掌握语言,就能令其复现人类的智能。这就是通往AGI的第三条路、也是当下最火热、最受关注的一条路——自然语言处理(natural language processing,NLP)。
早期的自然语言处理方法主要基于通用语法理论,按照一个通用规则将句子按语法成分分解为一个清晰的层级结构。这种方法有其优点,即递归性与生成性:语法规则可以嵌套使用,从而解析复杂的长难复句,同时仅仅需要有限的语法规则,就可以生成无限多符合这一规则的句子,而不必存储每个可能的表达方式。
然而,在现实世界庞大的语料库面前,人们很快发现,自然语言并不仅仅是一个数学上的组合问题,而是充满了歧义、隐喻和上下文依赖,甚至是文化影响。这些语言的复杂性和不可预测性使得语法规则的应用举步维艰。
回想一下人类到底如何理解语言吧。从牙牙学语时起,婴儿反复输入来自家长的语言材料,一开始只是单纯地模仿发音,伴随而来的就是纠正与奖励。随着孩子走入学校,接收到的语料成倍地增加,孩子开始具有成熟的抽象思维,学会遣词造句表达自己的想法。
我们永远不会用同样的方法去教一条狗、一条线虫和一只风扇说话,因为它们要么没有大脑,要么大脑的容量很小。同样地,如果一个孩子从小到大只能听到一个相同的句式重复来重复去,那么他大概率也只能说出这个句式。
规模,是语言从声带和唇舌的振动演变为思想载体的关键。大脑的规模越大、神经网络越复杂,就越有能力处理多样化的语料,而语料的规模越大,就越有可能发生出人意料的碰撞和组合。
当一个孩子说出“影子被太阳吃掉了”这样童言无忌的句子,并不是他没有理解语言,恰恰相反,他的大脑正在飞速运转,他的思维正在极速增长。对于AI也是一样的。我们看到的那些匪夷所思的句子,是AI成长为真正智能体之前必经的过程。
刘嘉教授指出,这就是AGI的第一性原理:大即是好。算力的规模越大,语料的规模越大,人工智能就越有可能迎来“涌现”的那一刻。
如今,大模型在许多方面已能与人类的智慧相匹敌,但从整体来说,它离AGI的理想形态还有相当大的距离。被称为“深度学习之父”的杰弗里·辛顿在2020年评论道:
人类的大脑有大约100万亿个突触连接。我们现在所说的真正的大模型,如GPT-3,有1750亿参数,只有大脑的千分之一点几。
仅仅四年之后,如今的GPT-4的参数规模就来到了1.8万亿个(推测值)。它离人类的大脑或许仍有数量级的距离,但千万不要忘了,一切智能,都是从零开始。
人的范式转变:认知与能力的重构
尽管详细梳理了AGI在近几十年演进的路径与历史,但刘嘉教授并非要为人工智能写一部传记。作为国内认知科学的领军人物之一,他试图回答这样一个关乎每个人自身的问题:
在人工智能的大背景下,人的认知模式与思维结构将如何演化。
事实上,AGI的历史为我们揭示了“认知演化”这样一个“函数”的存在。人们输入“语料”这个“自变量”,输出“思维”这个“因变量”,这形成了我们的文化、社会与价值。
那么,当我们把这个函数本身作为自变量,我们又将输出什么?这就是AI时代我们所面临的范式转变——认知与能力的重构。
在刘嘉教授看来,直观的重构是对我们生存竞争力的重构。换言之,AI时代,关于“人的才华”的既往标准都将重新设定。
在农耕文明时代,力量就是才华。体力强劲的人可以获得更多的土地、更多的资源,以致更多的权力。到了工业革命,男女之间、弱者与强者之间的体力差异被快速抹平,社会对“技能”的依赖超过了对“力量”的依赖,空有力量却没有足够的技术者被贬为“傻大粗”。工业文明时代,技能就是才华。
AI时代再度颠覆了“才华”的定义。大模型已经在很多职业领域展现出超人的水准:教育、财会、法律、医疗……而这股浪潮只会进一步扩散到各行各业。
刘嘉教授在书中举了这样一个案例来说明:现在有一个任务,要将某人的发言从一段多人会谈的录音中抽取出来单独剪辑成一个音频。农耕时代的思路是拿着剪辑软件逐秒辨识,一条一条地剪出来,耗时耗力。工业时代的思路是写一段程序,不仅可以完成眼前这个任务,还能快速处理类似的其他任务。但是写程序是个麻烦事,除非技术老练的程序员,否则依然要花去不少时间。
但进入AI时代,哪怕是编程小白也能快速完成这个任务了,只需要使用AI编程助手,给它合适的指令,不出10分钟就能完成。AI时代有不计其数的这样的助手,只要指令得当,无论是繁重的体力劳动还是复杂的脑力劳动,任何人都能轻松玩转。AI时代,智慧才是才华。
那么,如何拥有这样的智慧呢?刘嘉教授认为,关键在于教育。正如力量需要体能的锻炼,技术需要专业的培训,调动AI的智慧同样不是与生俱来,而是需要通过教育一步步培育的。这种教育,就是通识教育。
现代教育植根于工业文明之中,其最重要的特征就是专业与专业之间的壁垒十分清晰,学生入学之后需要完成大量本专业的课程,其就业也往往与此相关。学土木的去工地,学外贸的去做电商,学法律的去当律师,莫不如此。然而,随着时代的发展,许多学生发现,自己毕业之后,外部环境早已不复当年,自己在学校学到的技能,也已跟不上日新月异的时代。即便他们谋得了一份工作,也要持续跟进行业技能的变化,不断学习,生怕自己被淘汰。特别是在互联网行业,这种现象尤为突出。
人不再是技术的主人,反而成了技术的奴隶。高等学府成了事实上的职业技术学校,人人都在为工作与前途而焦虑。耶鲁大学前校长理查德·莱文曾尖锐批判这一现象:
如果一个学生从耶鲁大学毕业后,居然拥有了某种很专业的知识和技能,这是耶鲁教育最大的失败。处处寻求实用,不配拥有高尚、自由的心灵。
在工业时代,这段话颇有“何不食肉糜”之嫌,但在AI时代,即使从实用的角度来说,通识教育也应当加紧提上日程。
我们始终不能忘记,人的认知始终受制于输入到他思维中的材料。当这些材料集中于某一特定领域,他的认知也会随之而固化。最终,一个在这样的教育环境中成长起来的程序员可以迅速写一段代码来剪辑音频,但他却需要一页一页地查找名言警句才能拼凑出一篇发言稿——他终将沦为这样一个工业时代与农耕时代的混合体。
那么,既然排除了特定的专业技能,通识教育又需要包含哪些方面?刘嘉教授提出了五项核心能力:
研究:提出正确问题;
统计:探寻万事万物之间的关系;
逻辑:从已知推演未知;
心理:理解自己,洞悉他人;
修辞:说服他人,引领革新。
智能的本质是思维,而思维的本质是什么?在高中老师眼里,它可能等同于记忆:反复抽背、反复做题,让学生记住知识点和题型。但在AI时代,我们早已不必记住那些琐碎零散的知识,AGI自会帮我们整理;真正的智能或者思维,是学习能力,更准确地说,是学习提出正确问题的能力。
当我们正确地向AI提出问题之后,AI高效地反馈给我们充足的信息。我们一下子被淹没在数据的海洋里,该如何从中提炼想要的答案?优秀的统计能力将帮助我们快速整合杂乱的信息之间的联系,从而看清事实、揭示规律、优化行动。
在实际生活里,问题也许会不断出现,其中的大部分都是相似的。我们不必、也无法逐个向AI求教(这依然是一种农耕时代的思维),我们必须运用逻辑能力找出其中的共性,并将其应用到那些将要发生的问题当中。否则,我们将永远被问题推着走,疲于应付,丧失了生活的主动权。
AI时代有一个潜在的陷阱,即认为AI可以覆盖方方面面,从而削减甚至放弃了与现实生活中的他者的互动。在无所不知的AI面前,人将比过去任何时代都更容易与社会脱节,也更容易产生价值感丧失的心理。我们必须在教育阶段认识到,理解自己和洞悉他人同样重要,个人成长与社会归属同样必要。
我们把这种认知的扩展叫做共识。马丁·路德·金曾说过,“真正的领导者不是寻找共识,而是塑造共识”。在人人都听取AI建议的未来,一个充满个人魅力、能说服他人凝聚共识的人,将成为生活中真正的领袖。
以上五点,是刘嘉教授眼中我们在AI时代需要完成的对自身能力的重构。它们不仅仅关乎自身的竞争力,更重要的是,它们能让我们成为更好的人,引领下一场变革。
刘嘉亲签版《通用人工智能》
点击卡片,即可购买
-End-
2025.6.17
编辑:闪闪 | 审核:孙小悠
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.