![]()
11月16日,由国家高新区人工智能产业协同创新网络、中央广播电视总台《赢在AI+》节目组、清华大学可持续社会价值研究院、中国人民大学交叉科学研究院、赛迪研究院人工智能研究中心、中关村发展集团等联合主办的2025人工智能+大会在北京中关村国际创新中心&中关村国家自主创新示范区会议中心举行。
图灵奖得主、中国科学院院士、清华大学交叉信息研究院院长、清华大学人工智能学院院长姚期智发表演讲。
姚期智演讲的核心观点有:
1.AI未来核心发展方向是达成具备类人认知推理能力的AGI,其在科学、战略、经济层面意义重大。
2.中国近5年在大模型、具身智能领域进步迅猛,已跻身国际第一方阵甚至领先,另外两大方向也有发展。
3.具身智能需硬件身体与“小脑”“大脑”结合,能完成灵巧任务,可弥补传统机器人不足,替代部分人类不愿做的工作。
4.科学智能将颠覆科研方式,未来科学家需与AI协同,AI还能助力量子计算机研发,尤其在量子纠错上成效显著。
5.谷歌借助AI神经网络实现量子比特纠错,为大规模量子计算机发展奠定基础,中国相关团队具备竞争力。
6.AI存在算法不鲁棒、冲击社会伦理、导致失业及失控等风险,需重视安全性与治理问题。
7.应对AI风险需研发安全对齐算法,借助多学科理论构建可证明安全的AI系统,同时建立国际治理共识。
8.中美欧科学家已发起定期对话,推动AI治理的国际合作与交流。
9.大模型革新各行业,中长期AI将向AGI迈进,赋能科学且需保障安全可靠,发展前景广阔。
10.中国不缺AI应用人才与场景,关键是培养尖端创新人才,助力AI持续突破。
以下是姚期智演讲正文:
非常高兴有机会能够和大家在这儿见面。
我今天想和大家谈谈人工智能的未来发展。无论怎么样看,人工智能未来发展最重要的下一步就是怎么样能够达到大家都满意的AGI,就是通用人工智能。AGI的定义,它能够让机器具有认知推理、复杂场景种种的相似人的能力。如今的人工智能既能够实现部分功能,离AGI的理想还有一些距离。
因为AGI一旦完成了以后,它的效用非常强大,所以它不但是科学上,而且是战略上、经济上,各国经济的科技高地。
未来我们走向通用人工智能,到底会在哪几个方向发展呢?当然会有很多不同的可能性,将来会陆续涌现。但是从现在看来,下面四个方面是不可避免的。中国非常可喜的就是在过去5年里面,在“十四五”规划里面做出了非常令人惊讶,而且钦佩的工作。特别是大模型技术演化方面,还有具身智能,就是智能机器人方面,在过去5年,中国基本上从一个和国际上有相当距离的程度,到达了能够在第一方阵,甚至领先的地步。另外两项,中国也有不少的发展。
大模型的演进不多讲了,基本上智能越高,可以做的事儿越大。关于人工智能大模型怎么样做得更好,甚至有一些不同的方式来做,这都是一个非常重要的方向。因为今天讲AI+,所以不谈大模型演化部分了。
第一,关于具身智能,顾名思义,它需要有一个硬件的身体,需要有一个小脑,像人一样,能够让它的行动更加稳定、更加敏捷,同时还需要进一步有一个大脑,能够有各种认知,各种决策,各种计划的能力。
人工智能机器人,一方面是科学研究的高地,原因就是我们怎么样从大语言模型变成具有物理知识,能够了解世界的智能,这在科学上非常重要;另一方面在经济上、产业上非常重要,因为它基本上能够补足以前机器人产业比较呆板的不足,使得机器人加上小脑、大脑,基本上就有这个可能性,能够替人取代很多我们不想做的工作。
国内和世界的机器人的成就,大家耳熟能详,今天王兴兴王总等下也会和大家谈,我现在跟大家谈一下,大学里面对于具身智能也做得非常出色。今天清华大学有两个教授设立了展示厅。
这是星动纪元,这是用强化学习做的,跳得非常高,达到世界纪录,它能够使用大模型做各种灵巧的事情,像这种都是不太容易的,每秒4米,是相当厉害了。
第二,关于科学智能,在科学上,AI+顾名思义就是AI能够赋能各种行业,特别令人惊奇的,它不仅能够赋能普通的产业,甚至在人类觉得最高智能的领域,就是科学研究,现在AI也能够使得科学里面每个领域在以后的5年、10年会对科学研究者做科学的方式起翻天覆地的变化,基本上我们过去这几十年,做科学的方法在5年、10年以后会很不一样。以前我们具有的一些科学家的特性,适合做科学家的,将来5年、10年以后不见得一定就能够成为最好的科学家。将来任何一个科学家的工作都必须是科学家加上大模型之类的人工智能。这两个人怎么样能够最好地配合,这个团队才是将来最有竞争力的单位。
举例,这里面有很多的进步。AI能够赋能另外一个战略高地、战略方向就是做量子计算机,AI有这个能力,甚至能够帮助量子物理学家构造下一个真正的量子计算机。量子是相当深奥的科学,它最重要的观念就是有一个量子比特,它的量子比特和普通经典的0和1不一样,有更大的自由度。量子比特做计算的基本单位,有一个很大的缺点,就是很容易受到环境的干扰。一旦受到环境的干扰,它的值就和你想要的不一样了。怎么样能够纠错,这个事情一直困扰着物理学家。甚至早年物理学家觉得量子计算机原则上不能做,因为纠错是物理上不能解决的问题。1996年有一个计算机科学家发现如果我们能够把最基本的纠错做好,就可以在一个有规模、大的量子计算机上就可以继续稳定,怎么样在一个最简单的解码上能够做好。量子纠错一直是做量子计算机的人的心病,如果这个做不好,做了很多的量子比特也没有用。
怎么样纠错的事情,在经典的计算机里面也是一个重要的问题,Fonomen(音)想到了一个简单的方法做纠错。比如说一个0,如果用100个0表示,即使中间有一两个比特发生变化,整体上还可以知道它是一个0,因为98个都是0。但是在量子上,这个事情就很困难。
差不多一年以前,谷歌发表了一篇文章,里面做好了量子芯片。这个芯片有105个量子比特,但是它长处不是有105个量子比特,有很多人也会做,主要就是利用了这100个比特,它能够做一个量子比特的纠错。它能够使得一个量子比特在原则上让它无限期的生存,能够保持它本来的状态,无限期的延长,这个事情最重要的是能够低于一个1%,就是小于了刚才提到最重要的条件。这就让量子计算机的群体非常高兴,觉得有非常大的鼓舞。
这是一个重大的成就,它实现了大规模量子计算机的可能性。它和人工智能有什么关系呢?主要就是量子纠错用人工智能来达到的。它的核心技术就是用一个AlphaQubit的手段,它是为量子纠错而设计的解码器。这个解码器是一个神经网络,它采集了很多用量子模拟得到的样本,用机器学习的方法训练出来,所以这个重要的方向将来在各种方面提升,在比特准确率和速度方面也有大幅提升,中国也有几个团队在这方面非常有竞争性。
第三,关于人工智能的安全性,我们有一个这么有能力的科学手段,它也产生了一定的危险性。所以怎么样治理它也是大家很关心的方向。
AI的风险有哪些?一是因为AI算法有它天生的性质,就是不鲁棒,不确定,不可解释,不善于抵抗恶意。在AI的应用上也会产生一些对于社会运行的冲击,它可能冲击社会价值或者伦理,比如说隐私保护,同时即使我们把它用到好的方面,它能够替代很多人的工作,它也带来了可能大量失业的问题。现在我们已经看到,在亚马逊、谷歌,在微软,这些做AI特别好的公司里面有很多解雇的浪潮。
二是生存性的风险,它和以前盒子的科技、生物科技都有一点不一样的地方。因为盒子科技、生物科技最危险就是有恐怖分子运用它做一些不好的事情。但是AI的风险除了刚刚所提到的这些非常大的风险以外,还有一个风险就是AI非常像人,我们和AI的关系可能会升级到AI失去控制,违背了人类想让它做的事情。我们要把这个事情做好,就产生了一个新的交叉领域,特别是关于失控的处理方面,牵涉到AI、密码学、博弈学和各种科学。研发AI算法的确定,鲁棒性、可解释性和社会价值对齐,我们要做这些对齐的算法。尤其是对于生存性风险,我们应该最有效彻底解决问题的方法就是怎么研发出可以证明安全的AI系统。
借助密码学、博弈学等理论,同时在科学发展的基础上,要能够取得设置AI治理的协议,在区域和全球减少风险,需要建立国际共识。现在这方面中国做得不错,比如说中美欧科学家发起了定期对话,这个对话有Bengio、Russell、张亚勤和我们,第一次是在2023年在英国,第二次在北京,第三次在威尼斯,差不多每半年开展一次。今年7月的时候在上海举行了这个大会。
总结,多年的科技进步与积累,让人工智能发展得到新动力,大模型的出现带来了人工智能的新潮流,有无限发展机会。近期AI大模型正在革新各个行业,中长期要走向AGI,赋能科学,同时能够建设安全可靠的,它的前景辽阔,影响深远,我们必须不断地创新突破,中国不缺应用人才和场景,最重要的是多培养尖端创新人才,谢谢大家。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.