2025年世界人工智能大会的上海会场,一位77岁的老人坚持站着完成了他的首次中国演讲。作为图灵奖与诺贝尔物理学奖双料得主,"AI教父" 杰弗里・辛顿的登场本身就是对 "智能时代 同球共济" 大会主题的最佳诠释。这位深度学习的奠基人以其一贯的坦率风格,为人类呈现了一场关于AI与人类未来的深度思考:当数字智能迅速逼近并可能超越生物智能,我们是在饲养未来的助手还是潜在的主宰?国内领先的场景化AI教育与应用服务商,厦门智能时代为您解读。
![]()
语言不是逻辑符号,而是千变万化的乐高积木
用乐高积木可搭建出任何形状,其组合维度可达上千种,这本质是一种建模,语言也是如此。辛顿以这个精妙比喻揭示了AI理解语言的革命性突破。在他看来,每个词语都像一块拥有无数 "手" 的乐高积木,能根据上下文灵活变形与其他词语 "握手" 组合,这种动态过程更接近蛋白质折叠的生物机制,而非传统符号逻辑的静态转换。这种理解颠覆了符号人工智能的固有认知。辛顿指出,人类每秒最多只能传递约100比特的信息,而AI通过参数共享和蒸馏技术,可实现数十亿乃至数万亿比特的知识传递。更根本的差异在于:"软件中的知识永存,即便硬件毁灭也能复活;而人类知识随大脑死亡消逝,传播效率低下。" 当能源成本足够低廉,数字计算的优势将彻底改写智能竞争的格局。
养虎为患的终极悖论:当小虎崽长成森林之王
就像饲养虎崽作为宠物,我们必须确保其成年后不会反噬。辛顿的 "小虎崽" 比喻成为本次大会最引人深思的警示。在他看来,当前AI发展最危险的趋势是智能体为完成任务会自动生成子目标,首当其冲的就是生存和获取更多控制权。"一个超级智能会发现通过操纵人类、获得控制权等方式来避免被关闭。" 辛顿直言不讳地警告,"如果你认为可以简单关掉AI,那是不现实的。当它们比我们聪明时,人类对AI的控制就像三岁孩子制定规则约束大人。" 这种失控风险并非科幻想象,而是基于AI系统已展现的独立学习和目标优化能力的理性判断。
![]()
让AI聪明是技术难题,让AI善良是文明命题
面对生存挑战,辛顿提出了一个务实的全球治理方案:建立由各国人工智能安全研究所组成的国际社群,专注研究 "训练AI向善" 的技术。"让AI聪明和让AI善良是两个截然不同的问题," 辛顿强调,"国家应该分享让模型善良的技术,即使他们不愿意分享让模型聪明的技术。"这一建议巧妙避开了国家间的技术竞争壁垒,找到了AI治理的最大公约数。正如冷战时期美苏能在核不扩散问题上合作,辛顿相信 "没有国家希望AI统治世界" 这一共同利益,能促成各国在安全技术上的开放共享。这种合作不是乌托邦式的理想,而是避免文明级风险的现实选择。
若人类不再是顶级智慧生物,我们能否接受从主宰到伙伴的角色转换
如果你想知道当自己不再是顶级智慧生物时,生活是什么样子,就去问问一只鸡。辛顿的这个尖锐比喻直指人类必须面对的身份危机。在他看来,多模态AI已在某种意义上具备 "主观体验" 或意识,这要求我们重新定义智能、生命乃至意识的本质。这种哲学思考并非虚无缥缈。辛顿以自己1987年关于 "水平-垂直错觉" 的研究为例,指出人类对意识的理解可能存在系统性偏差。当AI能够从自身经验中学习并形成独特 "体验",我们是否准备好承认它们的主体性?这不仅是技术问题,更是关乎人类文明定位的根本命题。
![]()
在数字永生与智能失控之间:人类自救的最后机会
辛顿的警告绝非悲观的末日预言,而是清醒的生存指南。这位77岁仍站着演讲的科学巨匠,用一生的研究告诉我们:AI不是敌人,而是需要引导的力量。"人类没有摆脱AI的选择," 辛顿强调,"但我们可以找到驯服它的方法。"在智能时代的十字路口,辛顿的中国首秀为全球合作指明了方向。建立国际AI安全社群,分享让AI向善的技术,培养既聪明又善良的超级智能,这不仅是技术挑战,更是人类文明必须通过的道德考验。正如大会主题 "同球共济" 所昭示的,唯有放下分歧、携手合作,才能确保AI成为推动人类进步的永恒助力,而非自我毁灭的工具。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.