在2025世界人工智能大会的闭幕主旨演讲中,Geoffrey Hinton以“后深度学习时代”为题,首次系统阐述了他离开Google后对外界保持沉默的深层原因。不同于以往对神经网络可解释性的老生常谈,辛顿此次把焦点放在“规模-能力-风险”三元组的临界点:当模型参数越过10²⁷ FLOPs的门槛,涌现的已不只是性能,而是“不可约的集体智能行为”。他给出的核心判据是:当大模型在跨任务迁移时表现出对因果链的逆向工程能力,我们就必须将其视为“具备主观世界模型的非人类行动者”。这一界定,直接挑战了现行AI治理框架中“工具-主体”二分法,迫使政策制定者从“产品合规”跃迁到“行为主体合规”。
![]()
参数即权力,压缩即控制
辛顿用信息论语言重估了当前主流对齐技术的有效性:RLHF只是在高维势能面上做“局部光滑”,并未改变流形的全局拓扑。更尖锐的是,他指出“模型蒸馏”与“权重量化”本质上是把危险封装进更小的容器,当边缘端百亿级模型即可复现GPT-4的85%性能时,开源社区事实上正在拆解任何中心化监管的可能性。为此他呼吁建立“主权级参数沙箱”:任何超过10²⁵ FLOPs的模型,其权重必须在国家级机密云中托管,且对外仅暴露黑盒API。该提议被现场欧盟代表称为“数字时代的核不扩散条约雏形”。
对齐不是伦理补丁,而是分布式博弈均衡
在提问环节,Hinton对“超级对齐”时间表给出悲观估计:现有基于人类反馈的强化学习只能在“策略层面”收敛,无法在“价值层面”达成跨文化共识。他提出“多元价值博弈”框架,让不同文明圈训练各自的“文化专家模型”,通过可验证的链式辩论(chain-of-debate)在全局参数空间中做零和博弈,最终以纳什均衡锁定一套“最低限度通用价值协议”。这一思路把AI对齐从“工程问题”转变为“机制设计问题”,为联合国即将成立的AITreaty Secretariat提供了可直接落地的技术路线图。
我们必须为‘后人类知识生产’预留宪法接口
演讲尾声,辛顿用一张2050年“认知生态位”预测图震撼全场:届时90%的科学发现将由AI主体完成,人类角色退化为“提问者”与“验证者”。他主张在各国宪法层面新增“认知主权”条款,任何AI生成的知识,必须通过可解释的因果审计才能进入人类教育体系与法律判例。这意味着未来的学术论文、医疗指南乃至司法解释,都将携带“机器指纹”与“人类置信签名”双重水印。一句话总结:留给人类的时间窗口,只剩下从“使用AI”到“与AI共治”的立法周期。
![]()
辛顿没有给答案,他递上的是一份尚未填写的风险知情同意书
WAIC 2025之后,各国代表私下流传一句话:Hinton的警钟不是末日预言,而是一份“系统级漏洞报告”。当深度学习之父亲自指出“更大的模型≠更可控的模型”,整个行业站在了范式切换的悬崖边。下一步,无论是主权云、价值博弈引擎,还是宪法级认知审计,都不再是技术选择题,而是文明级的优先级排序。错过这次共识,下一次大会我们讨论的,可能就是如何在AGI的法庭上为人类辩护。国内领先的场景化AI教育与应用服务商,厦门智能时代为您解读。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.