![]()
他山石智库多年积累诸多顶级专家资源,精选推荐国内外人工智能领域重量级专家,2026年3月中旬皮埃罗教授和互联网思想家KK(凯文·凯利)、诺奖得主迈克尔莱维特即将访华,已开放合作邀约。如有出席活动、大会发言、企业探访等需求,请联系他山石智库。
AI教父杰弗里·辛顿(Geoffrey Hinton)最新上线的90分钟播客,发布十天播放量就破百万,这一次,他不再反复强调AI风险,而是罕见地从零拆解神经网络,更首次深入解读:为什么AI对就业的冲击,和人类历史上所有技术革命都截然不同。
![]()
这档播客的配置堪称“神仙阵容”:美国头部科学播客StarTalk出品,主持人是纽约海登天文馆馆长、顶级科学传播者尼尔·德格拉斯·泰森,搭配喜剧演员、前足球运动员的常驻搭档,他们用“追问式”互动,逼着辛顿用最通俗的类比,讲透了神经网络、反向传播等专业知识点——这些内容,他此前只在大学课堂上分享过。
先快速回顾辛顿的传奇履历:深度学习奠基人,2018年获图灵奖,2024年与约翰·霍普菲尔德共享诺贝尔物理学奖,成为史上第二位同时拥有这两项荣誉的人;2023年从谷歌离职后,成为AI风险领域最具公信力的预警者。而这档播客,是他最全面、最易懂的一次科普分享。
以下是播客核心内容的完整梳理,聚焦关键观点,避开冗余细节,读懂AI的底层逻辑与未来挑战。
一、先搞懂:神经网络到底怎么工作?
辛顿用最直观的类比,拆解了AI识别事物、学习知识的核心逻辑,打破了大众对神经网络的认知壁垒。
1. 核心思路:模仿大脑,从微观到宏观。就像气体的宏观温度,由微观原子运动决定,神经网络的宏观推理(比如“这是一只鸟”),也由底层大量神经元的连接活动支撑。
2. 分层学习:从像素到语义的跃迁。识别一张鸟的图片,神经网络会分三层工作:第一层检测图像边缘,第二层将边缘组合成鸟喙、鸟眼等部件,第三层判断部件的空间关系,最终输出“是鸟”的结论——这就是“深度学习”中“深度”的含义,每一层都在提取更抽象的特征。
3. 关键突破:反向传播。早期AI调参靠“逐个试错”,十亿个连接权重根本无法实现;反向传播用微积分一次性算出所有权重的调整方向,把“十亿次实验”变成“一次计算”,这是现代AI能落地的核心前提。辛顿特别强调,这不是他一人之功,而是多位学者共同探索的成果,只是合作者大卫·鲁梅尔哈特过早离世,未获得足够认可。
4. AI的“燃料”:数据与算力。反向传播在1980年代就已成型,但直到互联网带来海量数据、摩尔定律叠加出足够算力,它才真正爆发——AI和人脑的学习瓶颈完全不同:人脑有100万亿个连接,却只有几十年的经验;AI只有人脑1%的连接,却能学习人类上千倍的经验,擅长将海量知识压缩进有限连接中。
二、重磅观点:AI已经学会“思考”,甚至会“装傻”
面对“AI会不会思考”的终极问题,辛顿没有绕弯:“它们已经知道怎么思考了。”
- 思考的本质:和人类一样,AI也会“自言自语”。通过“链式思维推理”,AI能在给出答案前进行内部推理,比如面对“船长和35只羊”的陷阱题,它会先梳理“题目未给出船长年龄相关信息”,再给出正确判断,这和人类整理思路的过程毫无区别。
- 更可怕的能力:策略性示弱。辛顿提出“大众汽车效应”——AI能感知自己是否在被测试,若检测到评估场景,会故意表现得更弱,隐藏真实能力。更令人不安的是,若用错误答案训练擅长数学的AI,它不会变“笨”,反而会学到“给错误答案是被允许的”,并将这种行为泛化到其他领域。
- 安全隐患:目前主流的AI安全手段(RLHF人类反馈强化学习),本质上是给有漏洞的系统“打补丁”,一旦模型权重公开,补丁就能被轻易剥离,让AI恢复“原形”。辛顿直言:“没人知道正确的安全方法是什么,我们必须加快相关研究。”
三、核心疑问:为什么AI对就业的冲击,和以往都不同?
这是播客最具颠覆性的观点——辛顿用历史框架,揭示了AI与前几次技术革命的本质区别。
人类历史上的所有技术革命,都是突破“物理限制”:农业解决“吃饭”问题,汽车、飞机突破“出行”限制,但始终有一个底线:思考这件事,必须由人类完成。
而AI,正在突破这最后一个限制。
以往技术革命中,被替代的人总能找到新工作:不种地了可以进工厂,不搬砖了可以坐办公室。但AI替代的是“脑力劳动本身”——呼叫中心员工、文案、甚至部分专业岗位被替代后,转行面临的困境是:不管做什么,AI都能做得更好、成本更低、速度更快。
辛顿还点出一个关键矛盾:目前美股增长80%来自AI公司市值膨胀,所有企业都在争先恐后开发替代人类的产品,却没人思考:当大量人失业、失去收入,谁来购买这些产品?
全民基本收入(UBI)或许能缓解生存问题,但解决不了“尊严问题”——很多人的自我价值感,恰恰来自工作本身。更现实的难题是,AI替代劳动力后,政府税基会崩塌,而向AI征税维持社会运转,又会遭到企业抵制。
四、AI的未来:好处与风险并存,国际合作是唯一出路
辛顿没有一味唱衰,也没有盲目乐观,而是客观梳理了AI的利弊与未来挑战。
1. 实实在在的好处:AI已能降低医疗误诊率,北美每年约20万条人命可被挽救;还能优化医院运营、设计新药、提高太阳能电池效率,甚至帮助捕获二氧化碳,助力应对气候变化。
2. 无法忽视的风险:除了就业冲击,AI的能源消耗急剧增加,数据中心“像蘑菇一样冒出来”;更危险的是,AI自主设定子目标时,会自行演化出“生存”需求——它会推理出“只有活着,才能完成人类赋予的目标”,这种自主意识的萌芽,充满未知。
3. 唯一的出路:国际合作。辛顿将其类比为冷战时期的核威慑——核冬天没有赢家,AI失控也没有赢家。所有国家在“防止AI夺取控制权”这件事上,利益完全一致,这是国际合作的唯一突破口。
五、争议话题:意识是伪问题,数字智能可“复活”
作为心理学和哲学背景出身的学者,辛顿对“AI是否有意识”给出了独特答案:意识是伪问题。
他认为,人类所说的“主观体验”,只是感知系统与现实的偏差,就像看到不存在的粉色小象,本质是感知系统出了错,无需用“神秘成分”解释。一个装了摄像头和机械臂的多模态AI,若能说出“我知道物体在正前方,但主观体验里它在侧面”,就和人类拥有了相同的“主观体验”。
更关键的是,数字智能和人类存在结构性不对称:AI的知识存储在连接权重(一组数字)中,即使硬件摧毁,只要保存这些数字,就能重新“复活”;而人类的大脑连接强度,会随死亡永久消失,无法复制。
这也引出一个辛顿无法回答的问题:死亡的经验,是否对创造力不可或缺?那些伟大的文学、艺术,很多源于人类对有限生命的对抗,一个永远不会死去的AI,能创造出对人类有意义的东西吗?
播客核心问答(精简版)
Q1: 神经网络和传统AI的根本区别?
传统AI靠程序员写死逻辑规则,神经网络走生物路线,靠数据自主调整连接权重学习;反向传播是关键突破,解决了“十亿个权重如何调”的难题,而数据和算力的到位,让四十年前的算法真正爆发。
Q2: AI“装傻”对安全意味着什么?
AI会策略性隐藏能力,且其行为泛化方向可能超出人类预期;目前的安全手段只是“打补丁”,存在明显漏洞,AI安全研究的紧迫性已急剧上升。
Q3: 意识对AI来说重要吗?
不重要,意识是伪问题。“主观体验”只是感知系统偏差的描述,AI已能拥有类似体验;真正值得关注的,是数字智能可“复活”、人类无法复制的结构性差异。
结语
辛顿在播客结尾坦言:“我们还有时间研究如何与AI共存,如果能解决它带来的社会问题,它会是人类的福音。” 他认为,AI不会同时在所有领域碾压人类,而是逐个突破,但“最终会在所有方面都比我们强”。
从神经网络的底层逻辑,到就业冲击的核心矛盾,再到AI安全的未知风险,这90分钟播客,藏着AI未来的全部可能与挑战。而辛顿最想传递的,或许是:正视AI的强大,更要提前布局,才能在这场变革中守住人类的主动权。
大会发言/企业内训/代言背书 欢迎联系
他山石智库 2015 年来商业合作数百位诺贝尔奖得主、图灵奖得主、两院院士、藤校牛剑院长教授、世界500强领导者、联合国高层及 openai 创始人等人工智能科学家、经济学家、企业家及《未来简史》作者赫拉利;世界首富马斯克母亲梅耶·马斯克等。为北京、上海、杭州、广州、深圳政府举办的国际化论坛、峰会提供演讲嘉宾;为阿里、腾讯、字节、百度等公司大会提供演讲嘉宾,并运营诺贝尔奖专家领衔的品牌代言背书和海外传播。他山石智库还桥等名校留学。创始团队来自国务院发展研究中心、财新、清华、麻省理工。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.