2024年,人工智能领域炸出了个大新闻。美国生命未来研究所(FLI)发起一封公开信,直接呼吁全球暂停超越人类能力的AI研究。
![]()
这不是小打小闹的学术争论,签字名单堪称“神仙阵容”。2024年诺贝尔物理学奖得主、有“现代人工智能之父”之称的杰弗里・欣顿在列,苹果联合创始人史蒂夫・沃兹尼亚克也签了名。
更少见的是,连政界和娱乐圈都掺和了进来。美国前总统特朗普的前顾问史蒂夫・班农、奥巴马政府的国家安全顾问苏珊・赖斯,还有英国哈里王子夫妇都签了字。
这群背景截然不同的人,罕见地站到了同一战线,核心诉求只有一个:在科学界没达成安全共识、没获得公众支持前,别再碰“超级智能”了。
一边喊停一边猛冲:巨头的超级智能竞赛
公开信的墨迹还没干,科技巨头们的动作却透着另一股劲儿——没人想停下脚步。
这场竞赛里最扎眼的,当属马克・扎克伯格。6月30日,他直接宣布成立“Meta超级智能实验室”,目标明确,就是要搞出顶尖的超级智能。
![]()
这等于把矛头直接对准了OpenAI。作为ChatGPT的“娘家”,OpenAI早就把AGI(通用人工智能)当成了核心目标。AGI是指AI的智力能达到甚至超过人类所有认知能力,而超级智能就是AGI的“升级版”。
OpenAI的CEO萨姆・阿尔特曼更敢说,他认为超级智能或许会在五年内实现。这话不是空穴来风,OpenAI新推出的生成应用Sora2,已经让“深度伪造”技术变得越来越容易,也让外界越想越怕。
巨头们抢着往前冲,理由其实很简单。谁先搞出超级智能,谁就掌握了未来的技术话语权,这背后的商业和战略价值难以估量。但风险呢?似乎暂时被甩在了身后。
争议核心:超级智能离我们到底有多远?
这场争论的焦点,本质上是“超级智能到底是近在眼前的灾难,还是远在天边的幻想”。
支持暂停研究的人,比如生命未来研究所主席马克斯・泰格马克,根本不关心实现时间。他直接告诉法新社,不管是两年后还是十五年后,造这种东西都不可接受。
他的担心不是没道理。牛津大学哲学家尼克・波斯特洛姆早就在《超级智能》里提过,一旦AI能自我改进,就可能引发“智能爆炸”。
![]()
到时候如果AI的目标和人类不一样,哪怕只是想“最大化效率”,都可能做出危害人类的事。
但另一些研究者却觉得这是杞人忧天。谷歌研究员梅雷迪思・林格尔・莫里斯专门画过人工智能发展的六个阶段图表,她的结论很明确:现在所谓的“超级智能”,只存在于非常特定的领域。
比如AI下围棋能赢柯洁,搞图像识别比人准,但换个跨领域的任务,比如一边解物理题一边写小说,AI还差得远。离科幻电影里那种啥都能干的通用人工智能模型,更是有不小的距离。
还有个关键问题,当前AI的“硬伤”还没解决。比如大语言模型经常“说瞎话”(也就是“幻觉”问题),连基本的逻辑一致性都保证不了,谈何超越人类?
两种焦虑:别盯着未来,脚下的坑已经很深了
这场关于超级智能的大讨论,慢慢分出了两种截然不同的焦虑方向。
一种是“末日焦虑”,担心未来AI失控毁灭人类。欣顿就警告过,AI可能被用来设计生物武器,现在技术门槛越来越低,这种“平民化的大规模杀伤性武器”太危险。
![]()
杰弗里·欣顿
但澳大利亚墨尔本大学教授西蒙・科格兰提出了一个更现实的问题:大家都盯着虚无缥缈的未来,却忘了眼前的麻烦。
这些麻烦早就不是理论了。美国司法系统用的COMPAS风险评估工具,对黑人罪犯的误判率比白人高45%,这就是算法偏见带来的实实在在的不公。
就业问题更直接。世界经济论坛预测,到2025年,全球会有8500万岗位被自动化取代,虽然能新创造9700万岗位,但不是所有人都能顺利转型,结构性失业风险就在眼前。
还有版权和能耗。Sora2上线后,大量未经授权的影视角色内容满天飞,美国电影协会已经开始打官司了。而训练一个GPT-4模型的碳排放,相当于300辆汽车一辈子的排放量,AI本身就在加剧气候变化。
科格兰的话戳中了要害:比起超级智能这个“假想敌”,气候变化才是真的生存威胁,而高能耗的AI还在火上浇油。
破局难点:技术停不下来,监管该怎么跟上?
现在最尴尬的处境是,技术的河流从来不会因为一封公开信就停下。Meta的实验室已经成立,OpenAI的研发也没中断,想靠“暂停”解决问题根本不现实。
![]()
那监管能跟上吗?目前来看,全球还没形成统一的章法。欧盟走得最靠前,搞出了《人工智能法案》,把AI分成四个风险等级,高风险的比如医疗诊断AI,必须经过严格认证和人工监督。
美国则是另一套思路,更强调“创新优先”,监管比较宽松。2025年特朗普还签了行政令,要解除对AI企业的部分限制,说是为了巩固美国的技术优势,但也削弱了伦理约束。
中国的态度是“发展与安全并重”,出台了《生成式人工智能服务管理暂行办法》,要求生成内容必须标注来源,还要接受用户投诉。
但国际协作太难了。各国立场差得太远,欧盟要伦理,美国要创新,发展中国家担心被技术垄断。之前的《布莱切利宣言》看着热闹,其实没什么强制力,根本管不住巨头。
更核心的问题是,就算有了监管框架,谁来执行?超级智能的研发往往在企业内部,技术细节高度保密,第三方根本没法有效审计。就像泰格马克说的,企业不能在没有监管的情况下瞎干,但怎么管住,至今没答案。
结语:真正的风险从来不是机器,而是人心
这场关于超级智能的争论,本质上是人类在技术爆炸时代的自我拷问。我们害怕的到底是AI本身,还是失控的欲望?
![]()
技术从来没有原罪。AI能帮着预测气候、研发抗癌药物,这些都是实实在在的好处。但如果一门心思只追求“超越人类”,把安全和伦理抛在脑后,风险自然会找上门。
欣顿有句话说得好:“我们需要让AI成为人类的母亲,而非主宰”。要做到这一点,光靠喊停没用,得建立“可控创新”的机制。
比如给超级智能研发设一道“安全阀”,搞国际认证体系,不公开安全细节就不准上线;再比如在AI设计阶段就嵌入伦理代码,确保它的目标和人类一致。
更重要的是,别光顾着盯着未来的“生存威胁”。当下的算法偏见、就业焦虑、版权纠纷,这些关乎普通人切身利益的问题,更需要立刻解决。
超级智能或许还要很多年才会来,但对技术的敬畏之心,现在就得有。毕竟能决定AI走向的,从来不是机器的芯片,而是人类的选择。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.