今年,将有数千亿美元投入到扩展人工智能系统,以追求超越人类的能力。OpenAI 的 Sam Altman 和 xAI 的 Elon Musk 等领先人工智能公司的首席执行官预计,在未来四年内,他们的系统将足够智能,能够完成大多数认知工作(想想任何只需一台笔记本电脑就能完成的工作),并且效率与人类相当甚至更好。
今年 2 月,在巴黎举行的国际人工智能峰会之后,Anthropic 首席执行官达里奥·阿莫迪重申了他的信念,即到 2030 年,“人工智能系统将被视为一个由高智商人士组成的全新国家”。同月,马斯克在 Joe Rogan Experience 播客上表示,“我认为,在未来几年内,我们正朝着拥有比最聪明的人类更聪明的东西的方向发展”。他继续说道:“有一种超越最聪明的水平,比所有人类加起来还要聪明,坦率地说,这个水平大约在 2029 年或 2030 年。”
如果这些预测有一部分是正确的,世界很快就会发生根本性的变化。但对于如何应对这种转变,人们还没有达成共识。
随着每月都会发布极其先进的人工智能模型,而特朗普政府似乎对监管该技术不感兴趣,私营部门领导人的决策比以往任何时候都更加重要。但他们对哪些风险最为突出以及如果出现问题会有什么后果的评估存在分歧。具体如下:
生存的风险还是不容错过的机会?
“我一直认为人工智能会比人类聪明得多,是一种生存风险,事实证明这是真的,”马斯克在 2 月份表示,他认为人类被人工智能“毁灭”的可能性为 20%。虽然估计各不相同,但先进的人工智能系统可能毁灭人类的想法可以追溯到当今许多开发该技术的实验室的起源。2015 年,奥特曼称超人机器智能的发展“可能是对人类继续生存的最大威胁”。2023 年 5 月,他与哈萨比斯和阿莫迪一起签署了一份声明,宣布“减轻人工智能灭绝的风险应该成为全球优先事项,与其他社会规模的风险(如流行病和核战争)一样。”
Hugging Face 首席伦理科学家 Margaret Mitchell 表示:“有些领导人认为人工智能可以非常聪明,能够使用我们意想不到的解决方案解决世界问题,但又不至于聪明到无法摆脱我们想到的任何控制限制,这让我感到很奇怪。”她指出,人们有时会将辅助人类的人工智能与取代人类的人工智能混为一谈。“你不可能同时拥有两者的好处和缺点,”她说。
对于米切尔来说,随着人类将控制权移交给越来越自主的代理,风险也会随之增加。由于我们无法完全控制或预测人工智能代理的行为,我们面临“人工智能代理未经同意就采取行动的巨大风险,例如,耗尽银行账户,冒充我们说和做可怕的事情,或轰炸特定人群,”她解释道。
未来生命研究所联合创始人兼所长马克斯·泰格马克教授表示:“大多数人认为这只是一项新技术,而不是一个新物种,但你应该这样看待它。”他解释说,建造这种级别的机器的默认结果是失去对它们的控制,这可能导致不可预测且潜在的灾难性后果。
但尽管有这些担忧,其他领导人还是避免使用超级智能和生存风险的语言,而是专注于积极的一面。“我认为,当历史回顾时,会发现这是一个创新黄金时代的开始,”皮查伊在二月份的巴黎峰会上说。“最大的风险可能是错失良机。”
同样,当微软首席执行官萨蒂亚·纳德拉在 2023 年年中被问及他是否认为我们正在走上创造超级智能的道路时,他表示,他“更关注对我们所有人的益处”。他说:“工业革命直到很晚才触及我成长的地区,这一事实让我深感不安。所以我在寻找可能比工业革命更大的东西,真正做工业革命为西方、为世界上每个人所做的事情。所以我一点也不担心 AGI [人工智能] 的出现,或者快速出现,”他说。
国家与企业之间的竞赛
即便那些相信人工智能会带来生存风险的人也普遍认为,人工智能发展的任何放缓都将让外国对手(尤其是美国)在创造变革性人工智能的竞赛中领先。未来的人工智能系统可能能够制造新型大规模杀伤性武器,或秘密入侵一个国家的核武库——从而在一夜之间彻底颠覆全球力量平衡。
“我的感觉是,我做的几乎每一个决定都是在刀刃上,”阿莫迪本月早些时候表示,他解释说,建设速度过快可能会导致人类失去控制,而“如果我们建设速度不够快,那么独裁国家可能会获胜。”
这种动态不仅在国家之间发挥作用,而且在公司之间也发挥作用。正如乔治城大学安全与新兴技术中心主任海伦·托纳(Helen Toner) 所解释的那样,“公开声明中的理想主义与推动其决策的务实商业逻辑之间往往存在脱节。”托纳指出,发布日期的竞争就是一个明显的例子。她说:“有多个例子表明,人工智能团队被迫偷工减料,跳过一些步骤,以便在发布日之前击败竞争对手。”
对于 Meta 首席执行官马克·扎克伯格来说,确保先进的人工智能系统不受单一实体控制是安全的关键。“我有点喜欢这样的理论,即如果只有一家公司或政府控制它,那就是上帝的旨意,”他在一月份说道。“确保它不会失控的最好方法是让它分布得相当均匀,”他声称,指出了开源模型的重要性。
控制参数
虽然几乎每家开发高级人工智能模型的公司都有自己的内部安全政策和程序,而且大多数公司都自愿向政府承诺,在信任、安全和允许第三方评估其模型方面做出承诺,但这些都没有法律效力。泰格马克乐观地认为,如果国家安全机构认识到威胁的严重性,安全标准就会随之而来。他说:“安全标准第一条就是要求公司展示他们计划如何控制他们的模型。”
一些首席执行官感受到了权力的重压。哈萨比斯在二月份表示:“领导这项技术的人肩负着巨大的责任——可能太多了。”这位谷歌 DeepMind 负责人此前曾提倡建立类似于欧洲核子研究中心 (CERN) 或国际能源署的新机构,以联合各国政府监测人工智能的发展。他说:“社会需要考虑需要什么样的管理机构。”
这说起来容易做起来难。虽然制定具有约束力的国际协议一直很有挑战性,但托纳表示,这“比以往任何时候都更加不现实”。在美国方面,泰格马克指出,“目前,美国对三明治店的安全标准比对人工智能公司的安全标准还要多。”
纳德拉在2 月份的播客中讨论了 AGI 和超级智能,强调了他的观点,即“法律基础设施”将成为未来系统能力的最大“限速器”,可能会阻碍其部署。“在它成为真正的问题之前,真正的问题将出现在法庭上,”他说。
“奥本海默时刻”
米切尔表示,人工智能公司的领导者们在这些讨论中提出了“他们自己对人类的不同层次的担忧和想法”。然而,泰格马克担心,其中一些领导者“陷入了一厢情愿的幻想”,因为他们相信自己能够控制超级智能,而且许多人现在正面临自己的“奥本海默时刻”。
他指出了影片中一个令人心酸的场景:科学家们眼睁睁地看着自己的发明被军事当局没收。“那一刻,科技创造者意识到他们正在失去对自己发明的控制权,”他说。“一些首席执行官现在开始感受到了这一点。”
免责声明:
本文所发布的内容和图片旨在传播行业信息,版权归原作者所有,非商业用途。如有侵权,请与我们联系。所有信息仅供参考和分享,不构成任何投资建议。投资者应基于自身判断和谨慎评估做出决策。投资有风险,入市需谨慎。
关注我们,一起探索AWM!
2025-03-10
2025-03-07
2025-02-28
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.