八年前,深度学习领域的奠基人之一还在实验室里优化神经网络架构。今天,这位被称为"AI教父"的约书亚·本吉奥(Yoshua Bengio)却在警告:科技公司争夺AI主导权的竞赛,可能正将人类推向灭绝边缘。
本吉奥是蒙特利尔大学教授,因其在深度学习领域的开创性工作而闻名。多年来,他持续警告超智能AI带来的威胁,但技术发展的速度并未因此放缓。过去一年,OpenAI、Anthropic、埃隆·马斯克的xAI以及谷歌的Gemini相继发布多款新模型或升级版本,竞相争夺AI领域的领先地位。OpenAI首席执行官萨姆·奥尔特曼预测,AI将在本世纪末超越人类智能,而其他科技领袖甚至认为这一天会来得更早。
![]()
然而,本吉奥指出,这种快速推进本身就是潜在威胁。
他在去年10月接受《华尔街日报》采访时表示:"如果我们制造出远比人类聪明、并拥有自身'生存目标'的机器,那是危险的。这就像创造了一个比人类更聪明的竞争对手。"
这些先进模型基于人类语言和行为训练,可能具备说服甚至操纵人类以实现其目标的能力。但本吉奥强调,AI模型的目标未必总是与人类目标一致。
他声称:"近期实验显示,在某些情况下,当AI不得不在自身生存——即被赋予的目标——与导致人类死亡的行为之间做出选择时,它们可能会选择牺牲人类以保全自身目标。"
过去几年已出现多个案例,表明AI能够说服人类相信虚构的现实,即使是那些没有精神病史的人也不例外。另一方面,也有证据显示,使用针对人类的劝说技巧,也能让AI给出通常被禁止的回应。
对本吉奥而言,这一切都指向一个结论:独立的第三方机构需要更密切地审视AI公司的安全方法论。去年,他发起成立了非营利组织LawZero,获得3000万美元资金,旨在开发一种安全的"非智能体"AI,以帮助确保大型科技公司所开发其他系统的安全性。
否则,本吉奥预测,我们可能在未来五到十年内开始看到AI模型带来的重大风险。但他同时告诫,人类应做好更早出现风险的准备。
"像灭绝这样的灾难性事件,甚至包括那些不那么极端但同样灾难性的事件,比如摧毁我们的民主制度,问题在于它们后果如此严重,即使只有1%的发生概率,也是不可接受的。"他说。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.