全球超过3000名顶尖科学家和科技大佬突然联名发出紧急呼吁,要求立刻暂停超级人工智能的研发。
据了解,此次联名由非营利组织未来生命研究所发起。截至10月23日中午,签署人数已经达3193人。签名者阵容堪称“豪华”,包括人工智能先驱杰弗里·辛顿、苹果公司联合创始人史蒂夫·沃兹尼亚克、维珍集团董事长理查·布兰森等各界大腕。中国科学院院士、图灵奖得主姚期智,清华大学智能科学讲席教授张亚勤,清华大学战略与安全研究中心学术委员薛澜等中国学者也位列其中。
他们所呼吁暂停研发的“超级智能”,是一种在所有认知任务上都超过人类的人工智能形式。之所以提出这样的呼吁,是因为超级智能可能具备自主目标设定和超越人类控制的潜力,会带来诸多风险。许多顶尖AI企业将要打造超级智能,这引起了人们从人类经济过时、被剥夺权力,到自由、公民自由、尊严和控制的丧失,再到国家安全风险,甚至潜在人类灭绝等多方面的担忧。
目前,我们还没有坚实的科学证据和切实可行的方法来确保超级智能的安全,使其不会给人类带来灾难性的风险。一边是专家们急着踩刹车,另一边是科技巨头还在往前冲。像Meta甚至将其LLM部门命名为“Meta超级智能实验室”,尽管10月22日联合声明发布当天,Meta在超级智能实验室裁员600人,但高管强调超级智能仍然是公司的首要任务之一。
科技界对人工智能的看法越来越两极分化。一方认为它是推动社会进步的强大力量,理应不受限制地发展;另一方则担忧其潜在风险,主张加强监管。而此次全球众多顶尖科学家和科技大佬的联名呼吁,无疑是给当前火热的人工智能研发浇了一盆冷水,也给全人类敲响了警钟。这一事件表明,超级智能风险已成全球性公共议题,急需跨国协作解决。
AI的发展应该是为人类福祉服务,而非带来灭顶之灾。在当前缺乏可靠安全框架的情况下,这场“闭眼闯雷区”般的人工智能军备竞赛确实该冷静下来了。人类需要在发展与安全之间找到平衡,在达成广泛的安全共识前,建立起坚实的规矩和安全治理框架,确保人工智能的发展是可控的、安全的。否则,一旦超级智能失控,人类可能将面临无法挽回的后果。
![]()
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.