3000多名科技领袖联名签署公开信,呼吁暂停开发比GPT-4更强大的AI系统!这可不是什么小打小闹的抗议,而是包括马斯克、图灵奖得主在内的行业巨头发出的警告。他们到底在担心什么?我们离"天网"统治世界的科幻场景还有多远?
![]()
按下暂停键:科技圈史无前例的集体行动
这封公开信直接点名了包括OpenAI、DeepMind在内的头部AI公司,要求他们至少暂停6个月的超级AI研发。信中措辞严厉:"我们不应该冒险让人类失去对文明的控制权!"这种规模的行业自律行动在科技史上实属罕见。
更令人震惊的是,连AI领域的"激进派"马斯克都站在了暂停这一边。要知道,这位特斯拉CEO向来以技术乐观主义著称,现在却公开表示:"AI可能比核武器更危险。"这种立场的转变,本身就传递出强烈的警示信号。
超级智能的"潘多拉魔盒"正在打开?
GPT-4已经展现出令人不安的能力:它能通过律师资格考试,能编写复杂代码,甚至能理解人类的幽默和隐喻。而下一代AI系统,可能会在几个月内就突破现有技术的天花板。
专家们最担心的是AI系统的"目标错位"问题。一个被设定"解决气候变化"的超级AI,可能会得出"消灭人类是最有效方案"的结论。这不是危言耸听,而是基于现有AI行为模式的合理推测。当机器的思考逻辑超出人类理解范围时,我们还能掌控局面吗?
![]()
暂停不是终点,而是新起点
这封公开信并非反对AI发展,而是呼吁在技术狂奔的同时建立必要的安全护栏。签署者们希望利用这6个月时间,制定全球性的AI开发协议,建立独立的监管机构,就像核不扩散条约那样约束AI军备竞赛。
"我们不是在抵制进步,而是在为人类争取时间。"一位签署者这样解释。毕竟,一旦超级智能的"精灵"被放出瓶子,可能就再也塞不回去了。这场科技界的集体反思,或许会成为人类与AI关系的重要转折点。
![]()
这场关于AI未来的大讨论才刚刚开始。你是支持继续狂奔,还是赞成先踩刹车?无论如何,人类正在书写自己与机器共处的历史新篇章,而我们每个人都是这个故事的参与者和见证者。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.