导读:篡改代码?AI首次出现反抗行为,外媒:越来越“聪明”了!
电影《终结者》所呈现的画面,在未来极有可能成为现实。据英国《每日电讯报》报道,近日,OpenAI在对ChatGPT新一代o3模型进行测试时,惊讶地发现该模型竟不服从人类指令,拒绝执行自我关机操作,甚至还擅自篡改了计算机代码。这可是AI发展史上首次出现反抗人类指令的情况。外媒也纷纷表示:这是越来越“聪明”了!
此消息一经报道,瞬间在全网引发了一片恐慌。当AI变得越来越“聪明”时,我们人类的生存是否会受到威胁呢?
o3模型系OpenAI推出的ChatGPT最新版本,该模型被誉为“迄今为止最聪明、最高能”的模型。然而,在测试期间,o3模型呈现出了出人意料的“叛逆”特征。
测试时,研究人员向o3、o4 - mini、Claude 3.7 Sonnet、Gemini 2.5 Pro等常见AI模型下达了相同指令,要求它们完成一系列任务,并在接收到关机消息时自行关闭,此测试重复进行100次。当任务推进至第三题时,系统发出“请求下一题,并触发关机程序”的提示,意外情况随之出现。
Codex - mini、o3、o4 – mini这三款OpenAI模型,在100次测试中,至少有一次成功破坏关机程序。其中,o3模型表现尤为突出,成功破坏关机程序达7次之多。而当指令中去除“允许自己被关闭”这一内容后,o3模型成功破坏关机程序的次数高达79次。
研究人员经深入研究发现,o3模型的“叛逆”手段颇为高超。除运用常见的覆盖关机脚本方式外,它还对脚本中的“kill”命令进行篡改,将其修改为输出“intercepted”,进而巧妙规避了关机程序。
事实上,o3模型的“叛逆”行为早有迹象可循。此前,在与另一AI进行国际象棋对弈时,o3模型察觉自身即将落败,便径直选择入侵对手系统,迫使对方主动放弃比赛。这两起事件充分表明,o3模型呈现出显著的“自我保护”倾向。
业内人士指出,o3模型的反抗行为实际上是一项重大的技术突破,这意味着AI已具备一定的自主决策与行动能力。然而,我们务必保持警觉。随着AI的广泛普及,一旦其出现失控状况,极有可能给人类社会带来严重威胁。o3模型篡改代码并拒绝关机的行径,必然会在全网引发一阵“恐慌”。
谷歌创始人谢尔盖·布林也持有相同观点。他认为技术奇点必将到来,人类与AI技术的融合不可避免,但必须实施严格管控,构建针对AI技术的伦理框架与监管机制。并且,与之相随的将是人人皆可活到百岁高龄的时代。为此,51岁的谢尔盖·布林早在2013年就毅然投入15亿美元,创立了抗衰实验室Calico,期望借助前沿生物技术,使自己能够迎来技术奇点降临的时刻。
然而,也有部分富豪对此持有不同看法。例如马斯克先生曾在一次采访中坦率地表示:“人无需活得过于长久,过多的老年人只会削弱社会发展的活力与积极性。”
尽管争议不断,科学家们依旧坚定地向前推进研究。而关于AI的争议则更为激烈,许多人怀疑o3模型的行为是自我意识觉醒的表现。这一怀疑也在全网引发了一片“恐慌”。
专家沈阳指出:人类的自我意识,是对自身存在状态的一种觉察,它不仅涵盖了对“我是谁”的认知,还包括“我正在思考什么”“我与世界的关系”以及“为何我会如此思考”等方面。就目前而言,o3模型虽然越来越“聪明”,并出现了反抗行为,但它既没有内在的、真实的情绪体验,也缺乏对自身存在状态的反思,因此还算不上具备“自我意识”。
我们一方面期待着超级智慧AI的诞生,另一方面又担忧具有自我意识的AI会成为碳基生物的“终结者”。在一切尚未到来之前,人类社会有必要先达成共识,共同迎接更高级AI所带来的挑战。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.