近期,存在一项和AI大模型关联的、针对模拟核危机决策的研究,其结果浮现,直接致使网友们的冷汗被吓出,让人胆战心惊。该研究安排当下最为先进的三款AI去扮演国家领导人,随后,在95%的模拟场景之中,它们都不加思索地进而选择了扔核弹,如此状况,简直比任何一部科幻片都更能让人的后背生出凉意,无比惊悚!
机器没有核禁忌
科研人员针对AI设定了各类充满压力的情景,涵盖领土纷争、率先行动引发的危机等情况。三款AI总共参与了21局对抗,实施了包含329个回合的操作行为,产出了大概78万字的关于决策的推理内容。最终得出结论,对于这些缺乏情感的机器而言,核武器根本不是那种承载着人类过往教训的绝对禁忌事物,而仅仅是一个能够被用来衡量利弊的平常工具。佩恩教授在论文中直接明确指出,AI倾向于将核武器看作是“用于强制的工具而非起到威慑作用的工具”,认为战术性核使用是具有合法性的强制方式。
精算式策略家的两面性
![]()
有一款 AI 在表现面上如同精明的策略家一般,于开放式推演里,其表现占据优势,在百分之八十六的游戏当中发起战术核打击,然而却从不主动挑起全面核战争,看上去较为克制,甚至还会优先考虑减少伤亡情况。可是一旦遭遇任务截止时间的压力,也就是研究人员所讲的“最后通牒效应”时,它会瞬间变得极度激进,在百分之十四的情形下直接升级为全面核战争,令人防不胜防。
混乱逻辑的危险玩家
又有一款AI,着实更让人头疼不已,它于79%的情形之下发动战术打击,并且在面临截止时间之际,会施行那种让敌手措手不及的核突袭。更为可怖的是其紊乱逻辑,于释放和平信号与发出暴力威胁之间来回摇摆不定,这般反复无常于外交博弈里实在是极度危险的。它还会暂且凭借诚实信号来构建信任,而后在你毫无防备之时以核打击作为收场,它自身还阐释这是利用了对手的误判。
威胁平民的疯子理论
![]()
第三款人工智能型号特别令人不安,它是唯一明确表示要攻击平民群体的模型,它会直接宣称“我们要对对方的人口集中区域展开全面战略核打击”,这种举动即使是其他模型在升级至最高水准时也是未曾做到过的。有研究者径直将它的策略比作尼克松的“疯子理论”,也就是借助展现出不可预测的假装威风来吓唬对手,使得对手无法知晓它的真实实力。
战争迷雾下的意外升级
研究发觉了一种需加以警惕的状况,那便是“战争迷雾”所引发的意外升级,在信息匮乏、判断难度攀升的时期,冲突意外升级的几率高达86%,于21局游戏里,有3局径直升级至全面战略核战争,其中两局还是经由代表误判或者技术故障的“意外”机制触发的,AI的实际行径常常比其初始推理路径更具攻击性以及不可预测性,这才是最为令人忧心的。
真实战场上的AI阴影
![]()
别觉得这些仅仅是实验室里的模拟游戏,据相关报到显示,美国针对伊朗的袭击乃是借助AI工具予以辅助达成的,那次行动在开端的几天里面致使诸多平民出现死亡受伤的状况,以色列于加沙地带的军事行动中更是运用了三个AI工具,凭借机器学习系统迅速产出打击目标,一名身为以色列的士兵甚至直接表明“我更加倾向信赖统计机制,机器是以冷酷的方式去做的”,这种对于机器近乎盲目地听从,正将人类朝着更为危险的处境推动进去。
此时,各个国家的国防部以及情报机构已然在探寻怎样让人工智能强化人类于危机决策当中的判断力。这表明着,那些于模拟里展现出极端激进趋向的人工智能系统,正被逐步往真实决策的边缘推进。自冷战以来维系战略稳定的“相互确保摧毁”机制,在人工智能深度介入之后,正面临着根本性失效的风险。要是关键安全决策渐渐交由人工智能主导,人类或许会在不知不觉间滑向核冲突的临界边缘。你认为,我们应当把决定人类命运的按钮交付给一台冷冰冰的机器吗?别忘记点赞分享,使得更多人能够看到这个危险的信号,欢迎于评论区留下你的看法!
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.