文 春公子
先说个扎心的事实:科技这东西,从来不会自己变好或变坏,关键在于用的人。
蒸汽机能推动火车,也能碾死人;核能可以发电,也能造原子弹。到了AI这儿,道理是一样的——只不过,AI的破坏力,来得比任何技术都快。
亚马逊最新发布的安全研究报告,看得人后背发凉:过去五周内,少数黑客借助市面上广泛可得的AI工具,成功侵入了遍布数十个国家的超过600个防火墙系统。
600多个。不是几个月,是五周。不是国家级网络战部队,是少数黑客。用的工具,市面广泛可得。
![]()
报告里提到的黑客攻击,不是传统那种"爆破密码、植入木马"的老套路。他们用的是AI生成式攻击——让AI学习目标系统的防御逻辑,然后生成针对性极强的攻击代码。
什么意思?以前黑客找漏洞,得像侦探一样翻代码、试端口,费时费力。现在呢?AI可以直接分析防火墙的配置,几分钟生成一套定制化的"钥匙"。成功率比人工高,速度比人工快,关键是还不用睡觉。
更可怕的是,这些AI工具不是什么秘密武器。OpenAI的API、开源的深度学习模型、甚至是一些专门用于"渗透测试"的AI套件,市面上随手就能买到。一个高中生,只要肯花时间研究,理论上也能玩转。
亚马逊的工程师们发现,在这次被攻破的600多个系统里,有相当一部分是中型企业——他们既没有大厂的顶级安全团队,也没有国家级的防御预算,在AI黑客面前,基本就是裸奔。
这就引出了一个细思极恐的问题:如果AI黑客成了白菜价,谁还敢说自己的系统绝对安全?
![]()
说到这儿,肯定有人问:AI不是一直在帮我们防黑客吗?怎么自己成了黑客的帮凶?
问得好。AI确实是双刃剑——它既能帮安全团队分析威胁,也能帮黑客设计攻击。问题在于,攻防两边用的技术差不多,但成本完全不对等。
防守方要防住所有漏洞,得投入大量人力、算力、时间。进攻方只要找到一个漏洞,就能穿透系统。AI的出现,把这种不对等放大了十倍。
举个例子:以前一个黑客要攻破某银行系统,可能得花三个月研究代码,写工具,测试成功率。现在呢?让AI读一遍代码,自动生成攻击脚本,三天搞定。剩下的时间,可以去攻下一家。
亚马逊的报告里提到一个数据:在这次攻击中,黑客们平均只用了不到48小时,就完成了从研究到突破的全过程。放在五年前,这种效率是天方夜谭。
![]()
AI技术发展的如此迅速,普通人还有活路吗?
别急,问题虽然棘手,但办法还是有的。
第一,把"AI打AI"变成常态。
既然黑客能用AI攻,那我们就能用AI防。亚马逊这次能发现600多个系统被黑,靠的也是AI监测系统——它们会实时分析网络流量,发现异常行为自动报警。大厂已经在用AI做"数字哨兵",中小企业的安全软件也在升级。攻防两边都在用AI,最后拼的就是谁跑得快。
第二,立规矩,划红线。
技术再强,也得有规矩管着。欧盟的《人工智能法案》今年6月就要正式生效了,里面专门有一条:高风险AI系统必须进行风险评估,并接受人类监督。美国白宫去年也搞了个"AI权利法案蓝图",虽然还没立法,但方向已经很明确——不能让AI自己玩,必须有人在旁边盯着。
国内也一样,网信办去年发的《生成式人工智能服务管理暂行办法》,要求所有生成式AI服务提供者对用户输入的数据负责,不能用来干坏事。规矩先立起来,虽然不能杜绝所有问题,但至少让作恶的成本变高了。
第三,普通人得长个心眼。
最后这条,可能最扎心:在AI时代,谁都不可能靠技术把自己包成铁桶。最有效的防线,永远是自己的警惕心。
收到可疑邮件,别急着点;下载不明软件,先查查口碑;系统提示更新,确认来源再操作。AI再厉害,也得通过人的疏忽才能生效。你不给它机会,它就动不了你。
![]()
过去五年,AI技术跑得太快,监管、伦理、法律都没跟上。现在黑客用AI攻破600多个系统,其实是个警钟——告诉我们不能再等了。
亚马逊的报告最后有一段话,说得挺好:"技术的进步从来不是单向的。它带来的机会和挑战,是一体两面的。我们无法停止AI的发展,但我们可以决定如何使用它。"
AI学坏了,确实比人类狠。但人类学聪明了,也从来不慢。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.