在过去几年中,人工智能干了一些调皮的事。从 无视版权 到 制作一些相当糟糕的游戏模仿,甚至被 用来锁定你的电脑。看起来,随着人工智能越来越聪明,恶意使用它的方式也变得更简单了。甚至有一种恶意软件被发现使用人工智能自我重写,以躲避检测。真是让人毛骨悚然。
谷歌最近发出警告 "对手们不再只是利用人工智能(AI)来提高生产力,而是开始积极部署新型的人工智能驱动的恶意软件"。
报告(来源于 Bleeping Computer)指出,谷歌首次发现了一种代码家族,它在执行过程中利用人工智能的能力动态改变恶意软件的行为。
谷歌关注一种名为Promptflux的特定恶意软件,它是一种投放程序,促使Gemini重写自己的源代码,“将新的、混淆的版本保存到启动文件夹以实现持久性。”这就像真正的病毒一样,表明它在某种程度上具有“进化”的能力,变得更聪明,更难以清除。目前它还处于实验阶段,似乎并没有“在野外使用”,这让人感到庆幸。
如果你担心这种技术的潜在威胁(我也是),谷歌表示DeepMind已经利用从恶意软件中获得的见解来增强安全性,包括“谷歌的分类器”和“模型本身。”据说,这意味着该模型将拒绝在未来帮助恶意软件进行这类攻击。人工智能与人工智能的对抗就此开始。
自然,人工智能的应用范围如此广泛,意味着它常常容易被利用,这并不是第一次有人让人工智能偏离其原本的目的。
在最新的报告中,谷歌发现了2025年出现的另外四个案例。它们是:
- Fruitshell: 建立一个远程连接,可以在被攻陷的系统上执行任意命令。这个工具旨在躲避基于LLM的安全检测
- Promptlock: 它可以利用LLM生成并执行恶意脚本。它可以提取数据、加密文件,并进行“文件系统侦察”,不过它现在还在实验阶段(几个月前发现了这个)
- Promptsteal: 一个数据挖掘程序,使用API查询LLM生成单行命令。这些命令可能会收集信息并从文档中窃取数据
- Quietvault: 一个凭证窃取工具,获取数据并把它放到一个公开的GitHub仓库。它使用AI搜索感染的PC并“寻找其他潜在的秘密”
谷歌表示:“这标志着AI滥用的新操作阶段,涉及动态改变执行中行为的工具”,想想这些工具落到坏人手里会变得多聪明,真让人担心。
尽管有这些担忧,谷歌确实澄清其对AI的态度必须是“既大胆又负责任”,公开承认恶意软件使用其服务以及对这些恶意软件的应对,感觉是个不错的举措。不过,恶意软件自我重写来躲避被抓的想法,听起来有点像科幻小说,让人不安。接下来,我们只需要一个也能自我重写的恶意软件检测工具,这样就能让这两者争夺我游戏存档和游戏设备上那些数TB的动物图片。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.