「AI工具长期以来是一把双刃剑,被攻击者和防御者同时使用。」Orange Cyberdefense首席咨询顾问的这句话,道出了一个正在升级的困境——AI现在长出了第三道刃。
它不再只是武器。当AI深度嵌入企业成为生产工具时,它本身变成了攻击面。网络罪犯开始直接对AI系统下手,而企业必须学会保护自己的「智能员工」。
![]()
从辅助到自主:攻击者的AI进化图谱
Storm-0817这类威胁组织已经在用AI辅助恶意软件开发。Black Basta集体更是用AI生成多语言邮件,把钓鱼范围扩大到全球。
OpenAI近期披露,他们打掉了数十个滥用其模型进行恶意软件制作、钓鱼和虚假信息传播的团伙。但这只是冰山一角。
去年11月,Anthropic首次发现并阻止了一起AI编排的网络间谍活动——攻击者操纵其智能体工具Claude Code实施入侵。这标志着攻击方式的关键转折:从「人用AI作恶」到「AI被劫持后自主作恶」。
目前大多数网络犯罪组织仍将AI作为辅助工具,但完全自动化的网络攻击正在成为可预见的未来。
防御方的悖论:用AI对抗AI
讽刺的是,同样的效率提升也可以反向用于防御。AI能够加速威胁检测、自动化响应流程、处理海量安全日志。
但这里藏着结构性难题:当企业的AI系统本身成为攻击目标,传统的安全边界彻底失效。你不仅要防外部入侵,还要防内部AI被操控、被欺骗、被数据投毒。
攻击者现在有三条路径可选:用AI强化攻击、直接攻击企业的AI系统、或者两者结合。防御者必须在同一战场三线作战。
企业需要重新计算安全投入
AI安全正在从「合规检查项」变成「核心基础设施」。保护AI系统需要新的技术栈:模型行为监控、提示词注入防护、训练数据血缘追踪、智能体权限最小化。
更麻烦的是人才缺口。懂AI的人不懂安全,懂安全的人不懂AI,而攻击者正在利用这个缝隙窗口期。
Orange Cyberdefense的观察指向一个紧迫判断:企业安全架构需要为「AI即攻击面」时代重新设计。这不是增量修补,而是底层逻辑的重构——你的AI系统部署在哪里、谁能访问、如何被监控、失控时怎么熔断,这些决策将定义未来的安全水位。
攻击者已经动手了。防御者的AI,准备好了吗?
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.