有点黑色幽默的是,最早提醒大家“别把公司代码和文档随手喂给大模型”的,往往也是最早认真用上 Coding Agent 的那批人。
这不是立场摇摆,而是现实变化得太快。过去我们讨论 AI 安全,更多是在说“会不会答错”“会不会胡说八道”“会不会把内容写得太像真的”。但最近,围绕超级AI模型 Mythos 的讨论把问题一下子推到了更硬核的位置:当一个模型开始更擅长发现漏洞、组织利用链、拼接攻击路径,甚至把这些动作显著自动化时,AI 带来的就不再只是内容风险,而是现实世界里的执行风险。
这场风暴之所以让很多人不安,不只是因为 Mythos 很强,而是因为它背后已经出现了几个非常明确的信号。第一,漏洞发现的成本和时间被大幅压缩,一些潜伏了十几年、二十几年,甚至躲过数百万次测试的漏洞,也可能被更快地“开采”出来。第二,攻击不再只是找到一个洞,而是更容易把几个小问题串成一条完整的攻击链。第三,这种能力并没有像普通产品那样被公开开放,而是被放进了一个封闭的小圈子里,只对少数巨头和关键基础设施组织开放。第四,AI 编程正在扩大漏洞的“供给侧”,因为代码产能上去了,潜在缺陷也会跟着一起放大。把这几件事连起来看,焦虑就不难理解了。
换句话说,AI 变危险,并不只是因为它更聪明了,而是因为它越来越像一个真正能动手的人。
如果把传统 Chatbot 比作一个很会说话、很会查资料的实习生,那么今天的 Agent 更像一个拿到了工牌、门禁卡、浏览器、命令行、网盘权限和 API Key 的新同事。它不只会回答问题,还会读文件、写脚本、调接口、装插件、开长连接、替你点按钮,甚至替你把任务一路做完。听起来很高效,对吧?问题也恰恰出在这里。以前安全团队防的是“输入了什么”,现在还要防“它接下来会自己做什么”。
![]()
AI真正变危险,是因为它开始有了“手和脚”。
过去很多企业面对 AI,习惯把风险归结为一句话:数据别乱传,员工别乱用。这个提醒当然没错,但已经不够了。因为今天真正让安全边界发生变化的,不再是“员工是否打开了一个大模型网页”,而是企业内部开始出现越来越多会执行动作的 AI 实体。有人在浏览器里直接访问外部模型,有人在本地装上 OpenClaw 这类自主智能体,有人把代码库、知识库、云文档和内网接口授权给 Agent,有人把工作流和提示词沉淀在个人账号里。表面上看,大家只是“在用 AI”;本质上看,企业内部已经悄悄长出了一层新的控制面。
这也是很多企业一开始容易低估的地方。Chatbot 出问题,往往像一次说错话;Agent 出问题,更像一次办错事。它可能会误删文件,可能会读取本不该读的目录,可能会把敏感信息重新封装成 Prompt 发到外部,也可能会因为提示词注入、插件投毒、权限继承或模型幻觉,在一本正经地执行错误动作。以前我们担心的是“它会不会说错”;现在更该担心的是“它会不会做错,而且做得很快”。
先别急着谈“最强AI”,先把五个问题问清楚。
面对超级AI,很多讨论会本能地滑向一句很热血的话:必须用最强的 AI 去对抗最强的 AI。这个观点不能说完全错。站在美国财政部、美联储、华尔街大行或者“玻璃翼”这类封闭联盟的角度看,他们也的确是在这么做:把最强的模型、最好的算力、最多的情报和最强的厂商体系捆在一起,争取先于攻击者发现漏洞、修补漏洞、形成防御闭环。
但问题在于,这不是绝大多数企业真正拥有的现实条件。普通企业既没有封闭联盟级别的资源,也没有无限预算去追逐最强模型、最大算力和最豪华的安全团队。更残酷的一点在于,攻击者的资源使用方式和防守方完全不同。黑产组织、顶级黑客团队甚至国家级对手,可以把资源高度集中到一个目标、一个时段、一个薄弱点上;而企业必须分散资源去守终端、守身份、守网络、守数据、守业务连续性、守全年无休的运营盘面。进攻只需要打穿一点,防守却要看住整张网。这就是为什么“最强AI对最强AI”更像联盟级防御逻辑,而不是大多数企业可以照抄的执行方案。
所以,对绝大多数企业来说,比起追问“我们有没有最强模型”,更重要的是先问五件事。
第一,谁在用什么 AI?这其实是 AI 资产问题。企业今天最怕的不是“没有 AI”,而是“到处都是影子 AI”。外部模型网站、浏览器插件、本地客户端、Coding Agent、自动化脚本、SaaS 智能体、私有 Prompt、私有知识插件,这些东西只要看不见,就谈不上治理。
第二,AI 到底在用谁的身份?这一步往往比资产更关键。AI 时代需要管理的,已经不只是员工账号,而是多层并行存在的数字身份:AI 系统自己的运行身份,业务应用调用模型时的应用身份和服务身份,智能体在终端和工作空间里的专属执行身份,以及交换机、网关、网络准入设备等基础设施在接入链路中的设备身份和管理身份。如果这些身份继续混用个人账号、共享高权限账号,或者长期缺少最小权限和审计约束,那么 AI 风险迟早会落到身份失控上。
第三,AI 在哪里运行?是在员工真实办公终端上直接裸跑,还是在隔离的工作空间里受控运行?这不是体验小优化,而是安全边界的分水岭。一个运行在真实宿主机里的 Agent,和一个被隔离在受控工作空间里的 Agent,看上去做的是同一件事,风险等级却完全不是一回事。
第四,AI 通过什么出口接入大模型?员工各自找模型、各自拿 Key、各自写 Prompt、各自把数据送出去,这种方式最大的问题并不只是容易泄密,而是企业失去了统一策略、统一审计、统一成本和统一留痕。没有统一入口,安全团队往往只能在出事之后追溯,而不是在发生之前控制。
第五,AI 使用过程有没有留下完整证据?如果企业最终只知道“某个员工大概用过某个 AI”,却不知道它读了什么、调用了什么、输出了什么、经过了什么审批和审计,那合规、追责和复盘基本都会变成一场猜谜游戏。
大多数企业真正能打的,不是拼“最强AI”,而是把地利、人和、技术优势组织起来。
![]()
这里真正值得放进企业战略里的,不是“我们也去训练一个 Mythos”,而是如何把防守方天然拥有、但过去没有被充分组织起来的优势,变成可执行的战斗力。
所谓地利,首先是你比攻击者更熟悉自己的地形。攻击者知道一个系统可能有洞,但企业知道哪些系统是真正不能停的,哪些链路是核心交易路径,哪些数据一旦外流代价最高,哪些账号和接口一旦失陷会引发级联风险,哪些终端、交换机、网关和准入节点其实是整条链路的咽喉。把这种“熟悉地形”的优势用起来,意味着不再平均用力,而是先把关键业务、关键身份、关键终端、关键网络边界和关键数据通道重新标出来,优先缩小攻击面、切断横向路径、给最重要的地方加上最强的隔离和最密的审计。对防守方来说,知道哪里最值钱,本身就是优势。
所谓人和,不是一个安全团队单打独斗,而是让开发、运维、终端管理、身份管理、网络管理、法务合规和业务负责人真正站到同一张桌子上。AI 风险最怕的不是某个技术点没买到,而是组织上没人说得清“这个 Agent 归谁管”“这条模型调用链谁批准”“这份知识库谁负责分级”“这批交换机和网关谁维护身份边界”“异常行为谁有权立刻断开”。如果组织协同跑不起来,再好的技术最后也只能停在工具层。反过来讲,一旦职责清楚、流程跑通、应急演练到位、业务部门愿意配合,企业在响应速度和处置确定性上,往往能比攻击 者更有韧性。
所谓技术优势,也不是神话某一个最强AI,而是把一切能放大防守效率的技术都用起来。包括资产发现、身份治理、最小权限、专属运行账号、工作空间隔离、模型网关、安全交换、敏感审计、自动化检测、终端管控、网络准入、日志留痕、内容脱敏、策略编排、快速封堵和持续验证。企业未必能拥有最强模型,但完全可以把多种成熟技术编织成一个更贴近自身业务的防御体系。对多数企业来说,这种“用足一切现有技术优势”的效果,往往比盲目追求一个遥不可及的最强模型更现实,也更容易真正见效。
说到底,进攻方最大的优势是资源可以集中、防守目标可以单点化;而防守方最大的优势,是熟悉环境、能够预置规则、可以长期经营自己的地形。如果不能把这些优势组织起来,企业永远会觉得自己在被动挨打;但只要能把这些优势转成资产优先级、身份边界、隔离策略、组织协同和自动化响应,防守就不再只是“希望别出事”,而是真正开始具备对抗能力。
为什么很多传统安全手段,在 Agent 面前突然显得笨重?
这并不是传统安全没有价值,而是攻击与执行方式在变。很多经典控制手段,本来就是为“人点按钮、程序按既定规则运行”这一套世界设计的。可 Agent 最大的变化,是它把“决策”和“执行”连在了一起,而且还可能随时调用外部模型、外部插件和外部服务。结果就是,原本能拦住老问题的很多方法,在新场景里开始吃力。
例如,传统防病毒更擅长识别固定样本和稳定特征,但 Agent 的很多动作来自实时生成的脚本和指令;传统 DLP 更习惯盯着明确的外发路径,但 Agent 很可能把信息重新组织成另一种文本或调用另一条接口;传统访问控制更擅长管“人访问系统”,但现在很多调用是“应用带着服务身份访问模型,再由模型驱动智能体调用别的系统”;传统审计能记住“谁登录了什么”,却未必天然看得清“某个智能体为什么在那一刻做出了这个动作”。
说得直白一点,今天企业面对的不是一个会聊天的搜索框,而是一个偶尔会一本正经胡说八道、但又真的能替你干活的数字执行者。它不是传统恶意软件,却可能比很多恶意软件更接近核心数据;它也不是传统员工,却可能比员工更频繁地调用系统权限。这就是为什么 AI 安全看起来像一个新问题,本质上却是在逼终端、身份、网络、数据和审计这些老能力重新组合。
一条更现实的企业路线:让 AI 可见、可隔离、可控、可审计。
比起“全面放开”和“全面禁用”这两种极端姿态,更现实的路线通常是建立一条可控的使用链。它至少应该包括五层。
第一层是 AI 资产管理。先知道谁在访问外部模型网站,谁在安装本地 Agent,谁在调用第三方模型 API,谁在沉淀高价值 Prompt 和技能流。把这些资产和行为摸清楚,比一开始就谈宏大治理更重要。
第二层是身份安全。企业需要的不只是员工登录认证,而是把 AI 系统身份、应用身份、服务身份、智能体专属运行身份,以及交换机、网关、准入设备等基础设施身份统一拉进治理框架。谁可以调模型,谁可以调插件,谁可以写本地目录,谁可以访问内网接口,谁可以跨网络边界交换数据,都应该和身份、权限、审计一一绑定。
第三层是 AI 客户端与工作环境控制。不是所有 Agent 都必须禁止,但也不应该继续在员工真实办公环境里随意生长。更稳妥的方式,是给 AI 提供专属工作空间、隔离运行环境、受控的文件映射、受控的数据回传通道和受控的软件边界。这样它可以干活,但不能随心所欲地乱跑。
第四层是模型入口与网关控制。企业最好不要让员工各自携带 API Key 四处直连外部模型,而应该通过统一入口做模型汇聚、路由、安全审计、脱敏、内容检查和调用留痕。这样一来,模型不再只是“一个大家都能去问的外部网站”,而是一个可以被企业策略管理的能力出口。
第五层是合规与审计。AI 安全最终不是靠口头承诺收尾,而是靠日志、证据链和制度闭环落地。哪些数据能进入模型,哪些输出需要审计,哪些高风险动作需要二次确认,哪些结果要保留留痕,哪些流程要满足监管要求,这些都应该在系统里被落实,而不是只写在 PPT 上。
从实践角度看,如果把这条路线映射到现有能力,它其实并不神秘:AI 资产发现与 AI 网站/客户端识别、统一身份与专属运行账号、隔离式 AI 工作空间、模型汇聚与安全网关、敏感审计与脱敏、数据交换与全程留痕、日志追溯与成本分析,本质上都是同一件事的不同侧面。像 AICODE、RedClaw、NXG、安全网关以及身份/准入这类能力,如果不把它们当成孤立产品看,而是当成一条 AI 使用控制链来看,就会发现它们回答的是同一个问题:企业如何既不将 AI 简单禁用,也不让 AI 变成另一个看不见的高权限入口。更重要的是,这些能力的价值并不在于“替企业拥有最强AI”,而在于把企业原本分散的地利、人和、技术优势,真正组织成一套能持续运行的防御结构。
AI 安全最后拼的,不是模型大小,而是治理成熟度。
超级AI的出现,确实会让攻防对抗进入一个新阶段。未来很多企业面对的压力,不再只是攻击更多了,而是攻击会更像一个会规划、会试探、会调用工具的数字对手。可反过来看,防守方也不是完全没有优势。企业比攻击者更熟悉自己的业务链路,更了解哪些数据最关键,知道哪些身份最敏感,也知道哪些系统一旦出问题最不能停。真正能把这些优势组织起来的企业,靠的不会是一句“我们也上了 AI”,而是更成熟的治理能力,以及把地利、人和、技术优势持续转化为防守效率的能力。
与其说 AI 安全是一个全新的孤岛,不如说它是身份、终端、网络、数据和合规在 AI 时代的一次重新编队。谁能更早把这几件事拉成一条链,谁就更有机会把 AI 从一个令人焦虑的新风险,变成一个可控、可审、可复盘、也可持续放大的新生产力。
最强的模型未必人人都能拥有,但更成熟的治理结构、更专业的控制链路,以及把 AI 资产管理、身份安全、AI 客户端控制、模型风险控制和合规使用统一起来的能力,依然是大多数企业今天就能开始构建的现实路径。真正的差距,往往不是出在“有没有接入最新模型”,而是出在“有没有把这个会说话、会写脚本、会自己跑腿的新同事,纳入企业真正的管理体系”。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.