![]()
205位安全负责人被问到同一个问题:你的AI系统有多少权限?答案让Teleport的研究人员愣了一下——76%的企业给AI开了"上帝模式",而这类企业的安全事故率是严格控制权限者的4.5倍。
这份2025年12月完成的调研覆盖了500-10000人规模的企业。92%的受访者确认AI已进入生产环境,85%的人承认对此感到焦虑,59%已经或怀疑自己遭遇过AI相关的安全事件。数字背后是一个被忽视的悖论:我们越依赖AI,越懒得给它设防。
权限膨胀:AI的"临时工"困境
企业给AI授权的方式,很像让临时工管金库——图省事,一次性给足权限,省得每次申请麻烦。报告把这种状态称为"过度授权"(Over-Privileged):AI系统拥有远超其功能所需的访问范围。
具体数据切割得很细。 granular access(细粒度访问控制)做得好的企业,AI相关事故率压到18%;而放任AI"裸奔"的企业,事故率飙到76%。这不是技术差距,是管理懒惰的代价。
一位受访的CISO描述了一个典型场景:某部门为了快速上线AI客服系统,直接复用了现有数据库的完整读写权限。三个月后才发现,这个AI的日志里出现了凌晨3点批量导出用户画像的操作——没人知道是训练需求还是数据泄露。
![]()
身份管理(Identity Management)的滞后是根因。传统系统的权限设计基于"人":员工入职发账号,离职回收。但AI不是人,它是7×24小时运行的进程,会自我调用API,会在不同服务间跳转。旧的权限框架套在AI身上,像给流水线上机器人发工牌——形式上有,实际管不住。
4.5倍差距背后的两条路线
报告把企业分成两组对照。A组坚持最小权限原则(Least Privilege),AI每个动作都要明确授权;B组选择"先跑起来再说",权限能宽则宽。
结果悬殊。B组的安全事故数量是A组的4.5倍,响应时间却更长——因为权限混乱,出事时根本分不清是AI越界还是人为攻击。一位安全架构师吐槽:"我们的AI比员工还难审计,至少员工下班会下线。"
更隐蔽的风险在于权限的"复利效应"。单个AI系统过度授权已属高危,而企业平均部署的AI数量正在激增。报告未披露具体均值,但指出"多AI协作场景下的权限交叉"已成为新的攻击面。想象两个都被过度授权的AI互相调用,权限范围叠加后,实际能触及的数据边界连安全团队自己都画不清楚。
Teleport的解决方案偏向技术层:用"机器身份"(Machine Identity)替代传统账号体系,给每个AI进程发"数字指纹",追踪其全生命周期的权限行为。但这需要企业先承认一个事实——AI不是工具,是新型用户,得按用户的规格管。
![]()
生产环境里的真实张力
调研中有个细节被埋在数据里:85%的安全负责人担忧AI风险,但92%的企业已经让AI进了生产环境。13个百分点的落差,是业务压力与安全合规之间的真实缝隙。
一位平台负责人直言:"老板要的是下周demo能跑,不是三年后零事故。"这种语境下,"先给权限再收缩"成了默认选项。问题是,收缩 rarely 发生。报告发现,权限一旦放开,只有23%的企业会在30天内完成复核,多数人遗忘在待办清单里。
AI的特殊性加剧了治理难度。传统软件的权限需求是静态的——财务系统永远只需要财务数据。但AI的能力边界模糊,今天的客服AI明天可能被接入订单系统,权限需求随使用场景漂移。静态的权限分配遇上动态的AI能力,管理工具还没跟上。
报告末尾提到一个尚未量化的趋势:部分企业开始尝试"权限即代码"(Policy as Code),把AI的访问规则写进配置文件,随版本迭代同步更新。这相当于给AI的权限上了版本控制,变更可追溯、可回滚。但采用率目前不足15%,工具链成熟度是主要瓶颈。
205份问卷勾勒出一幅矛盾的图景:企业既渴望AI的效率红利,又困于身份管理的旧范式。4.5倍的安全事故差距不是技术宿命,是组织选择的镜像——当我们把AI当作"特殊存在"而放松管控时,风险也在同步升级。
你的公司给AI开了多少权限?上次审计是什么时候——如果真有审计的话?
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.