你有没有想过,一张看似普通的截图,系统会从中读出什么?一位开发者往截图里塞了个隐形水印,结果iOS的自动填充弹了出来——它以为那是密码。
开发者做了什么
![]()
这位技术作者设计了一种实验:在截图像素中嵌入肉眼不可见的水印信息。原理并不复杂——微调颜色通道的最低有效位,人眼察觉不到,但机器能提取。
![]()
问题出在iOS的"实况文本"(Live Text)功能。这项2021年推出的特性,本意是让用户直接选中图片里的文字、电话号码、地址。但它显然不止识别"看得见的"内容。
系统看到了什么
水印数据被编码成类似字符流的结构。iOS的文本识别引擎将其解析为文本片段,又恰好匹配了密码字段的常见特征——比如特定长度、字符组合模式。
自动填充框架随即触发,弹出保存密码的提示框。
整个链条是:隐形水印 → 被识别为文本 → 误判为凭证 → 系统主动介入。开发者没做任何针对iOS的适配,这是系统行为的"意外副作用"。
![]()
这件事的边界在哪
技术层面,这暴露了图像识别与安全防护之间的模糊地带。实况文本的设计假设是"图片里的文字即用户意图",但像素级操控打破了这层信任。
产品层面,苹果面临一个经典困境:识别能力越强,被滥用的面越广。目前尚无证据表明该漏洞被恶意利用,但攻击路径已经清晰——嵌入伪造凭证诱导系统行为,或干扰正常的密码管理流程。
更深层的问题是,当机器视觉渗透进每个系统角落,"看见"与"理解"的鸿沟正在制造新的攻击面。我们以为的"智能",可能只是模式匹配的过度自信。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.