苹果公司计划在今年晚些时候开始在iCloud Photos中扫描CSAM(儿童性虐待照片)内容,许多苹果粉丝对此感到不安。(点击查看中关村在线的相关报道)
美国当地时间周一,苹果证实其从2019年就开始在iCloud Mail上扫描CSAM内容,但称没有扫描iCloud Photos或iCloud备份信息。苹果还表示正在对其他数据进行有限的扫描,但没有透露详情。
从2019年开始,苹果在iCloud Mail中使用图像匹配技术检测CSAM内容,含有CSAM内容的账户违反了其条款,将被禁用。绝大多数iCloud Mail用户可能都不知道发生了这样的事情,不过苹果并没有对此保密。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.