据悉,苹果公司将使用一种名为「哈希」的进程对用户 iCloud 中「儿童性虐待材料相关」的图片进行检测,并表示,这个数据库将从该公司发布 iOS 15 更新时开始启用,那么这个「哈希」将会如何运作呢?
首先,苹果公司将会利用「哈希」在某个 iCloud 账户中检测到一定数量的违规文件后,「哈希」将会自动上传文件到苹果进行解密并查看该账号上的图片,并将由人工查看图片以确认是否匹配。
部分用户还是会对自己的隐私表示担忧,研发「哈希」的公司称其正在向密码学专家展示这个系统,以证明它可以在不损害用户隐私的情况下检测非法的儿童性虐待图片。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.