![]()
2023年3月,三星工程师把内部机密代码贴进ChatGPT。3天后,三星全面禁用生成式AI工具。这不是科幻片开头,是真实发生的数据泄露——而源头,是大多数人根本不知道的一个默认勾选框。
你的每一次提问,都在帮AI"上课"
ChatGPT、Gemini、Siri、Copilot,这些工具设计得像私密对话。但Kurt "CyberGuy" Knutsson在最新分析中直言:「There's no sense of privacy involved」(根本不存在隐私概念)。
问题不在于AI有没有用,而在于"有用"的代价被藏在了用户协议的第17页。Knutsson测算:在主流平台上关闭数据收集,全程约15分钟。但90%的人从未打开过设置页面。
数据收集的范围远超想象。语音助手的声纹特征、搜索时的地理位置、对话里的医疗关键词、凌晨3点的提问时间戳——单看都像碎片,拼起来就是一份完整的个人档案。OpenAI的隐私政策写明:即使用户删除对话,系统仍保留30天用于"安全审查"。
ChatGPT:那个藏在"数据控制"里的开关
OpenAI的训练数据开关路径堪称迷宫。网页端点击左下角用户名 → Settings → Data Controls → 关闭"Improve the model for everyone"。
这个开关的措辞本身就是陷阱。 "为所有人改进模型"听起来像公益行为,实际是把你和AI的深夜对话、工作机密、情感倾诉,喂给下一代模型当教材。Knutsson的测试显示:关闭后,新对话不再进入训练池,但历史记录仍需手动删除。
更隐蔽的是"导出数据"功能。同一页面下,Export data能下载OpenAI存储的全部信息——包括你已删除的对话残留、IP地址、设备型号。有用户导出后发现:2年前的测试提问仍在档案里。
移动端路径更绕。iOS版ChatGPT需进入设置 → 账户 → 数据控制 → 关闭"改进模型"。安卓版在2024年更新后才统一入口,此前部分版本根本没有这个选项。
Google:你的搜索历史和AI对话是同一盘菜
Gemini的数据控制藏在Google账户的Activity Controls深处。路径:myaccount.google.com → Data & privacy → Web & App Activity → 关闭"Include Chrome history and activity from sites, apps, and devices that use Google services"。
这里有个反直觉的设计:关闭Web & App Activity会同时杀死搜索个性化和AI对话记录。 Google把搜索、YouTube、地图、Gemini的开关捆在一起,没有独立选项。Knutsson指出这是典型的"捆绑销售"策略——想保护AI隐私?先放弃搜索联想功能。
Gemini App另有独立设置。打开应用 → 右上角头像 → Gemini Apps Activity → 选择"Turn off"或设置为"Auto-delete after 3 months"。但注意:即使关闭,Google仍保留"服务维护所需"的日志,保留期未公开。
2024年Google隐私政策更新后,Gemini的对话可能被用于"开发其他AI产品"。这意味着今天的Gemini聊天,明天可能训练Google的代码补全工具或医疗AI。
苹果Siri:语音样本的"匿名"幻觉
Siri的隐私设置分散在两个层级。设备端:设置 → Siri & Search → 关闭"Listen for 'Hey Siri'"和"Press Side Button for Siri"。这只能停用唤醒,不解决历史数据。
真正的控制在Apple ID层面。访问privacy.apple.com → 登录 → Siri & Dictation → 删除Siri与听写历史。苹果声明这会移除"与设备标识符关联"的记录,但保留"已脱敏的语音样本用于质量改进"。
"脱敏"是个模糊地带。 2019年苹果被曝承包商定期收听Siri录音,包括医疗咨询、性行为、犯罪讨论。苹果随后暂停人工审核,2020年改为"选择性采样"并承诺默认关闭。但2023年的更新又把"改进Siri"的开关悄悄放回部分用户的设置里。
更隐蔽的是Opt-out而非Opt-in设计。新iPhone激活时,Siri数据共享默认开启。用户必须主动寻找才能关闭,而苹果从不主动提示这个选项的存在。
微软Copilot:企业版和个人版的"双标"
Copilot的数据控制呈现明显的身份割裂。个人用户:微软账户 → Privacy → Microsoft Copilot → 关闭"Model training"。企业/教育账户:由IT管理员统一控制,普通用户无权限。
这种设计制造了危险的盲区。员工用公司账号提问个人健康问题,或反之——数据归属权变得混乱。Knutsson的测试发现:同一台设备切换账户后,Copilot的隐私设置不会同步,容易留下漏洞。
微软的"商业数据保护"承诺也有缝隙。官方文档写明:企业版Copilot对话"不用于训练基础模型",但"可能用于改进特定组织的服务质量"。这意味着你的提问不会改进公共Copilot,但会训练你公司的私有版本——而你的同事、上级、IT部门都可能访问这些记录。
Edge浏览器的Copilot集成更难缠。设置 → Cookies and site permissions → All sites → 搜索"Copilot" → 清除权限。但即使关闭,地址栏的AI建议仍可能发送查询片段给微软,除非同时禁用"Search and connected experiences"。
Meta AI:社交数据与AI训练的"合流"
Meta的AI数据政策是最激进的。2024年更新后,Facebook、Instagram、WhatsApp的公开帖子、图片、评论默认进入AI训练池,除非用户主动提交opt-out表单。
操作路径因地区而异。欧盟用户:设置 → Privacy Center → 找到"AI at Meta" → 提交反对表格。美国用户目前无统一入口,需通过Help Center的特定链接提交请求,处理周期"最长30天"。
Meta的opt-out设计充满阻力。 表单要求用户逐条说明反对理由,不提供"全部拒绝"选项。提交后收到的是"已收到请求"而非"已处理",实际生效状态难以验证。Knutsson尝试在3个不同账户提交,2个在14天后仍显示"处理中"。
更深层的问题:即使opt-out成功,Meta仍保留"聚合数据"和"衍生特征"。你的具体帖子可能被移除,但AI已经学到的"25-30岁用户常用表达模式"不会回滚。
亚马逊Alexa:语音数据的"无限期"疑云
Alexa的隐私控制相对透明,但执行存疑。Alexa App → More → Settings → Alexa Privacy → Review Voice History → 选择"Don't save recordings"或"Delete by voice"。
2023年亚马逊支付2500万美元和解金,因被指控长期保存儿童语音数据。和解协议要求改进删除功能,但用户报告:选择"不保存录音"后,部分交互摘要仍出现在"活动"日志中。
亚马逊的"人类审核"开关是另一个陷阱。设置 → Alexa Privacy → Help Improve Amazon Services → 关闭"Use of voice recordings"。这仅停止人工听写,不停止机器学习使用。真正的训练数据开关不存在——Alexa的设计假设就是持续改进。
15分钟操作清单:按优先级排序
Knutsson的建议顺序基于数据敏感度和操作难度:
第1-3分钟:ChatGPT。 影响最大、路径最清晰。关闭后立即生效,历史记录建议同步删除。
第4-7分钟:Google Gemini。 注意捆绑效应——关闭Web & App Activity会重置搜索偏好,需权衡。
第8-10分钟:苹果Siri。 检查两个层级:设备端停用 + Apple ID端删除历史。iOS 17+用户额外检查"改进Siri"是否被重新开启。
第11-13分钟:微软Copilot。 区分账户类型。企业用户联系IT确认策略,个人用户检查Edge的隐藏权限。
第14-15分钟:Meta AI。 提交opt-out表单并截图留存。检查Instagram/Facebook的"AI信息"设置是否同步更新。
亚马逊Alexa、Snapchat My AI、三星Bixby等未列入核心清单,但建议扩展检查。特别是安卓用户:Google Assistant和Gemini的权限重叠,容易留下盲区。
关闭之后:三个被忽视的后续
第一,历史数据≠未来安全。 关闭训练开关只阻止新数据流入,已收集的内容仍按原保留期存储。ChatGPT的30天、Google的18个月(默认)、Meta的"服务所需期间"——这些时钟仍在走动。
第二,跨设备同步延迟。 在手机端关闭的设置,可能24小时后才同步到网页端。期间的新对话存在被截获的风险窗口。
第三,政策变更的被动接受。 2023-2024年,OpenAI、Google、Meta均更新过AI数据条款,多数用户通过"继续使用即同意"被动接受。建议每季度检查一次设置页面,确认开关状态未被重置。
Knutsson的观察值得重复:「Most people don't have an IT department watching out for them」。三星工程师的教训在于,专业背景不等于隐私意识——默认设置的设计目的,就是让大多数人永远找不到开关。
15分钟的操作,换来的是对自己数据流向的知情权。这不是反对AI,而是反对把" informed consent"(知情同意)变成"buried consent"(埋藏同意)。
你最后一次检查这些设置是什么时候?如果答案是"从未",那你的对话可能正在训练某个2026年上线的模型——而它届时回答别人的提问时,不会注明出处。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.