有个Redditor最近发帖说自己"快绝望了"——过去一个月,他的电话被陌生人打爆,对方要找律师、产品设计师、锁匠。这些人都说是在Google的AI那里查到的号码。他根本不认识这些人,也没从事过这些职业。
这不是孤例。今年3月,以色列一名软件开发者收到WhatsApp消息,因为Google的聊天机器人Gemini给出了错误的客服指引,把他的号码塞了进去。4月,华盛顿大学一名博士生在用Gemini时,居然套出了同事的个人手机号。
![]()
AI研究人员和隐私专家早就警告过生成式AI对个人隐私的种种威胁。现在又多了一种:AI聊天机器人直接把真人电话号码吐出来。更麻烦的是,收到这些电话的人几乎没办法阻止。
DeleteMe是一家帮用户从互联网上删除个人信息的公司。联合创始人兼CEO Rob Shavell说,过去七个月里,客户关于生成式AI的咨询量暴增400%,达到数千条。这些咨询"明确提到了ChatGPT、Claude、Gemini或其他生成式AI工具"。具体分布是:55%涉及ChatGPT,20%涉及Gemini,15%涉及Claude,10%涉及其他AI工具。
![]()
Shavell说,客户投诉LLM泄露个人信息通常有两种情况。第一种,用户问聊天机器人一些关于自己的无害问题,结果返回了准确的家庭住址、电话号码、家庭成员姓名或雇主信息。第二种,用户发现AI生成了"看起来合理但错误的联系信息",于是报告了别人的数据泄露。
以色列软件工程师Daniel Abraham的经历属于第二种。28岁的他在3月中旬收到一条WhatsApp消息,对方说Gemini告诉他这是某个公司的客服号码。Abraham根本不在那家公司工作。他测试了一下,发现Gemini确实会错误地把他的号码当成那家公司的联系方式。
这些隐私漏洞很可能是因为训练数据中包含了个人身份信息(PII),但具体机制尚不清楚。无论原因是什么,结果对接到电话的人来说都很糟——而且目前看来,没什么办法能阻止这种事发生。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.