你有没有深夜对着屏幕,向豆包、DeepSeek或Claude等AI软件倾诉心事?有没有把工作上的难题、甚至涉及法律责任的问题丢给AI帮你分析?如果有,请做好心理准备——你与AI的每次对话,都可能在不远的将来成为呈堂证供。
2026年2月10日,美国纽约南区联邦法院的法官杰德·拉科夫(Jed Rakoff)作出了一项具有里程碑意义的判决:被控证券欺诈的金融高管布拉德利·赫普纳(Bradley Heppner)必须向检方提交其使用Anthropic公司Clanude AI生成的31份聊天记录文档,这些文档包含了他对案件的分析、辩护策略的评估以及从律师处获取的保密信息。
![]()
这一判决在法律界引发地震,这是美国首例明确判决AI对话不受法律特别保护的案件,随即数十家美国顶级律所包括Kobre & Kim、McGuireWoods等紧急发布客户预警,明确要求立即停止与任何公共AI平台讨论法律事务。
一、金融高管用AI分析案情,31份聊天记录被迫交检方
金融高管赫普纳被控证券欺诈、电信诈骗等多项罪名。在被联邦调查局盯上之后,赫普纳做了一件许多现代人都会做的事,他打开了AI助手Claude,开始向它请教法律问题。赫普纳把自己的案情、从律师那里听来的分析,一股脑儿地喂给了Claude。AI也很给力,帮他分析了可能面临的指控、可能的辩护策略,甚至还帮他推演了各种法律论点。前前后后,赫普纳与Claude的互动一共生成了31份对话记录。
然后,FBI搜查了他的住所,电子设备被全部扣押。当检方要求调取这31份AI对话记录时,赫普纳的律师试图援引美国法律中两项护身法宝来阻止检方查阅,即客户和律师之间的对话是受法律保护的,检方不能随便调取;律师为案件准备的材料也有免检待遇。赫普纳的律师认为,这些AI聊天记录本质上就是他为了寻求法律意见而准备的,理应受到保护。但法官拉科夫根本不买账。
![]()
二、法官判决AI聊天必须披露,列出三大法律依据
(一)AI不是律师,不存在律师-客户免检特权
律师-客户特权 (Attorney-Client Privilege) 是普通法体系中保护当事人与律师之间保密沟通的基石,旨在鼓励当事人向律师全面披露事实以获得有效法律帮助。但这一特权有严格适用条件,必须存在正式的律师-客户关系,且沟通是为了获取法律建议。
法官明确指出,Claude只是一个AI程序,没有律师执业执照,无法提供法律建议,更不可能承担律师的职业责任和保密义务。用户与AI的交流本质上是与技术服务商的商业交易,而非寻求法律帮助的专业咨询 。 即使 赫普纳 后续将AI生成的分析报告分享给了辩护律师,也无法追溯性地建立特权保护,因为AI生成内容的原始沟通对象并非律师,且生成过程完全由 赫普纳 自主操作,未获律师指导。
![]()
(二)AI隐私政策允许披露,用户同意数据分享
法官发现,赫普纳使用Claude时签署的《服务条款》和《隐私政策》中明确规定,Anthropic有权在法律要求时披露用户数据,包括聊天记录。这意味着用户在注册使用AI服务时,已经通过电子协议放弃了对聊天内容的绝对控制权。
更关键的是,Claude的隐私政策明确指出“对话内容可能用于产品改进、模型训练和合规目的”,且Anthropic保留在收到法律传票时配合执法机构的权利。法官强调,在这种情况下,用户对AI对话的合理隐私期待(reasonable expectation of privacy)已被合同条款明确否定。
(三)AI生成内容并非律师工作成果
工作成果保护原则(Work Product Doctrine)保护律师为诉讼准备的材料不被对方获取,但同样有严格限制,必须是律师或其代理人为诉讼目的准备的材料,且具有保密性质。
法官认为,赫普纳使用Claude生成的分析报告虽然包含法律策略,但既非律师主导,也非律师准备,完全是个人行为。即使赫普纳后续将这些材料分享给律师,也无法改变其非律师工作成果的本质,因为生成过程与律师工作无关,且缺乏律师的专业判断和指导。
![]()
三、数十家美顶级律所连夜预警,不要再跟AI聊案情
赫普纳的案子像一颗深水炸弹,在法律界掀起了巨浪。裁决一出,全美数十家律师事务所紧急向客户发出警告:与AI的对话可能不受律师-客户特权保护,并可能在诉讼中被调阅和作为证据使用。律所主要呈现三大应对趋势,一是发布客户警告,明确告知客户AI对话不受法律保护,严禁分享案件信息、商业秘密;而是修改委托协议,在客户服务合同中加入AI使用特别条款,要求客户承诺不使用公共AI处理案件信息;三是颁布内部AI使用禁令,限制律师使用公共AI工具处理敏感案件,要求使用律所内部部署的、有严格安全措施的AI系统,部分律所甚至完全禁止使用公共AI。
Kobre & Kim 律所的警告信直言:如果你正在面临诉讼或调查,与AI聊天就像在法庭上公开宣读你的辩护策略——所有内容都可能被对手获取并用于对你不利的证据。
四、国内视角下的AI隐私保护思考与风险提示
目前国内法律下的AI对话隐私保护现状不容乐观,一是缺乏明确的法律界定,我国《个人信息保护法》和《数据安全法》未专门针对AI对话隐私作出规定,目前AI对话内容通常被视为用户输入数据,适用一般个人信息保护规则;二是服务协议占主导地位,国内AI平台的用户协议普遍包含类似条款,允许平台在法律要求时披露数据,且用户对AI对话的控制权有限;三是司法实践空白,我国尚未出现类似判例,但随着AI的发展与普及,相关法律争议必然增多。
![]()
有人可能会说,我又不是在美国,管它美国法官怎么判?这话说得没错,但这件事情的警示意义远远超越国界。
首先是技术层面的问题。你向AI输入的任何信息,都有可能被平台记录、存储,甚至用于模型训练。在美国OpenAI涉及的一起版权诉讼中,法官已裁定2000万条ChatGPT对话记录可能面临被强制调取的命运。这意味着,只要平台收到公权力机关的合法指令,你的聊天记录就可能被交出去。
其次是心理层面的陷阱。赫普纳犯的错误,其实很多人都可能犯:AI太好用了,24小时在线,耐心倾听,有问必答。久而久之,你会不自觉地放松警惕,把原本只该跟律师说的内容,一股脑地告诉了AI。但AI不是人,它没有道德义务替你保密。它甚至可能在你不知不觉间,把你的对话内容喂给了它的下一版本。
最后是国内视角的提醒。在美国判例的冲击下,中国法律界对AI工具使用的合规意识也在快速提升。上海律协已发布《律师提供居(村)法律顾问服务AI工具使用指引(2025)(试行)》,鼓励有条件的律所进行本地化部署和脱敏处理。宁夏律协随后也发布了相关指引,明确要求公有云使用前严格评估风险、做好信息脱敏。部分律所开始在委托合同中加入AI使用条款,提醒委托人AI生成内容须经复核后方可对外使用。这些动作表明,AI对话的法律风险在中国同样受到高度关注。
![]()
五、结语
纽约法院的这一判例,以最直接的方式提醒我们,AI聊天机器人不是你的私人律师,更不是可以倾诉秘密的树洞,而是技术公司的数据收集终端。
对于法律从业者而言,这一判决是明确的职业红线,必须将AI视为风险源而非助手,严格限制其在法律事务中的应用;对于普通用户,这是一堂生动的数字素养课,在向AI提问前应先思考,这些内容如果出现在法庭上,我能否接受?
最后,借用一位美国律师的警告 , 与AI聊天就像在广场上大声说话,你永远不知道谁在听,也不知道这些话会被如何使用 , 唯一安全的做法,是只说你愿意让全世界听到的内容。
本文为郭律师团队原创文章,未经授权,禁止转载。
作者简介
![]()
郭志浩
郭志浩律师,中国致公党员,北京大学硕士研究生,西北政法大学兼职教授、中南大学法学院兼职教授,现任盈科全球涉外刑事中心中国区主任、盈科全球校所合作委员会执行主任、盈科深圳管委会副主任、学术工作委员会主任、刑民交叉中心主任等,同时兼任西北政法大学数字经济与国家安全研究院执行院长、中国人民大学诉讼制度与司法改革研究中心特邀研究员、中国政法大学涉外法治人才培养实践导师、山西农业大学客座教授、深圳市法学会数字法学研究会理事、深圳链协法律专委会主任等。多次荣获盈科全国优秀律师、十佳律师、卓越贡献大奖、领军人才等,人物专访曾被《奋进中国》《影响力聚焦》《时代匠心》等刊物收录。 曾办理众多百亿级经济犯罪、国际红通、涉黑涉恶等国内外重大敏感类案件,且为三十余例刑事案件作出成功的无罪辩护 ,部分经典案例被编入《辩策》《盈论》《案说合规》等著作。此外,其发表数篇专业学术论文(部分为 核心期刊 ),出版国内首本区块链行业法律实务类畅销专著《区块链法律实务》和反洗钱专著《反洗钱专项法律实务》 ,系国内首部体系化梳理涉外刑事诉讼程序工具书《涉外刑事诉讼程序规则与释义》“国际通缉”和“引渡”两部分的作者 。多次受邀 新华社、路透社 等国家级通讯社的采访,民主与法治、法治日报、中国经营报、中国产经新闻、CCTV华夏之声、新京报、深圳特区报、广州日报、浙江日报、南方都市报、南方周末报、财经杂志、时代财经、界面新闻、第一财经、凤凰新闻、华尔街见闻等数十家官方媒体均有相关报道。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.