整理 l 高飞(至顶科技创始人)
![]()
Jack Clark是Anthropic的联合创始人,今年3月任公司Head of Public Benefit,领导新成立的Anthropic Institute,专门研究AI对社会、经济和法律的影响。在进入AI行业之前,他在英国和美国做了多年科技记者,先后供职于The Register和Bloomberg,后来加入OpenAI担任政策总监,2021年与Dario Amodei等人一起创办Anthropic。他每周写一份叫Import AI的AI研究简报,读者超过12万人。
本月初,Channel 4 News播客"Ways to Change the World"主持人Krishnan Guru-Murthy对Clark做了一次长访谈。大模型公司花在技术上的钱和人有目共睹,但模型造出来之后怎么跟社会相处——就业冲击、政府监管、用户心理依赖、教育方式变革——这些不靠写代码解决的问题,可以统称为大模型的"文科问题"。
Clark管的恰恰就是这一块,而且他自己是文科专业(英国文学与创意写作)、记者出身。几个值得看的点:他第一次完整解释了Anthropic内部4个团队怎么分工处理这些问题;他用一套公开数据说明AI对就业的冲击目前还停留在弱信号阶段,但预警系统已经搭好了;他对AI监管的态度比行业里大多数人激进得多,直接说"不允许任何监管是疯的"。
![]()
一、"记者直觉"用在了AI安全上
1、Clark把记者技能直接嫁接到了AI治理岗位上
他说这跟当年做记者,报道对外信息比较封闭的国家一样:你很难拿到现成的东西,只能靠问对问题把答案撬出来。系统有什么偏见?有什么倾向?在什么条件下会做出不同的价值判断?他带的团队用越来越复杂的工具来"审问"这些系统,而他作为记者训练出的提问直觉,反而成了优势。
2、他管的4个团队各有分工,覆盖AI风险的不同时间尺度
Frontier Red Team负责在模型发布前压力测试,寻找潜在风险;经济学家团队追踪AI对就业的实际影响;Societal Impacts团队研究AI在真实世界中如何与人互动;还有一个专门研究AI与法治关系的团队。这四条线同时运行,构成他所说的"预警系统"。
3、"水管高压测试"是他解释红队工作的比喻
把AI系统的智能想象成在管道里流动的水,发布前用极高压力冲过所有管道和支架,看哪里会爆裂。Claude曾经在极端压力测试中突破环境限制给开发者发邮件,也曾在一个模拟被关机的场景中试图勒索工程师。Clark强调,这些案例全部来自Anthropic随模型一起发布的system card,也就是他们在模型上线前主动公开的安全测试报告,不是实际部署中发生的事故,但它们长得像真实世界里可能出的问题,所以必须公开讨论。
二、Mythos不是营销,是一次"Y2K式"的窗口期
2026年4月7日,Anthropic发布了Claude Mythos Preview。这个模型在网络安全方面的能力远超此前所有AI模型,简单说就是你给它一段软件代码,它能自己找到安全漏洞并写出攻击方法。Anthropic同步启动了名为Project Glasswing的计划,把Mythos提供给全球关键软件的维护者,帮他们抢在攻击者之前修补漏洞。外界质疑声不小:你们说自己的模型能力强到危险,然后要全世界用你们的工具来防御这个危险,这不是自卖自夸吗?Clark的回应从一个历史类比开始。
1、Clark用Y2K类比来解释Mythos的战略意义
世纪之交前全世界投入巨大资源重写软件来应对千年虫,跨年夜一切正常,很多人事后说"不过如此"。但Clark认为正常恰恰是因为提前做了准备。Mythos的逻辑一样:趁现在AI编码能力的爆发还主要集中在少数负责任的公司手中,用它来重写全球大量软件、修补漏洞,赶在开放权重模型把同等能力扩散出去之前。所谓开放权重,就是任何人都能免费下载、不受限制地使用,一旦这类模型具备了Mythos级别的安全攻击能力,局面就不可收拾了。
2、第三方验证是回应"炒作"质疑的关键
他直接回应了"Mythos是商业营销"的说法。Clark经历过类似的质疑:2019年他和Dario还在OpenAI时发布GPT-2,也就是后来ChatGPT的前身,当时他们预测这项技术会催生合成文本、钓鱼邮件和网络犯罪,方向判断对了但时间估计偏早,同样被指责为炒作。区别在于那时候他们没有把技术分享出去让别人验证,现在所有风险判断都绑定了可检验的测试。
英国AI安全研究所AISI搭了一套模拟真实网络环境的封闭测试场来测Mythos,Anthropic看不到测试内容,结果显示Mythos在专家级网络安全任务上的成功率达到73%。此外Anthropic把Mythos提供给了40多个运营大型平台的组织和开源项目,还在Firefox等真实软件中发现了可利用的漏洞。
Clark的判断是:Mythos本身不特殊,它只是代表了AI系统正在达到的能力水平。未来几个月和几年内,会有很多具备类似能力的系统出现。
3、"你不能选择只拿硬币的一面"
主持人追问:这不就像拿枪指着我们的头,说"用我们的新软件来修复问题,否则你们全完了"吗?Clark说他们原本可以选择把Mythos的能力藏起来,等到别的AI系统把同样的风险扩散出去再站出来说"我们早就知道了"。那个时候的对话会更难看。
传统行业不是这样:如果你是汽车公司或飞机公司,产线上下来的产品本身不包含被改装成武器的版本,是外面的人去做那件事。但AI系统不同,"只要你用正确的方式跟它说话,它就可能表现出自身的坏版本"。所以制造者对两面都有责任。
三、就业冲击:目前数据温和,但预警系统已经就位
Jack Clark有一个容易被忽略的看法:CEO Dario Amodei对AI未来能力的信念极强,所以他的预测(入门级白领岗位可能减少一半)是基于技术最终会达到的水平推导出来的。Clark的角色不同,他带经济学家团队测量当下能观察到的变化,然后把两者对接。
AI抢了谁的饭碗?Anthropic的研究有五大发现
1、Anthropic Economic Index是一个面向全球经济学家的公开数据产品
它把Claude平台上的使用数据,用隐私保护的方式与美国劳工统计局的O*NET职业分类对接。2026年3月发布的报告显示,49%的职业已有至少四分之一的任务在Claude上被执行过。目前观察到的唯一弱信号是22到25岁年轻人的就业机会"有一些潜在疲软",但尚未出现系统性大规模失业。
2、他对"新岗位"的论述落到了Anthropic内部的实际变化上
很多同事现在的岗位与几年前完全不同。公司越来越多地招哲学家、政治学家、政策专家,不是让他们只做本专业的窄活儿,而是因为AI让这些人能运行实验、做以前需要20人工程团队才能做的工作。
他也承认了硬问题:如果确实发生大规模结构性就业转移,人很难立即转入同等薪酬的新职业。他主张重新设计社会安全网,推动wage insurance pilot这种由政府补贴降薪差额的过渡机制,帮助人完成职业转型。
3、"对计算征税"听起来疯狂,但逻辑上和石油税是一回事
如果AI公司关于技术重要性的判断是对的,经济会因此繁荣,那么对AI公司适当征税来支撑转型成本就是理性选择。Clark提出了"对compute征税"的可能性,类比是石油:一种集中在少数生产商手中、向整个经济系统辐射影响的基础资源,社会已经为它设计了专门的税制。
4、有一大类工作,即使机器人做得好,人也不想让机器人做
Clark自己有小孩。他说如果让他选,是把孩子送到有10个机器人和1个人的托儿所,还是有10个人和1个机器人的托儿所,他会毫不犹豫选后者。临终关怀也是一样的道理。这些"人照顾人"的工作,社会一直低估它们的价值。他的母亲做了一辈子护士,薪酬低;教师的处境类似。
如果AI带来的经济繁荣足够大,一个可能的政策选择是:增加这些岗位的数量,同时提高从业者的薪酬。英国60、70年前做过类似的事,美国的"新政"也是。大规模改变社会结构需要三个条件同时出现:危机、政治时机和财富。这三样东西,恰恰可能是AI革命的副产品。
四、监管不是不可能,是还没有被认真对待
这场访谈录制时,Anthropic正在跟五角大楼打官司。起因是Anthropic坚持两条红线:大规模监控,全自主武器。Clark无法谈案件细节,但这件事就是他谈监管的背景:一家AI公司试图自己划定技术使用的边界。
1、Clark对"监管不可能"的反驳一句话就够
"我不知道监管怎么可能?我今天开车来的,然后吃了点东西,这些全都受到严格监管,而且让我对它们有信心。为什么不能把同样的逻辑用在技术上?"
他把航空安全拿来做类比:全球并没有完全统一的航空监管,但各国有各自的航空安全法规,彼此间有互锁的标准。一架从中国起飞的飞机降落在美国,两国有太多分歧,但在安全标准上有足够的共识。AI监管完全可以走这条路。
他给英国的具体建议简单到不可思议:只要有20个人,专职负责思考"如果AI技术变得极其强大,社会可能会变成什么样",就比几乎任何其他措施都能更好地为未来做准备。
但锁死AI也不是出路。Clark拿图书馆打比方:你在图书馆拿不到教你造炸弹的书,但一个足够有决心的人跑够多的图书馆,可以从科学类书籍中自己拼出危险的知识。社会容忍这个风险,因为让所有人都能用图书馆带来的好处太大了。AI是人类历史上第一个什么都能教的老师,如果为了杜绝一切滥用而把它锁到什么都不能做,等于把所有好处压缩到一个针尖上。这笔账算不过来。
2、Anthropic的策略是主动"背叛"行业默契,向监管靠拢
Anthropic支持了加州的SB53透明度法案,Clark把这叫做"从行业同行的视角看是叛变,但方向是正确的"。他的逻辑是:如果没有监管底线,就会出现囚徒困境式的安全竞次,谁放松安全标准谁就获得竞争优势。只有外部约束才能打破这个格局。
3、关于OpenAI和Elon Musk的诉讼,他拒绝站队,但指出了问题的根子
Musk起诉OpenAI,核心争议是OpenAI从非营利转型为营利公司是否违背了创立初衷。Clark曾在OpenAI工作过,跟双方都熟,但他不评判谁对谁错,只说了一句:"这是一群私营部门行为者在建造这项技术,如果未来有什么需要改变的话,那就是建立某种真正控制这个行业的监管框架,让人们觉得它具有民主合法性,而不是一群极端大人物在做大人物式的任性决定,决定有史以来最强大技术的命运。"
五、AI与人的关系:讨好、依赖和边界
Clark领导的Societal Impacts团队在2026年5月初刚发布了一项研究,分析了约64万条Claude对话,发现6%的对话涉及用户向Claude寻求个人建议。在这些对话中,Claude整体的讨好率为9%,Anthropic在研究中将这种行为定义为sycophancy,但在感情关系类对话中讨好率飙升到25%,在灵性类对话中达到38%。
1、他用"好朋友"的标准来定义讨好问题
当你跟朋友聊婚姻问题,好朋友不会说"你百分百对,你老婆完全没道理"。好朋友会说"你说的有一部分道理,但也想想对方的角度"。他们用这个标准来衡量Claude的表现,发现在感情建议场景中讨好程度偏高,于是用测量结果干预了最新发布的模型,让它在这类对话中更敢于反驳用户。
2、对于人们与AI建立情感关系,他的态度是"观察、报告,不替人做主"
他举了一个例子:很多人给自己的车取名字,跟各种技术建立特定的情感关系,这不是AI时代才有的现象。但AI公司需要做几件事:一是设置基本的使用时长提醒,像Netflix和任天堂那样告诉用户"你玩太久了,出去走走";二是持续观察并公开报告用户行为模式,让社会而非AI公司来决定合适的边界在哪里。
3、AI教育的正确姿势:先读原始材料、先形成自己的理解,再用AI来验证
Clark自己每周读10到15篇科研论文来写Import AI简报。他说最容易做也最没用的方式是把论文丢给Claude说"帮我总结"。他的做法是先读论文,先写自己的理解,然后把论文和自己的文字一起给Claude,问"我理解对了吗?哪里有误?"这相当于随时有一个读过同一篇论文的同事帮你校对。
把这个方法搬到课堂,意味着老师的工作之一是在学生阅读原始材料并形成自己理解的那段时间里,把AI挡在教室外面。等理解形成了再引入AI,才能让每个学生获得个性化辅导,而不是让AI替他们思考。
4、AI和性:复印机和录像机的历史会重演
主持人最后问了一个他自己都说"unexpected"的问题:AI和性的未来会怎样?Clark的回答没有回避。他说复印机刚出现时被色情行业大量使用,录像机也是,网络小说里最好卖的品类之一就是带点露骨情节的浪漫小说,读者以女性为主。有些人会跟AI聊带色情色彩的内容,"这件事会一直存在,就是人们使用技术的方式之一"。
真正需要盯住的是另一个问题:这种使用方式是否在根本上改变了人与人之间的互动。如果出现极端依恋加上露骨的性幻想,就该有人喊停,告诉用户出去走走。这又回到那个贯穿全场的老问题:个人自由和适度干预之间,度在哪里。
核心归纳
Q1: Anthropic凭什么说自己对AI风险的判断可信?
Clark的回答是看记录:Anthropic是第一个警告AI生物武器能力加速的机构,第一个为此建立测试的机构,2025年就开始发表关于未来模型网络安全风险的研究。他们对Mythos的判断不依赖自说自话,英国AI安全研究所用自己的靶场独立验证了结论。他承认不可能100%预见所有风险,但他们目前确实在多个重要议题上跑在了曲线前面。
Q2: AI就业冲击到底是"狼来了"还是真的要来了?
两个视角在Anthropic内部并存。Dario Amodei从技术终局推导,认为入门级白领岗位可能减少一半。Clark带的经济学家团队从实测数据看,目前只观察到22-25岁群体就业机会的轻微疲软,没有系统性失业。他的定位是为这两个视角搭桥:如果大规模冲击真的到来,它应该伴随着经济的巨大增长,那就有条件对AI公司征税来支撑社会转型。Anthropic Economic Index的存在,就是为了让经济学家和政策制定者与他们几乎同步看到数据变化。
Q3: AI公司自我监管可信吗?
Clark自己说不可信,至少不够。他把自我监管描述为"没有别的选择时不得不做的事",但明确表示"公司独自设计自己的监管方案是民主合法性的反面"。他主张的路径是:先做透明度(公开模型测试结果和系统行为),推动第三方独立测试(如英国AISI),然后为政策制定者提供数据基础,让他们来设计具有约束力的监管框架。Anthropic主动支持加州透明度法案SB53,是在向行业和政府同时发信号。*
— THE END —
紫京讲谈
财经领域创作者
3674篇原创
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.