网易首页 > 网易号 > 正文 申请入驻

有能力将大模型上下文突破1亿Token| Anthropic CEO万字访谈实录

0
分享至

7月31日,Anthropic CEO Dario Amodei 接受了海外播客Big Technology 的访谈。本次对话围绕AI技术发展的指数级速度、Scaling Law的持续有效性、生成式AI的商业模式、AI安全与对齐,以及Anthropic在与科技巨头的激烈竞争中如何自处等话题展开。

Amodei指出,根据Anthropic的内部数据,尤其在编程等领域,指数级增长的趋势仍在持续,并未看到任何回报递减的迹象。大模型所谓的“持续学习”的核心障碍,最终可以通过 Scaling Law 加上一种稍微不同的思维方式来解决。AGI听起来像营销术语,这些术语完全没有意义。

他认为AI领域的竞争不应是竞相降低安全标准、抢先发布的“逐底竞争”,而应是树立最佳实践、公开安全研究、鼓励同行效仿的“登顶竞争”;一家AI公司可能每个模型本身都实现了高额利润,但会将所有利润和更多资金投入到下一代模型的研发中,用传统盈利标准衡量这类公司是存在误导性的。

01

我们正处在爆发的前夜,却很容易被指数增长的平缓开端所迷惑

Dario Amodei曾说AI可能让半数白领工作消失,切断了Winds对顶级模型的访问,要求政府实施出口管制,甚至惹恼了Nvidia的CEO。这一切的背后是怎样的思考?Dario Amodei对AI发展的时间线预期比多数人更短,这是否是感到必须站出来发声的紧迫感来源?

Dario Amodei: 我和 Anthropic 始终专注于践行和宣扬我们的信念。随着我们开发的 AI 系统日益强大,我希望能更强有力、更公开地表达这些观点,让大家听得更清楚。我多年来一直在说,我们掌握了 Scaling Law。AI 系统的能力正变得越来越强大。几年前,它们还几乎词不达意;后来,达到了聪慧高中生的水平;现在,正接近聪慧的大学生乃至博士的水平,并开始在整个经济体中得到应用。因此,所有与 AI 相关的问题,从国家安全到经济民生,都变得日益紧迫,即将成为我们必须直面的现实。随着这些问题日益逼近,尽管 Anthropic 谈论这些已有一段时间,但紧迫感与日俱增。我希望能确保我们说出自己的信念,并向世界警示可能存在的负面风险。虽然没人能预知未来,但我们正努力说出我们认为可能发生、且很可能会发生的事情。我们尽最大努力为自己的观点提供依据,尽管这通常是关于未来的推断,没人能确信无疑。但我认为,我们有责任向世界预警未来。这并不是说我认为 AI 没有海量的正面应用。我一直在谈论这一点,还写过一篇名为Machines of Loving Grace的文章。事实上,我感觉我和 Anthropic 往往比那些自称为乐观主义者或加速主义者的人,更能清晰地阐述 AI 的益处。所以,我们可能比任何人都更珍视这些益处。但正因如此,因为如果我们处理得当,就能拥有一个无比美好的世界,我才感到有责任去警示风险。

(关于时间线预期)我不完全确定。预测未来非常困难,尤其是在社会层面。比如你问,人们何时会部署 AI?公司何时会投入 X 数量的资金在 AI 上?AI 何时会被用于这些应用,或者何时能推动那些医疗突破?这些都很难说。我认为底层技术的发展更容易预测,但仍然充满不确定性,没人知道确切答案。不过,对于底层技术,我确实越来越有信心。但这并非没有不确定性。我们目前所处的这种指数级增长,完全有可能停滞。我认为,在未来两年内,大概有 20% 到 25% 的可能性,模型会因为我们尚不理解、或可以理解的原因 (例如数据或算力的可用性问题) 而停止进步。到那时,我今天说的这一切都会显得无比愚蠢,所有人都会因我发出的警告而嘲笑我。不过,考虑到我所看到的各种可能性分布,我完全能接受那样的结果。

02

Scaling Law指数级增长仍在持续

在所有主要AI实验室的负责人中,您对时间线的预期最短。为何会有如此短的预期?此外,现在许多业内人士都在讨论Scaling带来的回报递减,这与您描绘的指数增长愿景似乎并不相符,是他们错了吗?

Dario Amodei: 关于时间线预期,这取决于你所说的“时间线”具体指什么。有一件事我多年来的观点都非常一致:AI 领域充斥着像 AGI 和超级智能这样的术语。你会听到有公司负责人说,“我们已经实现了 AGI,正在向超级智能迈进”。在我看来,这些术语完全没有意义。我不知道什么是 AGI,也不知道什么是超级智能。这听起来像营销术语,是旨在激发人们兴奋的说法。所以在公开场合,我从不使用这些词,并且会很小心地对其用法提出批评。

然而,对于 AI 能力将以极快速度提升这一点,我确实是其中最乐观的人之一。我认为真正实在的,也是我反复强调的,是“指数级增长”。这意味着,每隔几个月,我们就能得到一个比之前更好的 AI 模型。我们能做到这一点,是通过在模型中投入更多算力、数据以及应用新型训练方法。最初,这通过所谓的“预训练” 实现,也就是将海量互联网数据输入模型。现在我们有了第二阶段,即“强化学习”。如今,这两个阶段都在同步进行 Scaling,这在我们的模型以及其他公司的模型上都得到了体现。我没有看到任何东西能够阻碍其进一步 Scaling。

当然,在如何拓宽强化学习的任务范围方面还有些工作要做。我们看到在数学和编程等领域进展更快,模型已非常接近高级专业人员的水平,但在更主观的任务上进展相对较少。不过我认为这在很大程度上只是一个暂时的障碍。

所以当我审视这一切时,我看到了一条指数曲线。人们并不擅长理解指数增长。如果某样东西每六个月翻一番,那么在它爆发的两年前,它看起来只像走了全程的 1/16。而我们正处在 2025 年年中,AI 模型在经济领域的影响力正开始真正爆发。从模型能力看,它们正开始在所有基准测试中达到上限。从收入看,Anthropic 的收入每年增长 10 倍。每年我们都比较保守,说“这次不可能再增长 10 倍了”。我从不假设任何事情,实际上在商业方面我总是非常保守,认为增速会放缓。但我们在 2023 年从 0 增长到了 1 亿美元,在 2024 年从 1 亿增长到了 10 亿。而今年上半年,我们就从 10 亿的水平增长到了远超 40 亿,可能已经达到 45 亿。

所以你想想,假设这条指数曲线再持续两年。我不是说它一定会,只是假设它持续下去,那么体量将远超千亿美元。我不是说那一定会发生。我想说的是,当你身处一条指数曲线上时,你真的很容易被它迷惑。在指数增长变得完全疯狂的前两年,它看起来似乎才刚刚起步。这就是根本的动态。我们在 90 年代的互联网上就看到了这一点。当时,网络速度和计算机的底层速度越来越快,几年之内,就基本上可以在此之上建立起一个全球数字通信网络,而这在几年前是无法想象的。当时除了少数几个人,几乎没有人真正看清了这件事的影响以及它会发生得多快。

这就是我的出发点。我们无法确定确切的时间表,但我认为人们正在被指数增长所迷惑,没有意识到它可能发展得有多快,尽管我也不敢百分百肯定。

(关于回报递减)我只能以我们在 Anthropic 观察到的模型情况来回答。以编程为例,这是我们模型进步飞速、应用普及也极快的领域。我们并非只是一家专注编程的公司,并计划扩展到许多其他领域。但单看编程,我们发布的 3.5 Sonnet、3.5 Sonnet V2、3.7 Sonnet,以及 4.0 Sonnet 和 4.0 Opus这一系列模型,每一个的编程能力都比上一个有了质的飞跃。

如果要看基准测试,SWE-bench 的分数在 18 个月前大概只有 3%,现在已经一路飙升到 72% 至 80%,具体取决于测量方式。实际使用量也呈指数级增长,我们正越来越朝着让这些模型自主工作的方向前进。在 Anthropic,目前绝大多数代码都是由我们的一款 Claude 模型完成,或者至少是在其辅助下完成的。其他多家公司也发表过类似的言论。

因此,我们看到的是:进展非常快,指数级增长仍在持续,我们没有看到任何回报递减的迹象。

03

看似根本性的障碍,最终都可以通过Scaling Law加上稍微不同的思维方式来解决

大语言模型似乎存在固有短板,例如缺乏持续学习能力,模型一旦创建就无法再学习,这是否是一个严重缺陷?另外,您认为对Scaling Law的执着,是否可能让您忽视了新兴的技术路径?Demis Hassabis就认为,实现人类水平的智能可能需要全新的技术。

Dario Amodei: 关于缺乏持续学习能力,首先,即便我们永远无法解决持续学习和记忆的问题,大语言模型的潜力也足以表现得极其出色,甚至对整个经济规模产生深远影响。以我曾从事的生物学和医学领域为例,假设我有一位非常聪慧的诺贝尔奖得主,但我对他说:“你已经有了这么多伟大的发现,拥有如此非凡的头脑,但你无法再阅读新的教科书或吸收任何新信息。” 这当然会很困难,但即便如此,如果你有一千万个这样的“诺奖得主”,他们依然能在生物学领域取得大量突破。他们会受到限制,能做一些人类做不到的事,也有些人类能做的事他们做不到。但即便存在这样的天花板,其成就也已经非常了不起,并足以带来变革。即使我说我们永远解决不了这个问题,我认为人们还是低估了它的影响力。

不过,现实是上下文窗口正在变得越来越长,模型实际上在上下文窗口内是可以学习的。当我在一个上下文窗口中与模型对话时,它会吸收我提供的信息。虽然模型底层的权重可能没有改变,但这就像我们现在对话一样,我听你说话,进行思考并作出回应,模型也能做到这一点。从机器学习或 AI 的角度来看,我们完全有能力将上下文长度扩展到一亿个词,这大约是人类一生所能听到的词汇量。技术上没有理由做不到,这实际上是一个推理算力支持的问题。因此,仅凭这一点就能弥补很多不足,虽然不是全部,但也足以解决很多问题。

此外,还有一些涉及学习和记忆的方法,能够让我们更新模型的权重。例如,我们有很多围绕强化学习、学习训练的方法。很多年前我们讨论过“内循环”和“外循环”的概念。内循环是指在一个事件片段中学习并为这个片段的生命周期进行优化;而外循环则是 AI Agent 在多个片段之间进行学习。我认为这种内外循环的结构或许是实现持续学习的一种途径。我们在 AI 领域学到的一个经验是,每当看似遇到某个根本性障碍时,比如两年前我们认为推理能力是一个根本障碍,结果发现它仅仅是一个强化学习的问题。你只需要用强化学习来训练,让模型写下思考过程,就能解决客观的数学问题。虽然不能透露太多细节,但我认为我们已经有一些证据表明,持续学习是另一个“看似困难,实则不然”的问题,它最终可以通过Scaling Law 加上一种稍微不同的思维方式来解决。

(关于忽视新兴技术路径)我们每天都在开发新技术。Claude 在代码方面表现非常出色,但我们很少对外详细解释其背后的原因。正如我所说,我们不公开讨论这些。我们发布的每一个新版 Claude,都在架构、输入数据以及训练方法上有所改进。所以,我们一直都在开发新技术。新技术是我们构建的每一个模型都不可或-缺的一部分。这也解释了为什么我总说,我们要尽可能地优化“人才密度”,因为你需要这样的人才密度来发明新技术。

04

不看好Meta高薪挖角

Anthropic会不会是一家想法正确,但资源不足的公司?XAI和Meta,他们都在建设超大规模的计算集群和数据中心。面对这些万亿美元市值的公司,你们虽然筹集了数十亿美元,但还有可能竞争吗?

Dario Amodei: 到目前为止,我们已经筹集了将近 200 亿美元,这绝不是一个小数目。而且,如果你看看我们与 Amazon 等合作伙伴共同建设的数据中心的规模,我认为我们的数据中心扩展速度与业内任何其他公司相比,并没有实质性的差距。在很多情况下,规模扩张会受到能源和资本的限制。当人们谈论那些巨额投资时,他们通常指的是未来几年的计划。而且当你听到一些类似的公告时,有时资金尚未到位。我们了解其他公司正在建设的数据中心的规模,并且我们非常有信心,我们自己的数据中心规模将与他们处于大致相当的水平。

您如何看待Mark Zuckerberg在人才方面的举措?他将高密度人才与大规模数据中心相结合,似乎将具备很强的竞争力。但他们同时拥有人才和GPU,您没有低估他们吗?

Dario Amodei: 关于Mark Zuckerberg的人才举措,这个问题非常有趣。我们注意到,相比其他公司,被他们高薪挖走的 Anthropic 员工要少得多。这并非因为他们没有尝试。我与许多收到过他们 offer 的 Anthropic 员工聊过,他们都拒绝了,甚至不愿与 Mark Zuckerberg 对话,直接表示:“不,我会留在 Anthropic。” 我们对此的普遍回应是,我当时在公司全员的 Slack 频道里发了一段话,大意是:“我们不会为了个别回应这些 offer,而牺牲公司的薪酬原则和公平原则。” Anthropic 的薪酬体系是分级别的。候选人入职时会被评定一个级别,我们不会就这个级别进行讨价还价,因为我们认为那样做是不公平的。我们希望有一个系统化的方式。不能因为 Mark Zuckerberg 像扔飞镖一样随机选中了你,你就应该比旁边那位同样优秀、同样才华横溢的同事多拿十倍的薪水。在我看来,在这种情况下,你唯一会受到真正伤害的方式,就是因为恐慌而采取不公平的手段留住员工,从而亲手毁掉自己的公司文化。我认为,这反而成为了公司的一个凝聚时刻。我们没有屈服,我们拒绝在原则上妥协,因为我们相信,大家选择留在 Anthropic,是因为他们真正信仰我们的使命。这也引出了我的核心看法:我认为他们正在试图购买一种买不到的东西,那就是对使命的认同。这里面存在选择效应:他们吸引到的人,真的是那些最有热情、最认同使命、最积极投身于事业的人吗?

关于是否低估他们,结果如何,让我们拭目以待。我个人非常不看好他们的做法。

05

模型最初的商业用例是通过 API 来实现的

很多人都在好奇,生成式AI的商业模式是否真的成立?您已经筹集了近200亿美元,您的融资故事是什么?作为一家独立公司,您是直接拿着Scaling Law去说服投资者吗?CNBC曾报道公司60%至75%的销售额来自API,这个数据还准确吗?你们为何不像OpenAI押注消费者,或像Google押注现有产品生态,而是选择押注技术本身(API)?

Dario Amodei: 关于融资故事,我对此的看法一直都是:人才是最重要的资产。回想三年前,我们当时只筹集了区区几亿美元,而 OpenAI 已经从 Microsoft 获得了 130 亿美元的投资,更不用说那些坐拥一两千亿美元现金的科技巨头了。我们当时向投资者提出的核心论点是:我们比其他人更懂得如何把模型做得更好。或许确实存在一条 Scaling Law 曲线,但如果我们可以用 1 亿美元做到别人需要 10 亿才能做到的事,用 100 亿做到他们需要 1000 亿才能做到的事,那么投资 Anthropic 的“资本效率” (capital efficiency) 就是投资其他公司的 10 倍。你是愿意以低 10 倍的成本做成任何事,还是愿意一开始就手握巨款?如果你能以低 10 倍的成本做事,那么资金短缺只是一个可以弥补的暂时劣势。而如果你拥有以同等成本造出比别人好得多的产品,或者以更低成本造出和别人一样好的产品的内在能力,投资者们是能看懂这种资本效率的。

三年前,我们之间的资源差距可能高达 1000 倍。而现在你问我,用 200 亿美元能否与 1000 亿美元竞争?我的答案是肯定的,这正是因为我们的人才密度。我之前也提过,Anthropic 实际上是同等规模下,历史上增长最快的软件公司。我们的年化收入在 2023 年从 0 增长到 1 亿美元,2024 年从 1 亿增长到 10 亿,而今年已经从 10 亿增长到了 45 亿。这种每年 10 倍的增长速度,说实话,我每年都怀疑能否再次实现,甚至不敢公开预测,生怕它不会发生。但我认为,这种规模的增长本身就证明了我们与行业巨头竞争的能力。

(关于API收入占比)我不会透露确切的数字,但绝大部分收入确实来自API。不过,我们的应用业务也发展得非常蓬勃,尤其是最近推出的供高级用户使用的 Max 套餐,以及供程序员使用的 Claude Code。所以,我们拥有一个繁荣且快速增长的应用业务,但是,绝大部分收入来源是 API。

(关于为何押注技术本身)我更愿意说,我们押注的是模型的商业应用场景,而非API 本身。只是恰好,模型最初的商业用例是通过 API 来实现的。正如您所说,OpenAI 非常关注消费者市场,Google 则专注于其现有的产品生态。而我们的观点是,AI 的企业级应用市场,其规模甚至将超过消费者市场。或者我应该说“商业应用”,因为它涵盖了大型企业、初创公司、开发者以及使用模型提高生产力的专业人士。我也认为,作为一家专注于商业用例的公司,能为我们提供更好的激励,去把模型做得更出色。这里有一个值得思考的思想实验:假设我有一个模型,它在生物化学领域的水平相当于一名本科生。然后我将它改进,使其水平达到了博士生级别。如果我把这个升级告诉一位普通消费者,说:“好消息,我把模型的生化能力从本科生提升到了博士生水平”,可能只有 1% 的消费者会在意,99% 的人会觉得反正都看不懂。但现在,如果我告诉辉瑞公司同样的消息,这将会产生巨大的影响,对吧?他们可能愿意为此支付 10 倍的价钱,因为它能创造 10 倍的价值。

因此,我们的总目标是让模型解决现实世界的问题,让它们变得越来越智能,并催生出众多积极的应用。我认为,专注于商业应用为我们将模型能力推向极致提供了更好的激励。在很多方面,这甚至可能是一种更具积极意义的商业模式。所以,我们是在押注 AI 的商业应用,因为它与指数级增长的潜力最为契合。

06

前沿智能的成本或将恒定,但其创造的价值将不成比例地增长

当初是如何决定切入代码这个应用场景的?你们的AI编程工具Claude Code定价模式让一些开发者感到困惑,他们每月花200美元却能获得价值数千美元的服务,这种商业模式如何成立?另外,有开发者抱怨新模型成本更高,有初创公司反映服务不稳定,Replit创始人Amjad Masad也说模型单位Token价格停止下降。真实情况是不是这些模型对Anthropic来说运行成本太高,以至于你们自己也到了极限?更大的模型虽然参数规模庞大,但运行成本并没有等比例增加,Anthropic 是否可能在后端负载并不高的情况下运行这些模型,但仍然维持着当前的价格。

Dario Amodei: 关于切入代码场景,最初,和大多数事情一样,我们的目标是全面优化模型的能力,而在众多场景中,代码的价值尤为突出。我曾与数千名工程师共事,大约在一年到一年半前,我合作过的一位最顶尖的工程师对我说:“以前所有的代码模型对我来说都毫无用处,而这一个,终于能帮我完成我之前做不到的事情了。” 在我们发布相关功能后,它迅速获得了市场的广泛采用。当时也正是 Cursor、GitHub Copilot 等许多代码辅助工具公司开始爆发式增长的时期。当我们看到它如此受欢迎之后,便决定加倍投入。在我看来,代码是一个特别有意思的领域,因为首先,它的市场接受速度非常快;其次,利用模型提升写代码的效率,实际上也能反过来帮助你开发下一代模型。所以,它具有多重优势。

(关于Claude Code的商业模式)定价策略和使用频率限制是个出乎意料地复杂的问题。之所以出现这种情况,根本原因在于我们当初发布 Claude Code 和后来与之绑定的 Max 等级套餐时,并没有完全预见到用户会以何种方式使用模型,以及他们到底能获得多大的使用量。所以就在最近几天,我们已经对此进行了调整,特别是针对 Opus 这样的大模型。现在,用户应该已经无法通过 200 美元的订阅获得那么大的使用量了。当然,未来可能还会有更多调整。但我们的用户群里,总会有一部分是高用量用户,一部分是普通用量用户。但这并不必然意味着我们在亏钱。有些用户通过消费者订阅服务,确实获得了比按 API 使用量计费更优惠的价格,但认为我们会因此亏损的看法,背后有很多错误的假设。我们实际上并没有亏钱。

(关于模型运行成本)这些说法背后仍然是一些假设。我的看法是:我坚信,提供特定智能水平的成本一定会下降。但是,提供“智能前沿”的成本,也就是那些能创造巨大新增经济价值的顶尖模型,它的成本可能会上升,也可能会下降。我个人猜测它大概会维持在现有水平。但关键是,它所创造的价值会不成比例地大幅增长。所以我预测,两年后,我们会有成本和今天在同一个数量级的模型,但它们的能力将远非今日可比,能更自主、更广泛地完成工作。

(关于Amjad Masad的观点)更大的模型运行成本就是比小模型高。我想你指的技术应该是“专家混合模型”或类似的东西。无论模型是否采用 MOE,它本身是一种能够更经济地运行和训练大参数模型的技术,一个基本事实是不会变的:不用 MoE,大模型比小模型成本高;用了 MoE,用 MoE 的大模型还是比用 MoE 的小模型成本高。所以刚才的说法并不准确。关于模型成本,有一点可能会让你惊讶。人们总是在推测,把利润率从 X% 提到 Y% 有多难。但我们一直在进行各种改进,常常能让模型效率一下子提升 50%。我们在优化推理方面才刚刚起步。推理效率相比几年前已经有了天壤之别,这才是价格下降的真正原因。

07

用传统的盈利视角来评判Anthropic这样的公司是不合适的

公司要实现盈利还需要多久?有预测说,你们今年的亏损会达到30亿美元。

Dario Amodei: 我想在这里区分几个概念。首先是模型的运营成本。模型每产生一美元收入,会消耗一定的运营成本,实际上,单看这部分的业务,利润率已经相当可观了。然后是人力、办公等其他开销,在总成本中占比并不大。真正的大头开销,是训练下一个模型的研发投入。因此,我认为“公司亏损、不盈利”这种说法是有误导性的,当你理解了 Scaling Law,就更容易明白。

我们来做一个思想实验 (和 Anthropic 无关,只是例子)。想象在 2023 年,你花 1 亿美元训练了一个模型。到 2024 年,你部署了这个模型,它带来了 2 亿美元的收入。但同年,你又投入 10 亿美元去训练一个更新的模型。再到 2025 年,那个耗资 10 亿美元的模型为你带来了 20 亿美元的收入,而你又再次投入 100 亿美元去训练下一代模型。

从账面上看,这家公司每年都在巨额亏损:2024 年亏了 8 亿美元,2025 年亏了 80 亿美元。这看起来像个无底洞。但是,如果我们换个视角,问:每一个模型本身是盈利的吗? 把每个模型看作一个独立的投资项目。你为第一个模型投资 1 亿,第二年它收回 2 亿,利润率 50%。下一个模型投资 10 亿,也收回了 20 亿。所以,每一个模型自身都是盈利的,但公司整体却年年亏损。

我再强调,这只是一个简化的模型,但这种动态在很大程度上解释了行业的现状。因此,在任何时候,如果模型不再进步,或者一家公司决定停止投资研发下一代模型,那么仅凭现有模型,它很可能已经是一家能够持续盈利的企业了。但现实是,所有人都在为下一代模型投入巨资。我们之所以不断加大对下一个模型的投资,恰恰因为它预示着来年的业务规模会比今年更大。当然,也存在一种可能:模型的能力提升到顶了,那这笔巨额投资就打了水漂,整个行业将回归到一个盈利的平台期。但也有可能,这种指数级增长会继续下去。所以,我说了这么多,其实是想说明,用传统的盈利视角来评判我们这样的公司,可能是不合适的。

08

“开源威胁论”是个伪命题,真正的护城河是模型性能

开源呢?如果一旦你们停止投资新模型,而开源模型的性能追了上来,客户不就可以直接用开源方案替换掉你们的产品吗?很多人都认为这是Anthropic商业模式的一大风险。

Dario Amodei: 这个行业似乎总在重复一个故事,我在 AI 发展早期就见证过:AI 每进入一个新阶段,人们就会用自己固有的经验法则去“框定”它。比如 2014 年,当时的主流 AI 学界认为深度学习“只是昙花一现,行不通,无法规模化”,后来的指数级发展证明他们都错了。当企业开始部署 AI、当创业圈涌入时,类似的故事一再上演。现在,轮到了全球的商业领袖,他们带着一整套来自上一个科技时代的词汇——“商品化”、“护城河”、“价值归属”来分析 AI。而“开源威胁论”就是这套“旧词典”里的一个概念。

作为一个从不使用那套词汇思考的局外人,我发现,有时候“无知”反而能让你做出比“专家”更准确的预测。说了这么多,我的核心观点是:我不认为开源在 AI 领域的作用,能与它在其他软件领域的作用同日而语。 最根本的区别在于,传统开源你能看到源代码,但在这里,你无法看透模型的内部。因此,人们常用“开放权重”来替代“开源”,以示区别。传统开源那种“众人拾柴火焰高”、贡献可累加的好处,在 AI 模型上大打折扣。

所以,我一直认为“开源威胁论”是个伪命题。当一个新模型出现时,我从不关心它是否开源。比如 DeepSeek,它是不是开源根本不重要。我只会问:“这是个好模型吗?它在我关心的任务上比我们强吗?”这才是唯一重要的问题。因为最终,你必须把它托管在云端做推理,而大模型的推理既昂贵又困难。反过来说,很多你以为要拿到权重才能做的事,比如微调,我们正越来越多地通过云服务提供。我们甚至在研究提供可解释性接口,让用户研究模型的内部激活状态。因此,我认为用“开源 vs 闭源”的视角来思考竞争,是抓错了重点。我眼中的竞争只有一点:谁的模型在关键任务上做得更好。开源,不过是个分散注意力的伪命题。

关于开源免费且成本低,它不是免费的。你必须为推理服务付费,而且得有人去优化,让推理变得足够快。

09

对“末日论者”的标签感到愤怒

您曾是OpenAI的核心人物,为何最终选择离开?您如何回应“只有自己才能安全构建AI”的批评?您对创造影响力的渴望,是否会促使您加速技术发展,从而忽视了我们可能无法控制它的风险?

Dario Amodei:(关于离开OpenAI)我再强调一次,关于是否发布一个模型、公司的治理结构、人事制度、对外形象、部署策略,以及公司如何向社会阐述其运营方式,所有这些重大决策,都不是一个仅仅负责训练模型的技术人员能够控制的。而且,我认为信任至关重要。一家公司的领导者,必须是值得信赖的人,他们的动机必须是真诚的。无论你在技术上为公司带来了多大的进步,如果你是在为一个动机不纯、为人不诚、并非真心想让世界变得更好的人工作,那么这一切都将行不通。你最终只是在为一个错误的目标添砖加瓦。

(关于“只有自己才能安全构建AI”的批评)我从未说过任何类似的话。事实上,我已经说过很多次,并且我认为 Anthropic 的行动也证明了这一点:我们的目标是实现我们所说的“竞相登顶”。这些年我在播客中反复提及这个概念,而 Anthropic 的行动也印证了这一点。想想什么是“竞相逐底”?就是每个人都拼了命地想尽快推出产品。我说过,在“竞相逐底”的赛场上,谁赢并不重要,因为最终每个人都是输家。你会造出不安全的系统,要么助长了你的对手,要么引发经济问题,要么从对齐的角度来看就是危险的。而我所构想的“竞相登顶”则是,谁赢了不重要,因为最终每个人都是赢家。这种模式的运作方式是,你为整个领域树立一个实践的榜样。

你说,“我们要采取这样的做法。” 一个关键的例子就是“负责任的扩展政策”。我们是第一家发布这项政策的公司。我们并没有说“所有人都必须这么做,否则你们就是坏人”,我们没有想把它当作一种竞争优势。我们把它公布出来,并鼓励其他所有人也这样做。后来几个月我们发现,其他公司内部也有人在推动类似的政策,而我们开创先例的这个举动,给了他们一个有力的理由,让他们能够向领导层建言:“看,Anthropic 已经在这样做了,我们也应该跟上。” 我们在可解释性上的投入也是如此。我们向所有人公开我们的研究成果,允许其他公司借鉴,即便我们知道这有时能带来商业优势。同样地,还有宪法 AI,以及对系统危险性的度量,即危险能力评估。我们的目标是为整个行业树立一个榜样。当然,这其中有一种微妙的相互作用:成为一个强大的商业竞争对手,对推行这些理念是有帮助的。但我从未说过任何,任何沾得上边的话,暗示 Anthropic 应该是唯一一家构建这项技术的公司。我不知道任何人是怎么从我的言论中得出这种结论的。

(关于加速发展与控制风险的平衡)在整个行业里,我比任何人都更频繁地警告这项技术的危险性。我认为,随着 AI 创造的收入和商业价值呈指数级增长,公司经营者们早已看到了这一点。所以我们正处在一个非常令人担忧的局面:数千亿、乃至数万亿,甚至可能高达二十万亿的资本,都押注于“尽可能快地加速 AI”。而我们公司,虽然估值高达 600 亿美元,与之相比也显得微不足道。

(关于是否能控制技术)我正想说明这一点。我只是想让你知道,我付出了多少努力和坚持,尽管困难重重,尽管直言不讳会给公司带来风险,我依然愿意发声。这就是我为什么说,如果我认为这项技术毫无控制的可能,哪怕我只认为这纯粹是一场赌博,“你觉得 AI 有 5% 或 10% 的概率会失控,你这就是在赌博”,也不会这么做。我的看法并非如此。这是一个多步骤的博弈。你先走一步,构建出下一代更强大的模型,然后进行更严格的测试。随着我们越来越接近那些能力超强的模型,我发声的音量会越来越大,采取的行动也会越来越果断,因为我担心 AI 的风险正日益临近。我们正在努力解决这些风险,也取得了一定进展。但当我担心,我们在应对风险方面的进展,可能跟不上技术本身发展的速度时,我就会更大声地疾呼。

所以,你问我为什么现在要谈论这些,就像你采访开始时问的,“你这是怎么了?”就是因为技术发展的指数曲线已经到了一个让我担忧的节点:我们处理风险的能力,或许已跟不上技术发展的步伐。这就是我的回应。如果我真的相信技术无法被控制,对此我完全没看到任何证据支持这种论调;恰恰相反,我们每发布一个新模型,对它的控制能力就更强一些——那情况就不同了。当然,各种问题还是会发生,但必须对模型进行非常严格的压力测试才能触发它们。这不代表不会出现意外的有害行为。而且我认为,如果我们仅凭现有的对齐技术就去构建远比现在更强大的模型,那我将非常担忧。到那时,我就会站出来呼吁所有人,包括中国,都应该停止开发。当然,我不认为他们会听我的,这也是为什么我认为出口管制是更好的措施。但是,如果我们的模型技术领先了几年,但驾驭它的技术却停留在今天,那我一定会主张大幅放慢脚步。

我之所以现在就警告风险,恰恰是为了我们将来不必被迫放慢脚步,是为了我们现在就能大力投入安全技术,从而让整个领域能持续进步。这背后是巨大的经济驱动力。就算一家公司愿意放慢脚步,也无法阻止其他所有公司,所以,我们几乎没有多少回旋余地,我们被困在技术的巨大效益、推动其发展的竞赛、以及这场多方竞赛的现实之间。

因此,我正在做我所能做的最好的事:投资安全技术,加速安全研究的进展。我写过文章阐述可解释性的重要性,以及安全领域各个研究方向的重要性。我们公开了所有安全相关的研究成果,因为我们认为这是公共品,是每一个人都应该共享的。

所以我认为,当前的局势要求我们对风险和效益都要有极为严肃的认知。这些都是高风险的决策,必须以极其审慎的态度来制定。有一件事让我非常担忧:一方面,有一派人是纯粹的“末日论者”。别人也这么叫我,但我不是。那些末日论者声称,我们不可能安全地构建 AI。我看过他们的论点,基本就是一派胡言。要说这些模型伴随着危险,甚至是对全人类的危险,这我认同。但要说我们能从逻辑上证明我们永远无法使其变得安全,这在我看来纯属无稽之谈。所以我认为,这是对当前局势在智识上和道德上都极不负责任的一种回应。

同时,我也认为,那些坐拥二十万亿资本的人,他们的动机完全一致,眼里只有利益,他们聚在一起说“未来十年都不该监管这项技术”,还说“任何担心模型安全的人,都只是想自己垄断这项技术”,这种说法同样是既不严谨,也不道德的。这是一种无耻且不负责任的主张。我们坐在这里,做了所有可能的研究。我们相信在适当的时候就应该发声。当我们对 AI 的经济影响提出看法时,我们有经济研究委员会,有用来实时追踪模型的经济指数,我们还资助他人去理解这项技术的经济影响。我认为,对于那些在技术成功上利益牵扯远比我深厚的人来说,如此轻率地发起人身攻击,和末日论者的立场一样,都是在智识上和道德上极不负责任的。

| 文章来源:数字开物

• END

【专栏】精品再读

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
波斯1.4万亿的国家主权基金,被谁偷走了?

波斯1.4万亿的国家主权基金,被谁偷走了?

世界灵敏度赵灵敏
2026-03-11 21:03:54
3月10号起,国家要向大家‘借钱’了,利息比银行高!关键很靠谱

3月10号起,国家要向大家‘借钱’了,利息比银行高!关键很靠谱

混沌录
2026-03-11 16:37:09
生育大局已定:不出意外的话,2026年起中国人口将迎来3大变化

生育大局已定:不出意外的话,2026年起中国人口将迎来3大变化

云景侃记
2026-03-11 22:10:21
伊拉克籍记者方浩明:我是幸福的中国准女婿,中国是我的重生地

伊拉克籍记者方浩明:我是幸福的中国准女婿,中国是我的重生地

细品名人
2026-03-12 07:44:29
普京透露一个“秘密”

普京透露一个“秘密”

新民周刊
2026-03-12 08:10:52
毛主席听到周总理讣告后问“逝世是什么意思”,孟锦云说出真相后,他沉默了

毛主席听到周总理讣告后问“逝世是什么意思”,孟锦云说出真相后,他沉默了

史海孤雁
2026-03-11 23:33:06
扎心不是王曼昱输球!而是大藤沙月赛后一番话!马琳却一言不发!

扎心不是王曼昱输球!而是大藤沙月赛后一番话!马琳却一言不发!

好乒乓
2026-03-11 12:27:28
72年,我不顾父母反对,娶了怀孕女教师,新婚夜她却递来一封信

72年,我不顾父母反对,娶了怀孕女教师,新婚夜她却递来一封信

奶茶麦子
2026-03-11 21:58:05
抖音盛典成“祛魅现场”!网红集体见光死,网友:名字和脸对不上

抖音盛典成“祛魅现场”!网红集体见光死,网友:名字和脸对不上

子芫伴你成长
2026-03-11 22:52:28
罕见公开批评!德国总理警告以色列:吞并约旦河西岸将是“一个巨大的错误”

罕见公开批评!德国总理警告以色列:吞并约旦河西岸将是“一个巨大的错误”

环球网资讯
2026-03-11 10:26:44
铁饭碗碎了!2026年机构改革后公务员和事业编的差距比你想的更大

铁饭碗碎了!2026年机构改革后公务员和事业编的差距比你想的更大

混沌录
2026-03-11 22:28:22
打乱套了!俄罗斯公开支持伊朗,乌克兰军队将赴中东协助美以作战

打乱套了!俄罗斯公开支持伊朗,乌克兰军队将赴中东协助美以作战

史政先锋
2026-03-09 19:30:53
裁判帮倒忙!东道主遇大麻烦,中国女足仁至义尽,朝鲜队偷着乐

裁判帮倒忙!东道主遇大麻烦,中国女足仁至义尽,朝鲜队偷着乐

云景侃记
2026-03-11 17:02:55
国际足联主席:特朗普欢迎伊朗到美国参加世界杯!伊朗队3场小组赛均在美国举行,距开赛已不足3个月

国际足联主席:特朗普欢迎伊朗到美国参加世界杯!伊朗队3场小组赛均在美国举行,距开赛已不足3个月

每日经济新闻
2026-03-11 16:31:07
女总裁破产我没走,她笑说工资下辈子还,我喊爸转5亿收公司带人

女总裁破产我没走,她笑说工资下辈子还,我喊爸转5亿收公司带人

奶茶麦子
2026-03-11 19:51:06
中国赛2天6人退赛!5席32强出炉,丁俊晖无缘,赵心童进半决赛?

中国赛2天6人退赛!5席32强出炉,丁俊晖无缘,赵心童进半决赛?

刘姚尧的文字城堡
2026-03-12 09:37:10
中央定调,养老金调整方向明确,2026年若上涨,不按工龄调了吗?

中央定调,养老金调整方向明确,2026年若上涨,不按工龄调了吗?

丁丁鲤史纪
2026-03-11 11:33:00
两会还没结束,央媒对霍启刚称呼变了,四字之差释放两大强烈信号

两会还没结束,央媒对霍启刚称呼变了,四字之差释放两大强烈信号

以茶带书
2026-03-10 13:33:47
广西局长一家被灭门,竟是小姨子作案,行刑前:这辈子值了

广西局长一家被灭门,竟是小姨子作案,行刑前:这辈子值了

悬案解密档案
2025-03-28 10:58:32
72岁潘虹:在上海住复式楼,至今不会做饭,每年都参加同学聚会

72岁潘虹:在上海住复式楼,至今不会做饭,每年都参加同学聚会

天天热点见闻
2026-03-12 07:42:00
2026-03-12 10:47:00
人工智能学家 incentive-icons
人工智能学家
人工智能领域权威媒体
4573文章数 37430关注度
往期回顾 全部

科技要闻

腾讯"养虾"暴涨后,百度急得在门口"装虾"

头条要闻

媒体:面对伊朗无人机乌"接单"救场 泽连斯基另有盘算

头条要闻

媒体:面对伊朗无人机乌"接单"救场 泽连斯基另有盘算

体育要闻

要脸,还是要83分纪录?

娱乐要闻

蔡少芬晒全家福照,两女儿成最大亮点

财经要闻

卢锋:从特朗普团队群演看时代变局

汽车要闻

大众2025财报:转型虽有阵痛 "大象"已然起跑

态度原创

本地
时尚
旅游
公开课
军事航空

本地新闻

这档韩国玄学综艺,让多少人看得头皮发麻

今年春天最时髦的6组搭配,照着穿美出新高度!

旅游要闻

2026黄河沿岸赏花指南:赏花期、点位→

公开课

李玫瑾:为什么性格比能力更重要?

军事要闻

朝鲜"崔贤"号驱逐舰进行战略巡航导弹试射

无障碍浏览 进入关怀版