|未经许可不得转载星标本号获取最新顶级认知|
![]()
城主说|一直对Anthropic的CEO Dario Amodei 对中国的偏见颇有微词, 但这一次, 在OpenAI, Google 光速滑跪的情况下, Amodei能顶着懂王的大棒, 拒绝五角大楼要求, 坚持原则死扛, 确实让人刮目相看, 必须说他确实有自己原则.
这是今天ABC的最新专访, 我看Amodei脸色都不好了, 毕竟这压力肯定山大, 以下是本城对访谈的全文整理.
愿世界和平.
Anthropic首席执行官Dario Amodei今天就公司与美国国防部之间的合作僵局接受了深度访谈。Amodei坚持认为,保卫国家不应以牺牲核心价值观为代价,而这种坚持正让 Anthropic 面临前所未有的政治与法律压力。
Dario Amadei阐述了公司在国家安全合作中坚持的两大红线:反对国内大规模监控和全自动武器。访谈还涉及了政府发出的供应链风险警告、最后通牒的性质、私营企业在技术伦理中的角色,以及法律滞后于 AI 发展等核心议题。
![]()
核心观点:
•“我们同意五角大楼 99% 的用例,但在事关民主价值观的 1% 极端场景上,我们必须划定红线。”
•“国内大规模监控在 AI 时代已走在法律前面,技术的发展速度让现行监管体系显得力不从心。”
•“当今 AI 系统存在根本的不可预测性,在解决可靠性问题前,部署全自主武器是不负责任的。”
•“政府将一家美国公司指定为‘供应链风险’是前所未有的报复性行为,这通常只针对外国敌对势力。”
•“反对政府的不当扩张是‘最美国化’的行为,爱国主义并不意味着盲目服从权力,而是捍卫原则。”
•“AI 计算量每四个月翻一番,这种指数级增长要求国会必须尽快建立符合时代需求的安全护栏。”
在Amodei的叙事中,Anthropic 并非外界传闻中的“反政府者”,相反,它是与美国国家安全机构合作最积极的 AI 公司之一。Amodei透露,Anthropic 是首家将模型部署到机密环境、并为情报部门定制模型的企业。然而,这种深度合作在两个具体领域戛然而止:国内大规模监控与全自动武器系统。
“我们必须以捍卫民主价值观的方式来保卫国家,”Amodei强调。他指出,AI 的强大分析能力正使“合法但不合理”的监控成为可能,例如政府购买私人数据并通过 AI 进行大规模画像。而在武器化方面,他坚持认为 AI 尚未达到支撑全自主作战的可靠性水平。“任何与 AI 模型打过交道的人都明白,它们存在一种基本的不可预测性。”这种技术上的不成熟,结合缺乏人类问责机制的风险,构成了 Anthropic 坚守的红线。
最后通牒与“惩罚性”的供应链指定
访谈揭示了 Anthropic 与五角大楼谈判破裂的惊人细节。Amodei描述了一个充满火药味的过程:政府给出了为期三天的最后通牒,要求公司放弃红线,否则将被指定为“供应链风险”。尽管 Anthropic 试图提供折中方案,并承诺在脱离过程中保证服务连续性,但五角大楼并未在实质性条款上做出任何让步。
令Amodei感到愤慨的是政府采取的后续手段。特朗普政府通过社交媒体宣布 Anthropic 为供应链风险,并威胁动用《国防生产法》。Amodei直言不讳地指出:“这种指定从未应用于一家美国公司,它通常针对的是像卡巴斯基或中国芯片商那样的对手。”他认为这种将爱国企业与外国间谍软件归为一类的做法,是完全的报复性和惩罚性行为,旨在通过制造恐惧和不确定性来打压私营企业的独立意志。
技术指数级增长下的法律真空
为何一家私营公司的 CEO 要承担起定义国家安全边界的角色?Amodei将此归咎于法律的严重滞后。他指出,AI 的发展遵循着惊人的指数定律,计算量每四个月就翻一倍,而国会和司法解释仍停留在旧时代。
“国会不是世界上动作最快的机构,而我们这些人在前线看到了这项技术的真实威力,”Amodei说道。他认为,虽然长期来看,制定规则应是国会的职责,但在法律“追赶”技术之前,技术开发者有义务划清界限。他呼吁建立一种新的“民主对话”,探讨如何在不削弱对抗威权对手能力的前提下,防止政府滥用技术权力。他坚持认为,这不仅是技术问题,更是维护《第四修正案》精神的宪法问题。
“最美国化”的抗争:重塑爱国主义叙事
面对“觉醒(Woke)”或“左翼意识形态驱动”的指责,Amodei表现得异常冷静。他拒绝卷入党派政治,强调 Anthropic 的立场基于专业知识和中立原则。他提到自己曾与多位不同政见的政要合作解决能源和医疗问题,试图证明公司的决策并非出于政治偏见。
在访谈的最后,Amodei重申了他的身份认同:“我们是爱国的美国人,我们所做的一切都是为了支持美国国家安全。”但他同时赋予了爱国主义更深层的含义:即行使宪法赋予的权利,公开发言并反对政府的过度扩张。他坚称。对于 Anthropic 而言,坚守那 1% 的红线,正是为了确保在赢得 AI 竞赛后,美国依然是那个值得保卫的民主国家。尽管面临法律挑战和政治压力,Amodei表示公司已做好在法庭上捍卫权益的准备,并对挺过这场危机充满信心。
Web3天空之城全文整理 合作背景与两大红线
主持人: 感谢您抽出时间。您是Anthropic的首席执行官达里奥·Amodei,我的第一个问题是,为什么您不无限制地向美国发布Anthropic的人工智能系统?
Amodei: 是的。我想我们应该稍微回溯一下,提供一些背景信息。Anthropic实际上是所有人工智能公司中与美国政府合作最为积极进取的。与美国政府合作。我们是第一家将我们的模型部署到机密环境中的公司,我们是第一家为国家安全目的定制模型的公司。我们已经部署在情报部门和军队中,用于网络安全、作战支援行动、各种此类应用。
而且,我们之所以这样做,是因为我相信我们必须保卫我们的国家。我相信我们必须保卫我们的国家,使其免受对手的侵害。因此,我们一直非常积极进取。我们有一个相当大的公共部门团队。
但是,我一直认为,当我们保卫自己免受专制对手的侵害时,我们必须以捍卫我们民主价值观和维护我们民主价值观的方式来进行。因此,我们告诉国防部,我们同意他们基本上想要的98%或99%的所有用例,除了我们关注的两个用例之外。
其中一个是用例是国内大规模监控。在那里,我们担心的是,人工智能可能会实现以前不可能实现的事情。一个例子是,比如将私营公司收集的数据,由政府购买,并通过人工智能进行大规模分析。这实际上并不违法。只是在人工智能时代之前,它从未有用武之地。因此,国内大规模监控在某种程度上已经走在了法律前面。技术发展得太快,已经跟不上法律的步伐了。这是第一种情况。
案例二,是全自主武器系统。这不是目前在乌克兰使用的或部分自主武器。这是指那些无需任何人为干预即可发射的武器。现在,即使这些武器,我认为,那些,我们的对手,可能在某个时候会拥有它们,所以或许,它们在某个时候可能对维护民主是必需的。
但我们对它们存有一些担忧。首先,当今的人工智能系统远未达到制造全自主武器所需的可靠程度。任何与人工智能模型打过交道的人都明白,它们存在一种基本的不可预测性,而这在纯粹的技术层面上我们尚未解决。
而且还有一个监管问题。如果你拥有一大批无人机或机器人,它们可以在没有任何人工监督的情况下运行,没有人类士兵来决定目标是谁、向谁开火,这会引发担忧。我们需要就如何监督这些系统展开对话。而我们还没有进行那次谈话。
谈判僵局与最后通牒
主持人: 因此,我们坚信,那两种用例不应该被允许。五角大楼告诉我们,他们原则上同意了这两项限制。他们想达成一项协议。为什么没能达成协议呢?
Amodei: 这个过程有几个阶段,都是快速完成的,而且都是由他们给我们的那种非常有限的三天的时间窗口所决定的,他们给了我们一个最后通牒,要求我们在三天内同意他们的条款,否则,就会被指定为供应链风险或受到《国防生产法》的制约。我想我们稍后会谈到那个。但在那段时间里,双方进行了几次针锋相对的交锋。
有一次他们发给我们的措辞,从表面上看似乎符合我们的条款,但其中包含各种措辞,比如“如果五角大楼认为合适”,或者,“为了做任何与法律一致的事情”。所以它实际上并没有在任何方面,在任何有意义的方面做出让步。它的后续步骤也都没有在任何有意义的方面做出让步。我们从一开始就想达成一项协议。
如果你想了解五角大楼的立场,五角大楼发言人肖恩·帕内尔在前一天重申了他们的立场:我们只允许所有合法使用。这和他们给我们发来条款时一样。所以他们没有超出,也没有以任何方式同意我们政府的(条款)。在任何有意义的方面都没有例外。
面对指控与连续性保障
主持人: 总统今天对这种情况发表了回应,称他们的自私自利,指的是Anthropic,正在危及美国人民的生命,使我们的军队处于危险之中,并使我们的国家安全陷入危险境地。你认为呢?你的回应是什么?
Amodei: 在我们昨天发布的声明以及我们今天发布的声明中,我们都表示,即使战争部,甚至即使是特朗普政府,对我们采取这些前所未有的措施,这种通常针对外国对手的供应链指定,我们也愿意接受。我们说过,即使他们采取这些极端行动,我们也会尽一切努力支持战争部,提供我们的技术,直到我们完全脱离并让愿意做我们不愿意做的事情的竞争对手接手为止。
准备退出。所以我们已经提供了连续性保障。我们实际上深感担忧。我们深切关注服务中断问题,这正是当我们被指定为供应链风险时所发生的情况。当我们被指定为供应链风险时,他们会说,你必须从我们所有的系统中移除。我与一线人员、军官交谈过,他们说这是至关重要的。没有这个,我们会倒退六个月、十二个月,甚至更久,所以我们才如此努力地尝试达成协议。
但再说一次,三天的最后通牒,将我们指定为供应链风险的风险,整个时间表都是由战争部推动的,而不是由我们推动的。我们正努力提供连续性。我们正努力提供服务。我们正努力提供它。我们正努力达成一项协议。
主持人: 那么这对美国人的安全意味着什么呢?我想说几点。
Amodei: 短期来看,这意味着,这取决于战争部。我们仍在努力达成,我们仍在努力与他们达成一项协议。你们在谈吗?他们在和你们谈吗?我们收到了各种信息。我们没有看到任何,能够满足我们的,我们没有看到任何能够满足我们关切的(东西)。但是,我指的是在广义上,只要符合我们的底线,我们仍然有兴趣与他们合作。
主持人: 但听起来你们的立场仍然相去甚远,现在海塞斯(Hegeseth)部长已经认定你们对供应链构成风险,并发表了他的看法。那么,你认为在现阶段达成协议是否可能?
Amodei: 我看看,协议需要双方。我们这边,愿意为这个国家的国家安全服务。我们愿意在已提供的条款下,在我们设定的红线内,向政府所有部门提供我们的模型,包括战争部、情报部门,以及政府中更偏向民用的部门。
我们一直都愿意这样做,我们不会因此感到冒犯。我们以这种方式提供技术的原因是我们希望支持,美国的国家安全。我们这样做不是,仅仅是为了五角大楼的官员。我们这么做不是为了某个特定的政府当局。我们这么做是因为这对美国的国家安全有益。对美国而言,我们将继续这样做。
私营企业权力与法律滞后
主持人: 你为什么认为让像Anthropic这样的私营公司在人工智能的军事用途上拥有比五角大楼更大的发言权更好呢?
Amodei: 我首先想说的是,我认为这一点很重要。据我们所知,在实地操作中,没有人真正遇到了任何这些例外的限制。这些,抱歉,这些只占使用案例的1%,而且我们没有证据表明它们在实地已经发生。现在,我再说一遍,我不能说他们的计划是什么,我们不知道。但我们没有证据表明这些用例实际上遇到了麻烦。我们已经推广到战争部和其他政府部门,而没有遇到任何这些问题。
现在,就这一个或两个狭隘的例外情况而言,我确实认为从长远来看,我们需要进行一场民主的对话。从长远来看,我确实相信这是国会的职责所在。例如,如果存在国内大规模监控的可能性,政府购买美国人产生的海量数据,涉及位置、个人信息、政治倾向,以建立个人档案。而现在可以用人工智能来分析这些数据。事实是,这在法律上是允许的,这似乎表明,对《第四修正案》的司法解释还没有跟上,或者国会通过的法律还没有跟上。
因此,从长远来看,我们认为国会应该跟上技术发展的步伐。但是国会不是世界上动作最快的机构。而就目前而言,是我们这些人在前线看到这项技术。我期望战争部,我期望他们对这些问题进行深思熟虑,以便,主动地,思考这些问题。因此,我本以为他们不会有任何担忧。然后,我们进行一场对话。但在没有这种(明确指导)的情况下,我认为我们需要关注技术本身。
我们需要考察它在可靠性方面的能力。我们需要审视它超越法律的途径,以及它规避法律意图的方式。这些是一些非常具体的领域,但我认为它们很重要。这些是美国人认为根本性的事情,不被政府监视的权利,我们的军官能够自己做出战争决策,而不是完全将其交由机器决定的权利。这些是根本性的原则。
主持人: 但是,以维护根本原则的名义,美国人为什么要相信你,一个私营公司的首席执行官,来做这些决定,而不是相信联邦政府呢?
Amodei: 对此,我将给出两个回答。第一,我们是一家私营公司,是的。我们可以选择出售或不出售任何我们想要的东西。还有其他提供商。如果国防部(DOW),不喜欢我们提供的服务或者我们提供服务的方式,他们可以选择使用另一家承包商。
这本该是处理此事的正常方式,我只想说,我本来会表示反对,但如果他们说,国防部,我们不想与Anthropic合作,我们的原则与你们不一致,我们将选择其他模型,我也会尊重他们的决定。但他们(指某些实体)将这种做法延伸到了国防部以外的政府部门,并试图惩罚性地撤销我们超越国防部的合同,而且他们还做了这个供应链指定的事情,这基本上意味着,如果你是一家拥有军事合同的私营公司,你就不能在涉及这些军事合同的方面使用Anthropic。
所以他们正在干预私营企业的行为。而且很难将此解释为除惩罚性行为以外的任何其他方式。据我们所知,供应链指定从未应用于一家美国公司。它只应用于,像卡巴斯基实验室这样的对手,那是一家被怀疑与俄罗斯政府有牵连的俄罗斯网络安全公司,中国芯片供应商,被和他们归为一类,考虑到我们为美国所做的贡献,这感觉非常具有惩罚性和不恰当。国家安全所做的。
技术指数级增长与长期愿景
主持人: 所以你说你为美国做了这么多。国家安全做出了贡献,你遵守了你想坚持的这两项限制。你认为 Anthropic 在这里比五角大楼更了解情况吗?
Amodei: 我们不看,自由市场和自由企业的一个特点是不同的参与者可以在不同的原则下提供不同的产品。请记住,这不仅仅是关于使用条款。这不仅仅是关于,这是我们的模型在法律上被允许做什么。我们的模型具有个性。它能做某些事情。它能可靠地做某些事情。它不能可靠地做某些事情。
我想我们是。一个很好的判断者,知道我们的模型能够可靠地做什么,不能可靠地做什么。而且我认为我们确实对这项技术如何再次超越法律有很好的认识。但我会说,我再说一遍,我实际上同意你的观点,这在长期来看是站不住脚的。我不认为正确的长期解决方案是让一家私营公司和五角大楼就此事争论不休。我认为国会需要在此采取行动。
我们正在考虑这个问题。我们正在考虑国会可以采取哪些措施来实施一些安全护栏,这些护栏既不阻碍我们击败对手的能力,但又能以符合我国价值观的方式击败我们的对手。但如您所知,国会的行动速度很慢。不。我认为在此期间,我们需要划清界限。
主持人: 在国会采取行动之前,您是说您会坚守立场吗?但是,还有很多其他公司与美国做生意。波音公司为美国制造飞机。波音公司不会告诉美国。军队如何使用这些飞机。这有什么不同?
Amodei: 我再说一遍,它在两个方面有所不同。首先,我希望再次指出,这项技术是新颖的,当一项技术已经成熟稳定后,那么,我指的是,关于飞机有很多技术性的东西。但是,我认为,一位将军对飞机的运作方式有相当好的理解。飞机已经存在很长时间了。
主持人: 但是航空航天工业内部仍然有大量的创新。
Amodei: 当然,但速度不是,不是我们看到人工智能那样的速度。人工智能发展得太快了。我经常谈到人工智能是如何处于指数级增长趋势上的。每一个,这些模型,用于这些模型上的计算量每四个月翻一番。我们从未见过如此快的创新速度。
主持人: 但是如果这种速度继续保持下去,那么美国政府永远追不上。那么,如果你长期主张希望与美国合作,这种逻辑如何适用呢?政府来提供,适当的国家安全保障?如果对于可预见的未来,发展如此迅猛,国会都追不上,那为什么还要对此避而不谈呢?
Amodei: 我认为只有一次追赶的机会。所以技术的发展速度很快。出现的问题数量很少,但却非常重要。再说一次,我们只有两个这样的问题。
主持人: 国内大规模监控,全自动武器。
Amodei: 我们需要与国会进行对话,以帮助他们理解其中伴随的一些风险。再说一次,这是世界上最美国化的事情。没有人希望被美国监视。没有人希望被美国监视。政府。
竞争压力下的价值观博弈
主持人: 与此同时,我们一些最主要的对手拥有的技术要么正在迅速赶上我们,要么最终会赶上我们,甚至可能已经赶上了。因此,如果我们的军队对于保卫美国人民、对于我们的民主、自由和共和国至关重要,我们为什么要固守这个立场,说不,我们不打算合作呢?
Amodei: 再说一次,这是一个抽象的论点,但让我们看看实际的两个用途。国内的大规模监控并不能帮助美国追上它的对手。国内大规模监控,是对政府权力的滥用,即使在技术上是合法的。所以我们可以排除这一点。
全自动武器,在那方面,我实际上担心我们可能需要跟上。它,不是,技术。技术还没有准备好。因此,正如我所说,我们并非完全反对全自动武器。我们只是认为可靠性尚不具备,我们需要就监督问题进行对话。我们曾提议与国防部合作,在沙盒环境中帮助开发和试制这些技术,但他们对此不感兴趣,除非他们从一开始就可以随心欲地做任何事。
再说一次,我们需要平衡生存的需要。没有人比我更强调击败我们的对手,但我们需要战斗,我们需要以正确的方式战斗。这就像是说……有很多国家和对手。如果我们的对手犯下战争罪行,我们难道也应该犯下战争罪行吗?我不是说这等同于战争罪行。我说的是,我们价值观的精髓在于我们必须找到一种获胜的方式。以一种维护这些价值观的方式。
我们不能只是彻底地走向低谷。我们必须有一些原则。而这些原则非常少。这项技术可以从根本上加速我们军队所能做到的事情。我与海军上将、将军们交谈过,也与作战指挥官们交谈过,他们说,这彻底改变了我们能做的事情。而这些仅仅是我们迄今为止部署的非常有限的使用场景。
那么,为什么我们要执着于那些违背我们价值观的1%的使用场景,而我们可以追求那99%的、符合我们民主价值观并保卫这个国家的使用场景呢?我们甚至可以尝试研究那最后的1%的使用场景,以了解是否有方法能以符合我们价值观的方式来执行它们。这就是我们的立场,我认为这是非常合理的。
主持人: 给我一两个可能出现的情况的例子。出错。
Amodei: 我们可能会想象出现问题的这类事情,主要有两种类型。第一种,再次提到,是关于可靠性的问题,也就是它目标错误的人,击中平民,无法展现出人类士兵应有的判断力。友军火力误伤或射击平民,或者就是其他错误的事情。我们不想销售我们认为不可靠的东西,我们也不想销售可能导致我们自己人或无辜的人丧生杀害的东西。
第二点是关于监督的问题。如果你仔细想想,对于人类士兵来说,有一整套问责制,其前提是人类会运用他们的常识。假设我有一支由 1000 万架无人机构成的军队,它们都由一个人或一小部分人协调。难道你看不出那里存在问责制问题吗,那种将权力集中到如此程度的做法是行不通的。这并不意味着我们不应该拥有这支部队。再说一次,我不知道。也许在某个时候我们需要它,因为我们的对手会拥有它。但我们需要就问责制、谁掌握着按钮以及谁可以说了算进行一次对话。我认为这是非常合理的。
中立与爱国立场
主持人: 特朗普总统称Anthropic是一家左翼的“觉醒”公司。这个决定是否受到意识形态的驱动?看,我无法代表其他各方在做什么,我无法代表其他方在做什么。
Amodei: 在做以及他们在做什么。但是你,而我们在这里,在Anthropic。看,我们,我认为,一直努力保持非常中立。我们在我们拥有专业知识的人工智能政策问题上发声。我们不对一般的政治问题持立场,我们也不考虑一般政治问题,只要有共同点,我们就努力合作。
例如,我曾和总统、和麦康奈尔参议员一起在宾夕法尼亚州参加了一个关于能源供应的活动。为我们的人工智能模型在美国的部署提供足够的能源。我与总统谈了话。我表示我同意他所做的许多方面。我们还就,利用人工智能促进健康做出了承诺。我们还做了许多其他事情。当政府的人工智能行动计划出台时,我们表示其中许多方面,也许是大部分方面,我们都表示赞同。
所以这种认为我们党派化或者没有做到一碗水端平的想法是错误的,我们一直以来都是审慎地做到了一碗水端平。再说一次,我们无法控制别人,即便是总统,对我们有什么看法。那不是我们能控制的。我们能控制的是,我们可以保持理性,我们可以保持中立,我们可以坚持我们的信念。
主持人: 从一到十,是否能与联邦政府达成一致?关于这个在未来呢?还是你认为这已经结束了?
Amodei: 听着,我没有水晶球。就我们而言,我们的立场是明确的。我们有这两条红线。我们从第一天起就设定了这些红线。我们仍然,我们仍然在倡导这些红线。我们不会在这些红线上让步。如果我们能与部门达成一致,如果我们能以相同的方式看待事物,那么也许可以达成协议。
主持人: 就我们而言,并为了美国的利益国家安全,我们,我们继续希望让这件事奏效。
Amodei: 但是,再说一次,达成协议需要双方共同努力。
主持人: 如果你现在,今晚,有机会和总统谈谈,你会对他说什么?
Amodei: 我再说一遍,我们是爱国的美国人。我们所做的一切都是为了这个国家,为了支持美国。国家安全,我们正积极主动地向军方部署我们的模型。所做的一切都是因为我们相信这个国家。我们相信要击败我们的专制对手。我们相信要保卫美国。我们划定的红线,划定它们是因为我们相信越过这些红线违背了美国价值观。我们希望捍卫美国价值观。
而我们却遭到了以供应链指定和《国防生产法》相威胁,这些都是政府对私营经济前所未有的干预。我们行使了我们经典的宪法第一修正案赋予的权利,即公开发言并反对政府。反对政府是世界上最美国的事情。我们是爱国者。在我们所做的一切事情中,我们都捍卫了这个国家的价值观。
危机应对与法律挑战
主持人: 你认为Anthropic作为一家企业能够挺过这次危机吗?当总统,当赫格斯部长,塞斯发布了关于供应链的指定推文时。他说了一些不准确的话,这远远超出了他们的法定权力范围。他说任何有军事合同的公司都完全不能与Anthropic做生意。法律上并非如此规定。我们发布了一份声明,指出了法律的规定。法律所说的只是,作为其军事合同的一部分,任何公司都不得将 Anthropic 用于这些军事合同。这是一个非常,一个影响范围要小得多的情况。
主持人: 那么您对 Anthropic 能否挺过这一关感到有信心吗?不仅是挺过,我们会过得很好。
Amodei: 这一禁令的影响相当小。现在,这位部长发布推文的性质是为了制造不确定性,是为了制造一种让人们相信影响会大得多的情况,是为了制造恐惧、不确定和疑虑。但我们不会让其得逞。我们会过得很好。
主持人: 批评人士称五角大楼和白宫的做法是一种权力滥用。您是否认为这是一种权力滥用?
Amodei: 我再次回到这个观点,即这是前所未有的。
主持人: 但这是否是滥用权力呢?
Amodei: 这种情况以前从未发生过。这种指定从未对一家美国公司使用过。而且我认为他们在一些声明、一些措辞中已经说得很清楚了,这是报复性的和惩罚性的。我不知道,我不知道还能称之为别的什么,报复性和惩罚性的。
Amodei: 那么你们会采取法律行动吗?我们,我们,我已经声明了,我们在声明中已经声明了。再说一遍,我们收到的只是一个推文。我们还没有收到实际的供应链设计,政府还没有采取任何实际行动。刚刚有一些推文,说了他们将要做什么,说了他们声称将要做什么。
主持人: 你们没有收到任何正式的。信息吗?
Amodei: 我们完全没有收到任何正式信息。我们所看到的只是总统的推文以及赫格萨部长的推文。当我们收到某种正式行动时,我们将进行审查,我们将理解它,并将在法庭上对其提出质疑。
主持人: 如果这就是他们与你们沟通的方式,你们认为这说明了他们在处理重大国家安全问题方面的能力如何?
Amodei: 再说一次,我不想把这件事变成针对这个特定政府的讨论。我不想把这件事变成针对特定个人的讨论。我们正在尽我们所能支持美国的。国家安全。这就是为什么我们致力于努力达成一项协议。
如果我们找不到协议,这也是我们致力于以一种平稳的方式完成业务交接的原因,以便在我们的作战人员进入冲突时,他们能够继续得到支持。这也是我们致力于采取我们认为不符合本国价值观的行动的原因。这不关乎任何特定个人。这不关乎任何特定政府。这是关于维护正义原则的问题。
主持人: Anthropic首席执行官达里奥·阿莫代。非常感谢您。
Amodei: 非常感谢您的邀请。谢谢。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.