全文 4,000字 | 阅读约 13 分钟
(Matt Garman深度访谈片段:让AI从能用变成用得起)
财报涨了,股价却跌了。
面对质疑,AWS CEO Matt Garman 在 8 月 9 日的 CNBC 专访中,没有空谈,而是直指要害:
“现在只有 10%~15% 的工作负载迁移上了云。AI 的潜力,远没开始。”
他没有高谈模型参数,也没有聊芯片对赌,而是把话题拉回到一个企业每天都在面对的难题:
演示很好看,上线却总是卡壳。 卡在权限,卡在流程,更卡在成本。
真正的问题不是“AI 能不能用”,而是企业该怎么用,才能真正受益。
7 月,AWS 发布了 Bedrock Agent Core,搭建了一个可落地、能复盘的智能 Agent 运行架构——帮企业把 AI 变成“能干活、能回查、能交付结果”的正式员工。
Garman 在访谈里说得很清楚:别急着选模型,别只看 Demo。
企业上 AI,真正要先做对的,是这 5 件事。
第一节|搭好代理,AI 才能干活
对很多企业来说,上 AI 的第一反应是:“我该选哪个模型?是GPT、DeepSeek、通义千问,还是Claude?”
Matt Garman 给的答案却是反着来的。
当客户真正开始衡量投资回报, 他们获得的价值,大多数都来自‘智能 Agent 工作流’。
换句话说,不是哪个模型最强,而是你的 AI 能不能干活、会不会执行任务。
这就是 AWS 推出 Bedrock Agent Core 的原因——不是为了追风口,而是帮企业构建一个能长期运转的 Agent 框架:
能代表人去执行任务;
有明确权限控制和身份认证;
每一步动作都能追踪和复查。
“客户希望这些 Agent 是安全的、可验证的,是可以查看的。他们希望有一个隔离的结构,让 Agent 在企业环境里运行时是可信的。”,Matt Garman表示
这个“可信 Agent ”的理念和目前市面上流行的“对话机器人”完全不是一回事。
不是回答几句、写个文案就完了,而是要支撑真正的业务流程:
能调用企业内部的数据系统;
能和不同应用协作;
能做判断、走流程,不断反复执行。
AWS 给出的,不是一个模型的能力,而是一整套“搭建方法”。而这些,是企业在 AI 落地时最容易忽略、但最先该解决的问题:
没有身份验证,你的 Agent 无法代替员工操作;
没有权限隔离,任何AI一旦“越权”,后果难以追责;
没有日志和可审计能力,模型做了什么、怎么做的,你全看不见。
这不是模型强不强的问题,而是你的 AI 工作流是否稳、是否可控、是否可回溯。
从 AWS 的视角看,这才是企业该迈出的第一步——
别急着调用模型,先搭一个让它安全运行的空间。
第二节|模型组合,用得起更重要
很多企业决策者一谈 AI,第一句就是:国外的 GPT 好,还是国产的DeepSeek、通义千问更合适?
但 AWS CEO Matt Garman的观点更现实:没有一个模型能搞定所有场景。我们看到很多客户,其实是混着用。
不是谁最强的问题,而是——你的任务要解决什么?你预算有多少?你对速度有多敏感?
AWS 观察到,企业客户用模型时,最常见的搭配是: "Claude + Nova。"
为什么是这两个?
Garman 不绕弯子:
Claude 是目前企业客户最喜欢用的模型之一。它能理解复杂任务,执行得稳,也有比较强的“边界意识”,适合用在生产场景。
Nova 是 AWS 自研的模型,特点很鲜明:
延迟非常低,价格非常便宜,在很多文字类任务上表现特别好。
它特别适合做一些高频、重复的工作。比如问答、文本生成、内容改写,一天跑几十万次也不心疼账单。
Garman说,这种搭配方式,在 AWS 客户中非常常见:我们看到很多客户把 Claude 和 Nova 组合在一起,分工协作。
Claude 处理关键决策、理解上下文;Nova 执行具体任务、快速反馈。
甚至有客户在一个任务链条里,用三个模型协同:
开源模型负责“预处理”;
Nova 快速出方案;
Claude 做质量校验和总结。
AWS 没有强推某一个模型,而是搭了个模型超市:
你想用 GPT,可以调;
想用 Claude,也支持;
用国产的DeepSeek?完全没问题;
自己训练的私有模型,也能接进来。
“我们不认为只有一个模型是最优选。不同任务,需要不同工具。”
这种思路,其实更像一个工具箱——企业不是选哪个最强,而是选哪几个搭在一起更合适、更省钱、也更稳定。
对于企业来说,这比只依赖一个热门模型,更靠谱。
第三节|别停在演示,要跑进流程
Matt Garman 在访谈中反复强调一点:
“企业真正看到 AI 价值的时候,是它开始改变业务流程的时候。”
不是生成一张图、写几句话,而是直接省时间、省人力、少花钱。
他说了一个典型案例:Thomson Reuters(汤森路透集团),一个大型传统企业,原本打算把旧的 Windows 应用系统迁移到 Linux,结果发现涉及几百个程序,工期拖不起,成本也降不下来。
AWS 给他们推荐了一个工具:Transform。简单来说,就是把企业原本只能在 Windows 系统上用的老软件,通过 AI 自动改造,让它们能在更便宜的 Linux 系统上正常运行。
刚开始他们并不相信。
但试用后发现——原本要 6 到 9 个月的迁移工作,现在几周就能搞定。迁移速度提升 75% 到 90%,还省掉了 30% 的许可成本。
“他们几乎不打算做这个项目,因为太慢太贵。但现在 AI 一上,他们就决定立刻推进。”
这个例子说明,AI 真正改变的不是“结果”,而是过程。
AWS 还推出了一个名叫 Kiro 的编码助手——不是那种“一个人写代码、模型补几句”的工具,而是能根据项目需求,主动规划和执行开发任务。
比如,一个开发者告诉它:“我要做一个新功能,满足这三个条件。” Kiro 会根据规范去构建初稿,再与团队成员协作调整。
更重要的是,它能支持整个团队一起使用,而不是每个人开一个窗口、互不关联。
Garman 的话说得很透:
软件开发者的核心能力,将不再是‘代码写得快’, 而是能不能管好这些会写代码的工具。
这种 AI 不只会“听话干活”,还能主动配合你的工作节奏。
销售也一样。
Garman 说,现在销售人员一天如果有 20% 的时间能花在客户身上,就算不错了。其余时间都在写方案、做表格、填系统。
如果 AI 能把这些繁杂工作压缩掉一半,客户沟通时间从 20% 提高到 40%,产能就是翻倍。
这些落地场景的共同点是:不是 AI 更聪明,而是你把它用到了最费时的那几个环节上。
不是搞一个展示项目,而是让业务能跑得更顺、算得清、结果能复用。
“客户想的不只是 AI 能不能做,而是我用了 AI,能不能更快、更省、更准。”
第四节|好工具,也要好搭档
Matt Garman 在访谈中说过一句话,很多人听完点头:
AI 不会替代人,但会放大团队之间的差距。
过去两年,很多企业忙着远程办公、全球招人、组建远程 AI 团队,但 AWS 的选择正好相反。
Garman 明确表示:
“我们始终认为,在一起工作,才是最高效的状态。”
他讲了一个真实场景:某天晚上,他走进 AWS 西雅图总部,看到一个开发团队还没下班,几个人围着电脑,调试刚上线的产品,一边画白板一边吃披萨。
他说,这种氛围和“开着视频会议对着屏幕说话”完全不一样。
那是一种真正能激发出创造力和冲劲的工作状态。
“如果你真的在打造新一代的技术、产品和体验,大家必须聚在一起,动脑、试错、共创。”
这种氛围背后,其实也折射出 AWS 对“人”的基本判断:
AI 是效率工具,但人要负责定方向、设目标、把控体验;
AI 能加速执行,但只有人在一起,才能形成团队合力。
Garman 还特别指出:
“未来写代码,不是你 Java 写得多快,而是你能不能管住那些写得比你快的 AI 工具。”
这句话,给企业管理者提了个醒:
别把 AI 当万能的替代品;
真正的价值,是人和 AI 一起合作,让工具更懂你、配合你。
他甚至把这个思路,延伸到了教育上。
他说,他有个正在上高中的孩子,他不会强求他们学具体哪门技术,也不会指导他们盯着某种技能路线:
“技能会变,但批判性思维、灵活适应、创造力,这些才是 AI 替代不了的。”
这其实也是 AWS 招人的核心标准:
不看你要多高薪水,而是看这个人有没有好奇心、团队精神、客户思维。他们要的不是“纯粹打工人”,而是真正想解决问题、创造价值的人。
这一整套人才观、组织协作方式,其实都指向同一个目标:
AI 不会直接决定你的竞争力,但你的“人机配合方式”,会在未来拉开差距。
第五节|模型能力再强,也得用得起才算数
AWS CEO Matt Garman 提到一个现实问题:
“AI 增长可能放缓,不是因为技术不行,而是因为太贵。”
很多企业上马 AI 项目,第一个难题不是怎么部署模型,而是——算不过账。
尤其是模型一跑起来,越跑越烧钱,成本也跟着暴涨。
AWS 给出的解决办法不是砸钱,而是另辟路径:
“自己造芯片。”
而且不是为了比谁跑得快,而是为了真正压低使用成本。
他们一口气推出了两种芯片:
Graviton:适合日常通用计算,能省 20% 成本、提升 20% 性能;
Tranium:专门为 AI 模型设计,Claude 就是在这颗芯片上训练的。
“Anthropic 团队在 Tranium2 还没正式推出时,就决定采用这个方案。” ——Garman 在访谈中说
这是一笔双赢的买卖:
Anthropic 用 Tranium 训练 Claude,拿到了性价比更优的模型;
AWS 也能验证自己芯片的效果,让企业客户看见“不是只有 NVIDIA 一条路”。
AWS 自研的 Nova 模型,也延续了这个策略。
Nova 不靠“功能全”“模型大”取胜,而是主打一个关键词:快 + 便宜。
Garman 强调,Nova 特别适合用在一些对延迟敏感、调用频率高的场景里,比如客服回复、内容生成、总结提炼等。
Nova 还推出了专门跑长任务的版本,叫 Nova Act,针对的是需要持续运行的智能 Agent。
从模型选择到成本控制,AWS 的策略很明确:
“不是拼模型参数多少,而是拼谁能让企业长期用得起。”
对于越来越多想部署 AI 的企业来说,这种务实路线反而是最难得的护城河。
结语|不是 AI 能干什么,而是企业要怎么干
AWS CEO Matt Garman 这场访谈,不打官腔,不玩概念。
他谈的不是 AI 多强,而是企业怎么用才能真正受益。
从智能 Agent 的架构,到模型组合的选择,从流程提效,到组织协作方式,再到成本控制与芯片路线——每一步都不是技术展示,而是帮企业把 AI 用得上、靠得住、负担得起。
对企业来说,现在不是问“我能不能上 AI”,而是要想清楚:
用 AI 来解决什么问题?在哪一环节真正能提速?怎么才能不被成本拖垮?
决定胜负的,从来不是谁跑得快,而是谁方向选对,基础打稳,跑得久。
这,就是 Garman 给出的企业 AI 使用说明书。
本文由AI深度研究院出品,内容翻译自AWS CEO Matt Garman在CNBC《Fortt Knox》的最新访谈。未经授权,不得转载。
星标公众号, 点这里 1. 点击右上角 2. 点击"设为星标" ← AI深度研究员 ⋮ ← 设为星标
参考资料:
https://www.youtube.com/watch?v=M2MwRtUyB0k&t=27s&ab_channel=ForttKnox
https://www.youtube.com/watch?v=kSyzDGgOOWU&ab_channel=CNBCTelevision
https://podwise.ai/dashboard/episodes/4908726?utm_source=chatgpt.com
https://aws.amazon.com/about-aws/whats-new/2025/07/amazon-bedrock-agentcore-preview/?utm_source=chatgpt.com
https://www.techradar.com/pro/aws-looks-to-super-charge-ai-agents-with-amazon-bedrock-agentcore?utm_source=chatgpt.com
https://aws.amazon.com/about-aws/whats-new/2025/07/amazon-bedrock-agentcore-preview/?utm_source=chatgpt.com
来源:官方媒体/网络新闻
排版:Atlas
编辑:深思
主编: 图灵
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.