全文 3,000字 | 阅读约 10 分钟
(AMD开发者大会 吴恩达苏姿丰深度对谈)
只要你没有伤害任何人,就动手去构建产品。 ——吴恩达,在 AMD AI 大会现场
2025 年,模型越来越强,但做成产品似乎变得越来越难。
不是因为工具不好用,而是因为生态正在收紧:模型权限封闭、算力路径单一、开发者被迫依附上游。
最近,在 AMD 举办的 Advancing AI 大会上,吴恩达与苏姿丰罕见同台。他们没有谈“下一代芯片有多快”,而是围绕 AI 开发生态,形成了共同理念:
未来 AI 必须保持开放,开发者不应该受制于任何门槛(You don’t need anyone else’s permission to build )。
他们称赞 ROCm 将“算力交还社区”,发布 MI350 时强调 Helios 系统“链路协议将公开”;甚至把开发门槛下降到“只需一个人、一个下午”的编程范式变革。
这场近半小时的对谈,不是一场常规的产品推介,而是一份对 AI 构建未来的行动指南:
开发者不该等待许可,红利藏在速度与反馈中;
生态不能设限 “守门人”,开放栈才有产业流动性;
失败不应是代价,而应成为创新加速器。
本文将以这场高密度对话为线索,提炼出吴恩达 × 苏姿丰提出的 AI 开放生态三大原则:
去"守门人" × 算力普惠 × 开发者先行
帮助你看清:红利已经从模型层,流向了下游开发者手中。
第一节|红利不在模型,而在下游开发者
“我们这些人,其实都不在模型层。”
吴恩达在台上,开门见山地点出。
他说,过去这几年,大家的注意力都集中在技术有多强,GPT-5 能有多智能、Gemini 上新了没、Claude 推了哪一代等等。但他强调:
真正值得普通开发者关注的,不是模型有多聪明,而是我们能不能用它做出东西。
这句话背后,是吴恩达对 AI 技术结构的一个清晰解构:
整个 AI 技术栈,我把它分成四层: 最底层是半导体,比如 AMD、英伟达; 往上是云服务商,提供计算资源; 第三层是基础模型公司,比如 OpenAI、Anthropic、Mistral; 最上层,是应用开发者——也就是台下绝大多数人。
在这四层中,他强调最多人、最多机会、也最容易被忽视的,是最上面的应用层:
“几乎所有的宣传都在底层,最上层反而被忽略。但说白了,只有应用能赚钱,才能反过来养得起下面这三层。”
这是一种非常现实的'自下而上'技术栈拆解,看起来都是技术壁垒,但真正决定成败的是最上层的应用开发者——如果应用层不活跃,底层就失去了持续动力。
而现在的问题就是:
模型越来越强,但开放性不足:开发者很难“微调”它,很多公司甚至限制调用方式;
底层平台不断绑定使用方式:比如某些芯片只能配特定框架、协议不开放;
中小团队想构建,却被各种“许可”卡住。
吴恩达认为:“我们不能让 AI 变成另一个‘手机生态’——在手机上,你连一个新地图、新语音助手都很难推出来,因为“守门人”(安卓系统或者苹果系统)不给你通道。”
在他看来,AI 的生态尚处在早期,还没有被平台垄断完全束缚,这是我们目前最大的幸运。
这也正是他支持 AMD 和苏姿丰的原因:
“相比那些逐渐封闭的模型和平台,AMD 支持一个更开放的路线——你可以选择自己的计算底座,不需要谁批准你才能打造产品。”
苏姿丰则表示,他们从一开始就不是为了服务某一家公司,而是服务整个开发者群体:
我们的人生目标,就是确保有一个人人都能用的计算路线图。
这一节,吴恩达用最朴素的方式,讲透了 AI 开发这件事的本质:
并不是技术多先进,而是“谁能更快、更自由地把技术做出用得上的产品”。
第二节|原则一:开发门槛降了,谁先动手谁先赢
“现在我们有个想法,下午就能做出一个版本,晚上就能发给用户试。”
——吴恩达
如果说上一节他讲的是开发者在哪里,那这一节他说得更明白:谁能更快做出来,谁就有优势。
在 AMD 大会现场,吴恩达分享了他团队现在开发产品的方式:有时候,把一个想法讲清楚,让别人来做,反而比我自己直接动手还慢。所以我现在更愿意自己做,哪怕只是快速做个原型。
这种开发速度,过去是很难想象的。
他说:以前一个产品原型,可能要六个人做三个月;现在,可能我自己用一下午就能搞定。
背后的关键,是一整套工具的变化。
他提到了一系列开发者正在用的新工具:
Claude 的 Computer Use,可以调用真实电脑完成指令;
Cursor、Windsurf 等 AI 编程助手,能帮你直接改代码、搭框架;
Devin 等工具,甚至可以根据你说的需求,自动创建整个项目流程。
这类工具的出现,把原本要很多人、很多周才能完成的开发流程,压缩成了一下午就能跑起来的项目雏形。
开发速度变快,带来的最大好处就是—— 你能做更多产品原型。
他举了自己的例子:
“现在你可以做 20 个原型,哪怕最后只有两个留下来, 那 18 个没用的也不是浪费,而是找到好产品的成本。”
在这个逻辑下,“快速失败”反而是一种资源节约。不是你要一次做对,而是你能多试几次、快点试出来。
苏姿丰也回应了这个观点。
她说在 AMD 的开发者云平台,每两周就会推出一次新的训练或推理 Docker(类似开发环境包),不断迭代更新。她强调:
“我们不指望一开始就完美。我们要的,是开发者能快速试,快速反馈。”
这种节奏,正是为了配合现在越来越快的构建需求。她甚至说:我们正在用 AI 来帮我们自己写底层代码(内核),就是为了让系统反应更快,开发者更省力。
两人不约而同地强调了一点:
今天最宝贵的,不是模型参数,不是推理速度,而是能不能让更多人更快地动手,做出东西来。
第三节|原则二:开发者要能自由选平台
“我真的很感谢 AMD 和 ROCm,因为我们很多 PyTorch 工作流程,搬过去几乎不用改代码。” ——吴恩达
吴恩达在现场的这句“感谢”,并不是客套,而是他对开发自由的一种认可。
在他看来,AI 开发者现在最怕的不是技术复杂,而是工具不能选、平台动不了——代码写完却不能换地方部署,模型调完却无法调用底层算力。这些看不见的限制,往往才是真正卡住开发的地方。
AI 开发如果继续朝封闭平台方向走,迟早也会卡住上层开发者的动手空间。
所以他明确提出:技术栈必须保持开放,尤其是底层算力要可选、可迁移。
他举了个例子。他的团队在 PyTorch 上做了很多流程,过去这些代码只能在固定平台上运行。但现在,他们尝试把这套流程迁移到 AMD 的 GPU 上,结果出人意料地顺利:
不是说 100% 都能跑,但很大一部分代码, 我们几乎没怎么改,就直接跑了起来。
这背后的关键,是 AMD 推出的 ROCm。
ROCm 是一套开源开发工具包,允许开发者在 AMD 平台上运行 AI 框架代码,不需要重新适配或被迫绑定。
苏姿丰现场说:我们的目标从来不是把人锁在 AMD 上,而是让大家能有选择。如果你原本在用 PyTorch,我们希望你可以直接在 AMD 上用。 如果你以后想换模型、换平台,也能轻松切过去。
她把这称为“交还计算主权”:不是强行配套,而是开放接口,让开发者自由组合。
而这种可组合的开放性,不只出现在算力平台上,也开始出现在模型层。
吴恩达提到一个很有意思的事情:
“当前DeepSeek 模型发布没几天,就和 Qwen 模型被合成成一个新版本。 这是我非常喜欢的合作方式——不是重做一个模型,而是把两个开放模型拼起来,形成新能力。”
这类开放蒸馏模式,在过去是不可能的。
如果模型不开源、不允许下载权重、或者代码限制重重,开发者根本没法做类似组合。正因为 DeepSeek 和 Qwen 都是开放模型,这种“自由合成 + 快速试验”的能力才成为现实。
回到硬件层面,这次 AMD 发布 MI350 GPU 的同时,还首次开放了 Helios 系统的链路协议。这意味着未来不需要专用通信模块,也能直接接入更多计算节点和内存资源——从连接标准上就避免了“被锁死”。
苏姿丰说了这样一句话:
“我们知道 ROCm 并不完美,有时候也会跑出 bug。但关键是它是开放的。 如果你发现问题,可以看见它,甚至参与解决它。可如果是封闭平台,你连问题在哪都看不到,更别说动手了。”
吴恩达也补了一句:
“开发者能不能做出东西,不是看技术多复杂,而是看你能不能动手去组合它们。”
说到底,技术越开放,开发者才能越自由。
不是平台决定你能不能做什么,而是你自己决定该用什么来做事。
第四节|原则三:失败不是代价,而是反馈起点
如果说开发门槛的降低,让动手变得容易;
那么,吴恩达和苏姿丰都在强调另一个更重要的能力——即时反馈。
也就是说,一个生态真正能长出好产品,不是靠谁第一个做出来,而是看做出来之后,能不能听到反馈、收进意见、快速改进。
这才是开发的闭环。
苏姿丰说,AMD 团队在做 ROCm 时,没奢望它完美——而是希望它能“暴露问题”,让问题能被开发者看到、被改进。
有时候一个不完美的开源版本,比一个封闭的完美产品更值钱,因为它可以被更多人用,也能被更多人一起修。
她还提到一个具体做法: AMD 正在用 AI 帮他们自己写底层内核代码。每写完一版,先放出来跑数据,看哪里慢、哪里挂,再交给工程师继续优化。
“不是我们先做完才给别人用,而是大家一起在用的过程中把它做完。”
吴恩达也表示,今天构建工具的意义,不在于结果完美,而是“你能不能尽快得到用户的回应”。
他甚至说:有时候我们做一个小功能,第二天早上收到10个用户的邮件,比我们花3个月做一个完整系统要有用得多。
这就是打造反馈回路的重要性。
比起“闭门造车”,现在更关键的是:你能不能让用户在最早期参与你的产品开发?
他们不是等你上线的消费者,而是“帮你一起打磨产品的共创者”。
苏姿丰的理解是:如果没有社区和开发者不断反馈,我们的产品永远追不上节奏。我们每两周一个版本,其实就是为了让你们来挑毛病。
所以,今天开发者最大的资产,可能不是一个好主意,而是一群愿意反馈的用户。 真正好的开发范式,不靠一次做对,而是靠无数次做错之后还能继续做。
结语|真正的开发者,不靠身份,而靠手速与反馈
“有些人说,因为 AI 会写代码,就不该学编程了。 我觉得这可能是过去十年最糟糕的职业建议。” ——吴恩达
在这场对谈的最后,主持人问了一个现实问题: AI 正在写越来越多代码,那工程师还需要做什么?
吴恩达给出的回答没有犹豫:
“AI 让编程变容易了,意味着会编程的人应该更多,而不是更少。 就像从打孔卡进化到键盘,从汇编语言进化到 Python, 每一次工具升级,写代码的人反而变多。”
他点出了一个关键变化:写得多,不等于有用;能快速开发并落地,才是竞争力。
苏姿丰接着说,他们现在全公司都在用 AI,不仅是写代码,也包括硬件设计、市场策略、人才招聘。
他们不是减少人力,而是在让同样的人能做更多事,三年的事情,如果六个月能完成,那就是 AI 带来的价值。
所以,问题不再是你是不是工程师,而是:
你是不是一个开发者—— 一个能用 AI 把想法变成产品、变成结果的人。
本文由AI深度研究院出品,内容翻译自吴恩达与苏姿丰在AMD开发者大会的对话实录。未经授权,不得转载
星标公众号, 点这里 1. 点击右上角 2. 点击"设为星标" ← AI深度研究员 ⋮ ← 设为星标
https://www.youtube.com/watch?v=ckS-ynViLjY&t=329s&ab_channel=AMDDeveloperCentral
https://www.reuters.com/business/amd-ceo-unveils-new-ai-chips-2025-06-12/
https://www.linkedin.com/posts/ilyatabakh_advancingai-opensource-developerfreedom-activity-7339094872898850816-R_Fm
来源:官方媒体/网络新闻,
排版:Atlas
编辑:深思
主编:图灵
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.