全文 4,000字 | 阅读约 13 分钟
![]()
(吴恩达CS230开学演讲概述 | 2025斯坦福秋季课程)
2025年9月底,斯坦福大学CS230深度学习课程正式开课(computer science 230是斯坦福计算机系的深度学习课程代号,由吴恩达等教授主讲,是AI领域的经典课程之一)。
在这场一个多小时的开学演讲中,吴恩达没有讲 AI 会如何颠覆世界,也没有渲染失业危机,而是用大量实战案例说清楚一件事: AI 时代,什么样的人最有竞争力?
答案不是“最懂AI的人”,而是“既掌握计算机基础,又会用AI工具的人”。
他直言不讳地说:
今天,我不会雇用不知道如何用AI辅助编程的软件工程师。
这不是危言耸听。历史总是这样:从打孔卡到键盘,从汇编语言到Python,每一次工具进化都降低了门槛,也扩大了使用人群。AI辅助编程,只是这个进程的延续。
但关键在于:工具降低了门槛,但没有降低对基础知识的要求。
真正高效的人,不是只会用工具,而是既懂底层原理、又能用AI工具放大自己能力的人。
在这场演讲中,吴恩达给出了清晰的学习路径:
CS基础是你指挥AI的语言
深度学习让你能解决提示词解决不了的问题
快速原型能力决定你的迭代速度
有纪律的开发流程能让团队效率提升10倍
AI技能不只是加分项,它正在成为标配。 但更重要的是,现在正是最好的学习时机。
第一节|深度学习的突破:规模决定能力
很多人以为,AI 的成功是因为有人发明了多么聪明的算法。
吴恩达却说:关键不是算法变聪明了,而是我们终于找到了一条“规模化”的路。
在开学第一节课上,他画了这样一张图:
![]()
(吴恩达讲解深度学习的规模法则:数据量越大,模型表现越好(斯坦福CS230课堂,2025年9月))
横轴是数据量,纵轴是模型表现。 用传统算法,比如逻辑回归或决策树,表现很快就会到顶。无论你喂它多少数据,都无法继续提升。 但如果用深度学习模型,比如神经网络,结果就完全不一样:数据越多,效果越好,几乎没有上限。
他原话是:
“旧一代算法不知道怎么处理这么多数据。深度学习,是第一批能真正吸收得动这些数据的算法。”
✅ 从斯坦福宿舍到规模法则
吴恩达回忆起十五年前的一个晚上:
“我第一台用 GPU 训练神经网络的机器,是斯坦福一个本科生在宿舍里组装出来的,他叫 Ian Goodfellow。”
对,就是后来提出 GAN 的那位 Ian。
那台宿舍服务器使用当时还很新的CUDA编程语言,在GPU上训练神经网络。实验结果令人震撼:深度学习的效果随着模型规模和数据量的增加,持续上升,毫无瓶颈。
这背后的原理被后来称为“规模法则”(Scaling Laws)。
什么规模法则?
简单说:你给模型加一倍数据,训练时花两倍算力,性能就能稳稳提升一截。
不是玄学,不靠运气,而是一种“可预测的增长”。
吴恩达说:
你可以预测:如果买这么多 GPU、灌入这么多数据,结果会是多少。AI 的训练效果第一次变得可规划了。
这就解释了为什么从百度到OpenAI,都在做同一件事:把模型做大,把数据规模扩大,把 GPU 算力堆上。
过去十年,AI的跃升并非来自算法突破,而是靠"大模型+大数据+大算力"这套组合稳步攀升。
它靠的是规模,而非巧思。
✅ 你需要学什么?
想用好 AI,你不需要重新发明什么算法。
你需要知道的是:哪种组合方式真正有效,如何把这些组件搭建起来,让它解决现实问题。
吴恩达: “你不是来当研究员的,你是来学会怎么把这些工具用起来,让它们真正落地。”
这门课要教所有人,第一件事:不是发明新算法,而是学会驾驭规模的力量。
第二节|调参能力:决定项目是几天成型,还是几月才见效
在开学演讲里,吴恩达花了相当多的时间讲“调参”。 在很多非技术人的印象中,调参像是魔法,随便调几个数字就行。 吴恩达直接打破这个幻想:
“我博士期间凌晨两点还在调超参数。 有时候能在三点搞定回家睡觉;有时候调不出来,要七点才能回家。”
他笑着补了一句:
“我不是鼓励你们熬夜,而是想告诉你,而是想说调参能力真的能决定你多快做出一个有效的模型。”
在他看来,调参决定了一个模型能否落地,一个项目是几天成型还是几个月才见到效果。
✅ 为什么要从零开始写神经网络?
他对学生说:
“在这门课里,我们不会只教你用 TensorFlow 或 PyTorch 这些工具。我们会用纯 Python从零开始写出一个小型神经网络, 这样你能看到每一步在干什么,也能知道为什么要调这个数字而不是那个。”
为什么要这么做?
因为只有亲手搭过底层结构,才能在模型表现不佳时找到真正的原因: 是数据不够?是网络太小?还是学习率太高?
吴恩达提醒:
“经验不足的团队,常常在不知道问题在哪的情况下去搜集更多数据、买更多 GPU。有时这根本没有用。”
他举了个自己遇到的真实场景: 有一家大型企业看新闻说“GPU 能力越大越好”,花了大钱买 GPU, 结果 CTO 指着他的侄子说: “我侄子懂 AI,我给他这些 GPU 预算,他会给我做 AI。” 最后什么都没做出来。
这就是为什么他想教一套系统化的开发流程。
不是凭感觉决策,也不是看新闻跟风,而是先诊断问题,再对症下药。
他把这种方法比作医生看病:先查病因,再开处方。采用这种方法的团队,往往能快10倍达成同样目标。
✅ 模拟演练:诊断比代码更重要
所以在 CS230,他和助教会安排模拟演练: 学生分组开发“刷脸解锁”应用,从摄像头采集到人脸识别、图像处理、身份比对、防伪检测,每个环节都要自己诊断瓶颈、选择方案。
吴恩达强调:
“我希望你们离开这门课时, 不只是会写模型, 而是知道先做哪一步最有效, 这样才能在几天内搞定别人几周、几个月都做不出来的东西。”
这就是他眼里真正的“实战能力”:
不是写多少行代码,而是知道先抓哪个环节,怎么调试,才能最快拿到结果。
第三节|提示词很好用,但成本和能力都有天花板
很多人以为,生成式 AI 工具已经足够强了,只要想好怎么提问,AI 就能搞定一切。
但吴恩达在讲台上,讲了个更现实的故事:
“我们做过很多原型项目,前期都靠大语言模型(LLM)跑得很快。 但当用户量上来以后,账单增长的速度让人难以承受。”
他笑着说了一句意味深长的话:
“我们真的爱提供这些 LLM 服务的公司,但他们的账单实在太高了。”
✅ 从几百到几万:成本是真实的压力
在他参与的多个项目中,原型阶段每月可能只花几百块美金调用 ChatGPT 或 Claude。
一旦产品被更多用户使用,调用量成倍增长,每个月的成本变成了几万、几十万甚至更多。
这时候,光靠优化提示词已经不够了。必须自己动手,用深度学习工具搭建和微调模型,才能在降低成本的同时提升效果。
“知道怎么训练一个小模型,怎么调整参数,怎么接入自己的数据,是决定产品能否持续运营的关键。”
这不仅是成本问题,还有能力边界。
吴恩达指出: “大语言模型擅长处理文字类任务。 但如果你要处理音频、图像、结构化数据(比如大表格),就很难完全靠它。”
他举了几个真实的困境:
想让 LLM 理解用户上传的 Excel 表,结果总是读错单元格;
想让模型识别视频中的说话人,但噪音太多,模型误判严重;
想让生成式 AI 写一段代码,但它对上下文理解有限,结果出错概率很高。
吴恩达的解决办法不是“优化提示词”,而是用深度学习方法直接解决这些问题:
“很多人花一个月试图写出更好的提示词,但准确率还是上不去。最后,还是要回到基础工具,调整模型,效果才能稳定提升。”
✅ 原型快,但生产环境需要真功夫
生成式 AI 用来做原型很合适:速度快、上手快。但一旦要上生产环境,要控制成本、精细调整表现,就需要真正懂深度学习的人。
他给一个很实用的建议:
“我们会教你怎么用预训练模型,怎么根据自己的数据进行微调。这样你不用从头训练超大模型,也能做出可靠的 AI 应用。”
所以在这里,除了学习如何写神经网络、调整参数,你还会掌握当生成式AI不够用时,如何深入一层用深度学习工具做出效果。
不是每个问题都能靠提示词解决。
真正的能力,是在提示词不再起作用时,你还有第二种方法可以选择。
第四节|AI 会写,但听不懂你才是问题
吴恩达讲到 AI 编程工具时,说了一个挺有意思的场景:
“我周末在咖啡店写代码,旁边有人在手动写程序。 我看了一眼,觉得太奇怪了,就问他们在干嘛。 原来是在做别的学校布置的作业,老师不让用 AI 工具,只能手写代码。”
他说这话时,现场不少学生笑出声来。
因为在 2025 年的今天,AI 编程助手几乎已经是标配。 不管是 Cursor、Codex,还是 Gemini CLI,几乎人人都在用。
但吴恩达提醒大家:
工具能帮你写,但你得知道怎么让它理解你的意图。
他说自己也试过不用思考、直接靠 AI 生成代码,但效果不理想。 真正能用好 AI 编程工具的人,往往都是那些了解计算机基础的人。
你不懂程序逻辑,就很难让 AI 写出你想要的程序。
✅ 一个关于艺术史的类比
为了说明这个道理,他讲了一个更形象的比喻:
“我有个同事懂艺术史,他可以用很专业的语言跟 Midjourney(AI 图像工具)交流,生成非常漂亮的画面。 我不懂艺术史,只会输入‘请画个好看的机器人’,结果做出来的图根本不能用。所以我们最后用的是他做的图。”
换句话说:AI 是可以帮你干活的,但前提是你得说得清楚、说得专业。
而这个“说清楚”的能力,本质上就是计算机科学的基础知识。
所以吴恩达直言:
不要听别人说AI会写代码就不学编程。这可能是历史上最差的职业建议之一。
他举例说,以前从打孔卡到键盘,从汇编语言到 Python, 每一次工具升级都让更多人能写程序,而不是更少。
现在轮到 AI 辅助写代码了,也一样:
“当工具变得更容易用时,应该有更多人学会使用,而不是放弃学习”
最强的开发者,永远是既懂 AI 工具,又有扎实编程基础的人。
✅ 未来最重要的技能:用专业语言指挥AI
未来最重要的能力,是你能否清楚地告诉AI你要什么,让它准确实现。
这个能力不是靠口号,而是靠你能否真正看懂代码逻辑、调对接口参数、写准确的需求描述。
计算机基础知识,是你指挥AI的语言。
没有这个基础,你只能说“请帮我做个好看的”;有了这个基础,你能说“用这个算法、这种数据结构、这样的接口设计”。
差别就在这里。
第五节|需求缺口巨大,但具备AI技能的人太少
吴恩达说,他最近常听到抱怨: “CS专业也不好找工作了”、“学 AI 的人太多,岗位已经饱和了。” 但他却直接反驳:
不是机会少了,是具备 AI 技能的人还远远不够。
他说,很多大公司想招聘 1000 个会用AI工具的工程师,但一直招不满。 而另一边,确实也有大量刚毕业的学生在找工作。
为什么会出现这种错配?
✅ 技能没跟上时代
吴恩达给出了解释:
"很多人学的是2002年以前的软件技能。这些技能过去很有用,但今天已经跟不上工作需求了。"
不是他们不努力,而是能力没更新,工具也没用上。
他讲了自己的面试经历:
“我面试过一个10年经验的全栈工程师,技术很扎实,但完全没接触过AI编程工具。紧接着,我又面试了一个刚毕业的大学生,能用Claude、Gemini开发出小程序。最后我选了那个新人。”
这不是否定经验的价值,而是强调:最好的程序员,不只是代码写得多,而是能用AI快速把想法变成可用的产品。
然后,他把今天的就业能力,划成了四个层级:
1、不懂 AI,也没实战经验
“这种人现在真的很难找到落脚点。”
2、有工作经验,但不懂 AI
“这是最危险的状态,看起来能力很强,但缺口非常大。”
3、刚入行,但掌握了 AI 工具
“这是我非常看重的一类人,我更愿意给他们机会。”
4、有经验,也熟练掌握 AI 编程工具
“这类人现在是最抢手的。”
他说自己团队里表现最好的人,几乎都在第四层。
✅ 企业也在摸索
但让他更担心的是另一个问题:很多企业连怎么筛选 AI 技能都不会。自己没用过AI,就不知道该怎么面试会用 AI 的人。
这导致很多真正掌握AI技能的人,在面试时反而没被识别出来。
吴恩达认为,这个问题短期内不会解决,但对懂 AI 的人来说反而是机会:
只要你真的会,别人迟早会发现你的价值。
他鼓励所有人持续学习AI技能。他打趣道:
“可以把AI课程当成宝可梦,遇到就抓。”
机器学习、深度学习、提示工程、模型微调,每个方向都值得探索,而且不限专业背景。
他强调AI能力不只是CS专业的事:我见过很多教育、气候科学、医疗背景的人,学了AI工具之后,做出了非常实用的产品。
AI能力的本质,是把想法变成现实的能力。
无论你在哪个领域,都可以用 AI 做出真正有价值的东西。这不是技术壁垒,而是新的创造机会。
结语|不是技术课,是生存提醒
吴恩达在演讲最后说:
我希望你们离开这门课后,能清楚地知道:AI能做什么,你该怎么做,而不是只看着别人做。
这句话的重点在“动手”。
过去几年,很多人对AI的态度是观望。现在,工具已经成熟,关键变成了:你会不会用?敢不敢动手?
吴恩达没有讲遥远的愿景,也没有渲染失业恐慌。他说得更务实: “未来最重要的能力,是你能否清楚地告诉AI你想要什么,然后让它帮你实现。”
这不是关于参数和算法,而是关于把想法变成现实的能力。
这个能力不只属于计算机专业。无论你在教育、医疗、气候、商业哪个领域,AI都可以成为你的工具。
现在是最好的学习时机。
不是因为“不学就会被淘汰”,而是因为门槛从未如此之低,机会从未如此之多。
本文由AI深度研究院出品,内容翻译整理自吴恩达2025年9月斯坦福大学CS230深度学习课程开学演讲。未经授权,不得转载。
星标公众号, 点这里 1. 点击右上角 2. 点击"设为星标" ← AI深度研究员 ⋮ ← 设为星标
https://www.youtube.com/watch?v=_NLHFoVNlbg&t=1126s
来源:官方媒体/网络新闻,
排版:Atlas
编辑:深思
主编:图灵
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.