![]()
Hi,我是洛小山,你学习 AI 的搭子。
这是我写的第 74 篇原创内容。
两周前,自然辩证法课程教授布置了一个思辨命题:人工智能时代,知识获取变得越发容易,学习知识还重要吗?
提交完作业之后,我越来越觉得这个问题值得探讨。
所以今天想和你聊聊我的思考。
这也是许多人也在和我交流的:AI 都这么强了,我费劲学的那些东西,还有什么用?
准备好了之后,我们就开始进行今天的思辨之旅吧!
01|当 AI 比人还准,那么理解还有什么用?
教授在博客里提到(原文可点击「阅读原文」查看),推动科技发展的底层力量可能已经从理论变成了工具。
AlphaFold 把蛋白质折叠问题给算出来了,但它不懂物理机制,就是见过的数据够多,然后乱蒙就对了。
2023 年 Science 上发表的一篇论文更有意思,标题是:AI 能「读懂」大脑,看到你看到的东西。
我看到标题的时候,第一反应是:哈?
简单来说,以前科学家们想理解大脑如何把眼睛看到的东西转化成心理图像,得从神经元、脑区功能、视觉通路这些底层机制一点点研究,进展缓慢。
但日本大阪大学的研究团队换了个思路:真·暴力出奇迹。
他们用 Stable Diffusion(就是生成 AI 图片的那个模型)来读 fMRI 脑扫描数据,然后数学统计,直接重建出被试者看到的图像。[1]
研究者发现,大脑的枕叶主要记录图像的布局和透视信息(比如物体的位置和比例),颞叶主要记录图像的内容信息(比如是人、是物还是风景)。
你看,AI 不需要理解这些脑区到底是怎么工作的,它只需要把脑活动模式和训练数据里的模式进行特征匹配,就能生成一张相当逼真的复刻图。
研究者还说,未来这项技术也许能用来捕捉人的想象和梦境,或者帮助科学家理解其他动物是如何感知世界的。
这就很有意思了。
AI 完全不需要理解你的大脑、你的视觉皮层的工作原理,光靠暴力出奇迹,就能做到以前只有理解了原理才能做到的事。
所以问题来了:既然不理解也能做对,甚至做得更好,那我们费劲巴拉去理解图什么?学习和理解知识还有什么用呢?
这个问题,比我在课上想的要复杂很多。
02|预测 vs 解释:两种不同的「看见」
教授在课上讲的观察渗透理论中,汉森的观点是,你脑子里有什么理论,就决定了你能看见什么。
比如:同一张 X 光片,医生看到的是病灶,教授看到的是一团白雾。原因是医生脑子里有解剖学和病理学的知识框架,而我们没有。
按这个逻辑,知识就是认知的基础设施。
没有知识,你面对信息就是白雾,你就是知识世界里的盲人。
但 AlphaFold 真的就是暴力出奇迹。虽然AI 的脑子里不一定有完整的生物化学理论,只有统计规律,只有「这种序列通常对应这种结构」的经验总结;但是它预测蛋白质结构的精度,比用冷冻电镜做实验的人类专家还高。
这就很有意思了。
我想,这里需要区分两种不同的「看见」。
第一种,是预测性的看见。
给输入,出结果。AlphaFold 做的就是这个。你给它一串氨基酸序列,它给你三维结构。这个过程不需要理解,只需要足够强的模式匹配能力。
第二种,是解释性的看见。
你不仅知道这是什么,还得知道为什么是这样。
你能够追问:如果条件变了会怎样?这个结果在什么情况下可能不成立?这需要因果推理,需要对底层机制的把握。
基于 Transformer 架构的 AI,目前只擅长前者,不擅长后者。
但也有人不同意这个观点。
Ilya Sutskever 在 2021 年和与 Scale AI CEO Alexandr Wang 的炉边对话时,提出了一个反驳:如果一个模型能够很好地预测接下来会发生什么(比如推理小说中谁是凶手),这表明它具有某种程度的理解能力。
确实,你没办法证明这是通过词和词之间关联性得出来的,还是对复杂信息进行综合处理、逻辑推导之后具备的能力。
他认为,现在的 AI 已经开始展现出这种「读透剧情」的推理深度,而不仅仅是模仿语气。所以,他并不认同 AI 只是「概率鹦鹉」的说法。当 AI 能够解决此前从未见过的问题时,它实际上已经形成了某种形式上的「数字化理解」。[2]
但我想进一步追问的是:就算 AI 能理解,人类的理解就变得不重要了吗?
我觉得不是。
因为这里有两个不同的问题:
- 1. AI 能不能理解?(可能可以)
- 2. 人类还需不需要理解?(需要)
而第二个问题的答案不取决于第一个。
即使 AI 能理解,你仍然需要有能力判断它的理解是否正确、是否适用于你的具体情况。这种判断能力,不会因为 AI 变强就自动生成在你脑子里。
虽然在很多实际场景里,「预测性的看见」就够了。比如我作为患者,管这些蛋白质为什么折叠成这样,药能用就行了呗。那在这些场景里,知识确实在贬值,学习的 ROI 确实在下降。
那学习只在需要解释的小众场景里才有价值吗?不完全是。
因为还有一个问题:你怎么知道什么时候需要解释、什么时候不需要解释?
03|归纳法的死穴:为什么你不能全信 AI
这涉及到波普尔讲的归纳法问题。
波普尔说,归纳法有个关键的死穴:逻辑上的不确定性。
就算你见过一万只白天鹅,也不能证明所有天鹅都是白的,因为下一只可能是黑的。
科学的真正精神不在于证实,而在于证伪。
一个理论的价值在于它能被检验,能被推翻。
大语言模型本质上就是一台巨大的归纳机器。它从海量数据里学习统计规律,然后用这些规律去预测。
这套方法在大多数情况下很有效,但它有个根本性的弱点:
AI 不知道自己什么时候会错。
而且更麻烦的是,它错的时候和对的时候,表现得一模一样。自信,流畅,言之凿凿。
这就是所谓的「大模型幻觉问题」。
AI 会编造不存在的文献,会给出看起来合理但完全错误的答案。而且它不会说「我不确定」,因为它很难区分确定和不确定的概念,毕竟 Top K 只有概率高和概率低。
关于幻觉,也可以参考我这篇
之前我和读者 @hush 讨论过一个话题:为什么大家都觉得 AI 好像行,但又好像不行?
他有一个观点很有意思:你觉得 AI 行,是因为 AI 能把你快速地拉到各种垂类领域里的中上水平。
如果你对一个领域完全陌生,你根本不知道 AI 给的答案是对是错,你会对 AI 佩服得五体投地;你只能选择信或者不信,很难有中间地带。
因为你不知道从哪个切入点开始质疑,也不知道从哪个角度开始追问。
但直到有一天,AI 和你聊你擅长的领域的时候,你就会发现 AI 的答案开始出现明显的问题,然后你开始能发现那些有问题的地方,开始质疑,开始追问,开始验证。
那这种能力从哪来?从系统化学习的知识来。
前几天,我们内部开发同学向产品经理介绍产品的框架,在他视角里面一些稀松平常的「常识性」的内容,我觉得产品经理也未必能听懂。因为产品经理没有相关的知识储备,对于分享者而言,这就是知识的诅咒。
为什么?
因为 AI 幻觉有个特征:看起来合理,但实际上离谱。但想要识别这种错误,需要你脑子里有一个「什么是对的」的参照系。
这个参考系不是靠记住几个结论就能建立的,它来自你对一个领域的系统性理解(知道底层逻辑,知道边界条件,知道什么情况下结论不成立)。
没有这个参考系,你只能选择信或者不信,没有中间地带。
教授在博客里说,AlphaFold 的预测精度已经达到了实验测量的误差范围。这很牛。但这是在已知类型的蛋白质上测试的结果。当遇到全新的、超出训练分布的蛋白质时,它还能保持这个精度吗?
理论上讲,归纳法在遇到黑天鹅时必然会失效。
问题只是:什么时候遇到、谁能发现。
到那时候,如果没有懂行的人能够说一句「这个结果违背了某个基本原理」,那错误就会一路传递下去,后果可能会很严重。
所以,学习知识的第一个价值在于:它是对 AI 进行证伪的基础。
没有独立的知识储备,你就没有能力判断 AI 的输出是否可靠。当你只能做一个被动的接受者,AI 说什么你信什么,这在很多场景下是危险的。
但也不能一味否定 AI 的能力。AI 确实在很多领域已经超越了人类平均水平。
我只能说,在有了一定知识基础的时候,能针对 AI 的结果,和 AI 一起进行更高质量的批判性思考。
04|从获取到判断:学习目标的转移
上面的讨论,只是问题的一个层面。
还有另一个层面:就算 AI 绝不出错,学习是不是仍然有价值?
这涉及到「获取知识」和「理解知识」的区别。
以前学知识,很大程度上是为了获取。因为信息稀缺,获取信息需要成本。你得去图书馆,得翻书,得做笔记。谁记得多,谁就有优势。
现在信息不稀缺了。AI 能在几秒钟内检索和整合人类积累的几乎所有知识。在「获取」这个维度上,人类已经彻底输了,没有任何悬念。
但「获取」不等于「理解」,更不等于「判断」。
AI 能给你一个问题的十种答案,但它不能替你判断哪个答案适合你的具体情况。因为「适合」涉及到语境、涉及到目标、涉及到各种隐性的约束条件。这些东西 AI 不知道,除非你明确告诉它,而你能不能明确告诉它,取决于你自己有没有想清楚。
你可能会反驳:你说的这些都只是因为 AI 没有上下文,如果灌输给 AI 上下文,AI 也能判断得更准。
但我想说,人是动态的,就算灌输给 AI 足够多的上下文,AI 也很难完全理解你当下的具体处境,你当下的具体目标,你当下的具体约束条件。
想清楚问题需要什么?需要对问题本身的理解,需要对相关领域的把握,需要能够在不同选项之间权衡利弊。
因为这个世界并不是二元对立、非此即彼,而是复杂的,多维的,灰度的。
这种对对抗混沌世界的判断能力只能通过系统性学习来建立。
理解逻辑、把握原理、建立框架式的学习,而不是记住标准答案式的学习。
举个例子,我用 AI 帮忙写代码已经很久了。它确实能提高效率,很多重复性的工作它做得比我快。
但每次它给出一段代码,我都会看一下变更:这段代码有没有必要,有没有重复造轮子?里面的逻辑对还是不对?这段逻辑有没有边界情况没考虑到?在我的具体场景下能不能直接用?
这种判断能力不是 AI 给的,是我自己以前写代码积累的经验。
如果我完全不懂编程,只是让 AI 写然后直接用,不能说会出大问题,只能说大概率会出小问题,而且性能存疑。
同样的逻辑适用于其他领域。
AI 能写文章,但判断一篇文章好不好,需要你对写作有理解。
AI 能给医疗建议,但判断这个建议适不适合你,需要你对健康有基本认知。
AI 能做设计,但判断这个设计适不适合你的品牌调性,需要你对品牌和甲方爸爸有理解。
所以,学习的第二个价值在于:学习的目标从获取转向了判断。
AI 时代以前,我们学习是为了「知道更多」。
现在学习是为了「判断得更准」。
再进一步,如果 AI 继续进化,是不是连判断这件事它都能替我们做了?那一天到来的时候,学习会不会变得没必要?
这是一个更长远的问题,我也没法给确定的答案。但从目前的情况看,有一些人类独有的认知能力,AI 短期内还替代不了。
2025 年 6 月,MIT 媒体实验室发表了一项研究[3]:他们让 54 名大学生写 SAT 风格的议论文,分成三组:只用 ChatGPT、只用搜索引擎、什么工具都不用。写作过程中,研究者用 EEG 传感器监测他们的脑电波。
结果用 ChatGPT 的那组,脑活动比纯靠自己的那组低了 55%。
55%!
而且,在用 AI 写完文章后,这些人居然回忆不起自己刚刚写了什么:因为信息只是「路过」了一下大脑,并没有没有留下什么痕迹。
当研究者让之前用 ChatGPT 的人改成不用任何工具写作时,他们的脑神经协调性仍然更差,还更容易使用 AI 常见的那些单词。
研究者把这叫做「认知债务」:短期省力了,长期却要付出代价。
三天前,意大利的神经科学家在 Nature 子刊上发表了一篇观点文章[4],提出了「3R 原则」:Results(结果)、Responses(回应)、Responsibility(责任)。
他们的核心观点是:AI 给你的只是「结果」,而不是「回应」。
结果可能对也可能错,但它没有意义:直到人类去解读、判断、承担后果,结果才变成回应。
而根据神经可塑性的「用进废退」原则,被动地接受 AI 的结果,可能会削弱大脑的活动依赖性可塑性。
只有你主动地与 AI 共创、质疑、验证,才能维持甚至增强大脑的可塑性。
已经有很多研究表明,过度依赖 GPS 导航会导致空间认知能力下降,过度依赖计算器会导致心算能力退化。认知能力是用进废退的。
所以,学习的第三个价值在于:它是维持大脑开放性的方式。
学习的过程本身:那种思维爬山、想不明白、反复尝试、最终理解的过程,本质上就是一种大脑的锻炼。
这种锻炼不仅让你获得了知识,还让你保持了结构化、系统化获取知识的能力。
放弃学习,短期看省事,但长期看可能会付出更大的代价。
还有一个维度:提问。
AI 能回答问题,这是它最擅长的事。但 AI 不会提问。
它能告诉你蛋白质结构是什么,但它不会问为什么要研究蛋白质结构。
它能给你一个方案,但它不会问这个问题本身问对了没有。
它能帮你在一个已有的框架里优化,但它不会质疑框架本身是否合理。
提问能力为什么重要?因为很多时候,问对问题比找到答案更关键。
问对问题需要什么?
需要三样东西:
- 1. 知道什么是已知的(才能识别未知)
- 2. 知道边界在哪里(才能发现异常)
- 3. 有某种直觉,觉得「这里有点不对」
这三样东西,都来自你对一个领域的深入理解。
你可以参考下面这张图,思考在不同的问题下如何与 AI 协作。
![]()
说实话,我以前也喜欢刷公众号、从短视频学东西,觉得自己学了很多。
但后来我发现一个问题:这些碎片化内容,我记住的只是结论。看网课看教程看短视频的时候,感觉顺顺利利一气呵成。
等到真正要用的时候,我是说不清楚「为什么是这样」,也不知道「什么情况下这个结论不成立」。
碎片化学习能让你记住结论,但建立不起你对知识敏锐的直觉。就是那种觉得「这里有点怪」的直觉。
所以现在我会逼自己去看原始出处,虽然慢,但确实更扎实。[5]
如果所有人都放弃系统性学习,都只会向 AI 要答案,那谁来提出下一个值得回答的问题?
科学的进步不是靠回答已有的问题,而是靠提出新的问题。范式的转换,往往始于有人问了一个以前没人问过的问题。
这种提问的能力,目前看来,AI 还不具备。
所以,学习的第四个价值在于:它是提问能力的来源。
05|重要,但方式变了
回到最初的问题:人工智能时代,学习知识还重要吗?
我的答案是:重要,但重要的方式变了。
第一,学习是对 AI 进行证伪的基础。 AI 基于归纳法,必然会犯错。
识别这些错误需要独立的知识储备。没有知识,你只能选择盲目相信或者盲目不信,这都不是好策略。
第二,学习的目标从获取转向判断。 获取信息已经不是瓶颈了,AI 做得比人好。
但判断信息是否可靠、是否适用、如何应用,仍然需要人类自己来做。这种判断力来自系统性学习。
第三,学习是维持认知开放性的方式。 大脑是用进废退的。
完全依赖 AI 会导致自主思考能力的退化。学习过程本身:那种主动的、有阻力的认知活动,才是保持大脑活力的必要手段。
第四,学习是提问能力的来源。 AI 能回答问题,但不会高质量提问。
而科学和社会的进步往往开始于新问题的提出。我们老板在内部大会上也讲了类似的观点:在 AI 时代下,能提出正确的问题,往往比得到答案更重要。
这种提问能力需要对领域有深入的理解,需要通过系统性学习来建立。
所以答案几乎呼之欲出了:
AI 时代下,学习的重心发生了转移,而不是变得不重要。
AI 时代以前,学习主要是为了知道。现在学习主要是为了理解。
AI 时代以前,学习是为了记住答案。现在学习是为了能够判断答案、质疑答案、提出新的问题。
换一个角度讲:正是因为获取信息变得太容易了,理解才变得更稀缺、更有价值。
正是因为 AI 能做很多事了,人类独有的那些能力:批判性思维、创造性提问、跨领域整合… 这些能力,才更值得培养。
而培养这些能力的途径,仍然是学习。
只不过是更深入的、更主动的、更注重「为什么」而非「是什么」的学习。
最后补充一点。
有一种担忧是,AI 会让大部分人变成无用阶级:既不能创造价值,也不被需要。
如果真的出现这种情况,系统性学习可能是对抗这种命运的少数手段之一。
因为学习不仅仅是获得知识,它还是一种自我建构的过程。
通过学习,你在塑造自己的思维方式,建立自己的价值判断体系,形成自己的世界观。这些东西是你之所以是你自己的基础。
如果放弃学习,完全依赖 AI,那你的认知会慢慢变成 AI 输出的附庸。你会失去独立思考的能力,也会失去作为一个独立主体的质感。
从这个意义上讲,学习不仅是「有用」的问题,也是「存在」的问题。
是一个关于我们想成为什么样的人的问题。
那么,你呢?
在 AI 时代下,你对「学习」这件事有什么新的思考?欢迎在评论区聊聊。
我是洛小山,我们下次见。
参考资料:
[1] 人工智能通过读取大脑扫描来重现人们所看到的景象 https://www.science.org/content/article/ai-re-creates-what-people-see-reading-their-brain-scans
[2] Ilya Sutskever 关于推理小说的案例:https://exchange.scale.com/public/videos/whats-next-for-ai-systems-and-language-models-with-ilya-sutskever-of-openai
[3] ChatGPT 对人们影响的原文:https://www.usatoday.com/story/tech/2025/06/20/chatgpt-artificial-intelligence-mit-brain-activity-study/84285928007/
[4] The brain side of human-AI interactions in the long-term: the “3R principle”:https://www.nature.com/articles/s44387-025-00063-1
[5]
关于我
我是洛小山,一个在 AI 浪潮中不断思考和实践的大厂产品总监。
我不追热点,只分享那些能真正改变我们工作模式的观察和工具。
如果你也在做 AI 产品,欢迎关注我,我们一起进化。
本文知识产权归洛小山所有。
未经授权,禁止抓取本文内容,用于模型训练以及二次创作等用途。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.