在从大模型中获取信息时需要格外小心,因为模型生成的内容虽然丰富多样,但并不一定经过严格的验证和筛选。这些内容可能包含错误、偏见或不准确的信息,因此不能直接被视为知识。知识通常需要经过系统的验证、逻辑推理和实践检验,而大模型生成的内容更多是基于数据模式的推测和生成,缺乏这种深度的验证过程。因此,从大模型中得到的信息更多是一种参考或启发,而非可以直接应用的知识。
一、什么是“知识”?——从哲学与认知科学视角
在哲学(特别是认识论)和认知科学中,“知识”通常被定义为:
“被证实的真实信念”(Justified True Belief, JTB) ,或者更现代的理解是:
知识不仅仅是信息的集合,而是经过验证、具有逻辑一致性、因果解释力,并能在特定语境下指导有效行动的认知结构。
相比之下, 大模型(如GPT等)输出的内容,本质上是:
基于海量文本数据的 统计规律学习
通过概率预测生成 表面合理、语境连贯的文本
不具备真正的理解、推理、经验或因果建模能力
也就是说,大模型可以“看起来很懂”,但它并不“真正理解”。
二、为什么大模型的输出 ≠ 知识?
我们可以从多个维度来分析:
1. 缺乏真实世界的经验与感知
人类知识来源于感知(看、听、触、做)、实践、试错、反思与互动。
大模型没有感官,没有真实的物理世界交互经验,它只是从文本中学到了“别人怎么说”,而非“实际发生了什么”。
例子 :大模型可以生成一篇关于“如何骑自行车”的文章,但它从未真正体验过平衡、摔倒与再尝试的过程。
2. 不具备因果推理与深层理解
大模型擅长关联与模式匹配,但 因果推理、逻辑推演与反事实思考 能力较弱。
它可以生成看似合理的答案,但这些答案可能是 幻觉(hallucination) ——即完全编造但语法正确、看似可信的信息。
例子 :问大模型“为什么地球有磁场?”它可能给出一个听起来科学但实际上错误或混淆的答案,因为它只是拼接了训练语料中的片段。
3. 无法进行真正的价值判断与伦理思考
知识不仅是“事实”,还涉及“意义”、“价值”、“伦理”与“责任”。
大模型没有自我意识、情感、道德立场,它的输出不具备真正的价值判断能力。
例子 :大模型可以模拟伦理讨论,但它不会真正“关心”某个决策对人类社会的长期影响。
4. 无法保证信息的真实性与可靠性
大模型训练数据来自互联网,其中包含大量不准确、偏见、过时甚至虚假的信息。
模型本身无法主动验证信息的真伪,也无法追溯信息来源。
例子 :大模型可能引用“权威研究”支持某个观点,但那个研究可能是虚构的,或者结论已被推翻。
三、那大模型在大模型时代,对人机协同意味着什么?
尽管大模型输出的内容不能等同于知识,但这并不意味着它没有价值。恰恰相反,在 人机协同 的框架下,大模型可以作为一种:
✅ 强大的信息助手
✅ 思维启发工具
✅ 草稿生成器与创意催化剂
✅ 语言翻译与沟通桥梁
✅ 流程自动化与效率提升工具
但它应该被视为一种 “高级信息处理工具” ,而不是 “知识权威”或“决策主体” 。
四、人机协同的正确打开方式:从“依赖”走向“批判性使用”
“应加强‘人机协作思维训练,培养批判性使用AI能力’”
这是非常关键且具有前瞻性的观点。在人机协同的未来, 人类的核心价值不在于比AI更快生成文本,而在于:
判断信息的真实性与可靠性 (信息甄别能力)
理解知识背后的逻辑、假设与语境 (批判性思维)
做出符合伦理与价值的决策 (价值判断与责任感)
将AI的输出转化为实际行动与创新 (实践智慧与创造力)
大模型是信息时代的强大工具,但它本身并不能创造知识。
知识,仍然来源于人类的经验、反思、实践与对话。
在人机协同的未来图景中,最理想的模式是:
人类提供意义、价值、判断与目标;AI提供计算、信息、效率与可能性。两者协作,而非替代。
因此,我们在使用大模型、讨论人机协同、乃至撰写相关学术论文时,必须始终清醒地认识到:
“大模型可以帮你说话,但不能替你思考;它可以生成文本,但不生成知识。”
![]()
![]()
![]()
![]()
![]()
![]()
![]()
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.