在深度学习席卷全球之前,AI还有另一种工作方式。
不是从海量数据里找规律,而是直接告诉它:什么是事实,什么是规则,然后让它自己推导结论。
![]()
这就是知识驱动型AI(Knowledge-Based AI)的核心逻辑。
三个关键词:事实、规则、推理。
这套系统的结构很清晰:知识库存储信息,规则系统定义如何得出结论,推理引擎负责执行。用公式表达就是:知识驱动AI = 事实 + 规则 + 推理。
与现代机器学习最大的区别在于:它不"学习"。系统不会随着数据量增加而自动改进,而是在已有知识框架内进行逻辑推演。这种设计带来一个显著优势——可解释性。你能精确追踪是哪条规则导出了哪个结论,黑箱问题在这里不存在。
具体怎么运转?看一个医疗诊断的简化例子。系统存储的事实可能是:患者发烧、患者咳嗽、患者疲劳。内置规则包括:如果发烧且咳嗽,则可能存在感染;如果存在感染且疲劳,则建议进一步检查。没有神经网络,没有训练迭代,纯靠规则匹配和逻辑链条推进。
推理方向也有讲究。正向推理(Forward Chaining)从已知事实出发,逐步应用规则直到得出结论,适合"根据现有证据能推出什么"的场景。反向推理(Backward Chaining)则从目标倒推,验证所需条件是否成立,适合"要证明某个结论需要哪些前提"的场景。一个数据驱动,一个目标驱动。
对比机器学习,知识驱动AI的优势和短板都很明显。优势在于透明、可控、不依赖标注数据;短板在于规则膨胀后的维护噩梦,以及对模糊、噪声数据的处理能力不足。这不是新旧之争,而是符号推理与数据驱动两种范式各自解决不同的问题。
推理引擎是整个系统的激活器。知识库只存信息,规则只定义逻辑可能,真正让系统"动起来"的是引擎——它不断比对事实与规则条件,匹配成功就生成新事实,循环往复直到没有可用规则。
在深度学习主导的今天,这套方法似乎过时了。但在需要严格可解释性的领域——医疗诊断、法律推理、合规审查——符号化的知识系统仍在发挥作用。两种技术不是替代关系,而是互补。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.