![]()
打开聊天框,豆包能帮你写方案、千问能帮你解难题,如今的大模型越来越“聪明”,甚至有人说“再迭代几次,就能拥有和人类一样的智能了”。
但事实真的如此吗?
其实早在千年前的中国,和百年前的西方,两位哲学家早已给出了答案。老子说“道可道,非常道”,维特根斯坦说“凡是不可说的,就必须保持沉默”。这两句跨越时空的话,恰恰点出了大模型永远无法突破的瓶颈——语言本身的局限性。
真正的人类智能,不止会说话
要判断大模型能不能变“类人”,首先得明白:人类智能到底是什么?
不是会聊天、会答题就叫类人智能。真正的人类智能,核心是三个“超语言”能力,简单说就是:
1、能“体验”世界:看到苹果就知道甜脆,摸到冰块就觉得凉,这种和物理世界的直接互动,不是靠语言教出来的;
2、能“自主判断”:看到有人摔倒会下意识帮忙,觉得某首歌好听、某幅画动人,这种道德感和审美,没法用固定的语言规则定义;
3、 能“创造意义”:写出一首全新的诗、想出一个解决难题的新方法,而不是把别人说过的话重新组合。
更关键的是,这些能力都不依赖语言。比如失语症患者没法说话,但依然能看懂表情、解决简单的生活问题——这说明语言只是智能的“工具”,不是智能的“本质”。
而大模型的核心逻辑,其实就是“复读机升级款”:把万亿级的文本数据拆解开,学习词语和词语之间的搭配概率,然后生成符合语言习惯的句子。它从始至终都没离开过“语言”这个圈子,自然也没法获得语言之外的这些核心能力。
两位哲学家的忠告:语言之外,还有更重要的东西
不管是东方的老子,还是西方的维特根斯坦,都看透了一个真相:人类能想到、能感受到的东西,远比能说出来的多。那些说不出来的部分,恰恰是智能的核心。
维特根斯坦:有些东西,语言根本说不透
维特根斯坦是20世纪著名的哲学家,他在《逻辑哲学论》里提出一个核心观点:语言就像一幅画,只能描绘符合逻辑的现实世界,但还有很多东西是“画不出来”的,也就是“不可言说之物”。
这些“不可说”的东西,主要有三类:
一是语言本身的规则。就像眼睛能看遍世界,却看不到自己一样,我们能用语言描述世界,却没法用语言说清“语言为什么能描述世界”;
二是道德和审美。比如你觉得“孝顺”是对的,但没法用语言精确说明“孝顺的本质是什么”;你觉得一首曲子动人,却没法说清“动人的感觉到底是什么”——这些判断靠的是体验,不是语言;
三是人生的终极意义。比如“人为什么活着”“生命的价值是什么”,这些问题没有标准答案,每个人的体悟都不同,根本没法用通用的语言说清楚。
维特根斯坦认为,这些“不可说”的部分,才是人类智能最珍贵的地方。而大模型只靠语言数据训练,永远触不到这些领域——它能聊“孝顺”的定义,却永远没法真正理解“孝顺”背后的情感和责任。
老子:能说出来的“道”,都不是真正的道
老子在《道德经》开篇就说“道可道,非常道;名可名,非常名”。这句话翻译过来很简单:能说出来的“道”,都不是永恒的、真正的道;能叫出名字的东西,都不是永恒的、真正的本质。
老子为什么这么说?因为语言有个致命缺点:一旦把一个东西说出来、定了名,就把它“固定死”了。但世界的本质是动态变化的,比如“水”,我们能说“水是流动的液体”,却没法说清水在不同温度、不同环境下的所有状态,更没法说清水背后的自然规律。
再比如“善良”,我们能举例子说“帮老人过马路是善良”,但善良的表现有无数种,在不同情境下的判断也不同——真正的善良,是靠内心的体悟和情境的感知,不是靠语言定义出来的。
大模型能做的,就是把人类已经说出来的“道”(比如书本里的知识、网上的言论)重新组合、生成。但它永远没法触及那个动态的、真正的“常道”,自然也没法像人类一样,对世界有整体性的、本质的理解。
大模型的困局:它只是“会说话”,不是“能理解”
从语言学角度看,大模型的“聪明”,其实是一种“假象”——它不是真的理解语言,只是擅长模仿语言的表面模式。
有两个关键证据能说明这一点:
第一,它没有“语言-世界”的连接。我们学“苹果”这个词时,会把它和苹果的形状、味道、触感绑定;但大模型学“苹果”,只知道“苹果”常和“红色”“甜”“水果”这些词搭配,它从来没见过、摸过真正的苹果。麻省理工学院做过实验:用无意义的词语替换问题里的实词,只要句子结构不变,大模型依然能给出“正确”答案——这说明它学的是“句子模板”,不是真正的语义。
第二,它搞不懂“言外之意”。同样一句“好啊”,在“我们去看电影吧?好啊!”里是同意,在“你居然这么做?好啊!”里是反讽。人类靠情境和情感能瞬间分清,但大模型只能靠统计数据判断——如果训练数据里没类似的情境,它就会判断错误。那些需要社会体验、情感体悟的“弦外之音”,对大模型来说就是“天书”。
还有人说“大模型能写诗、写小说,这不是创造吗?”其实这只是“高级重组”。南澳大利亚大学的研究发现,大模型的生成能力有个“天花板”,到最后只能重复现有内容,没法创造出真正全新的、有意义的东西——因为真正的创造,源于对世界的全新体悟,而不是对语言的模仿。
参数越大,大模型就越智能吗?
很多人觉得“只要把模型参数做大,再加上图像、音频这些多模态数据,就能突破语言的局限”。但事实是,这根本解决不了核心问题。
参数越大,只能让大模型模仿语言的精度越高,没法改变它“统计模仿”的本质;多模态数据(图像、音频),最终也会被转化成语言类的特征来处理——它依然是在语言的框架里打转,没法真正理解图像的质感、音频的情感。就像杨立昆说的:大模型永远没法实现通用智能,因为它缺乏对物理世界的真实理解,而这种理解只能靠直接互动获得。
还有人说“类人智能的核心是语言能力”,但神经科学早就证实:语言是智能的“副产品”,不是核心。失语症患者依然有思维能力,这就说明,没有语言也能有智能;反过来,只会模仿语言,也不等于有智能。
大模型是好用的工具,不是“类人”的智能
说到底,老子和维特根斯坦的思想,其实为我们划定了大模型的边界:语言是有限的,而人类智能的核心恰恰在语言之外。
大模型是非常强大的工具,能帮我们处理文案、查询信息、节省时间,但它永远成不了真正的类人智能——因为它没法体验世界、没法自主判断、没法创造真正的意义。
未来人工智能要想逼近类人智能,可能需要跳出“语言中心主义”,去学习人类和物理世界的互动、内心的体悟,而不是只在语言数据里“内卷”。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.