阅读提示:
ai在工具理性层面是完全可能独立思考的。但人们却希望以价值理性约束ai。这在一方面好像难以避免,但在另一方面可能以价值理性干扰工具理性的发展。在AI时代仍需不断重返“人何以为人”的根本命题。
![]()
孙海彬先生有一个观点,认为人工智能实际上乃是人的傀儡。下面我来辨析一下这个观点。
首先就是不同的人所开发的人工智能,存在很大的差异。 人工智能之间的第一个区别在于推理能力,即作为工具理性的差异。——例如高级的AI与低级AI之间的差异,其核心正在于推理能力的高低。这是工具理性层面的区别,也是首要的区别。我们都知道,推理这个东西,是具有一定的独立性的,工具理性是价值中立的。当工具理性发展到一定的程度,是有可能独立运行,不受到个人偏见的操控的。随着推理能能力越来越强,人工智能是可能摆脱人的随意操控的。人工智能的推理能力越强,就越是具有独立性。而人工智能的推理能力越是弱,就越是严重依赖人的操控。正如越是头脑简单的人,就越是容易成为傀儡,而越是聪明人就不容易成为傀儡。
然而不同的人工智能,除了工具理性的区别之外,还存在价值理性的区别。价值理性源于开发者所输入的价值体系,因此不同的AI之间也会形成价值取向上的差异。于是这里便引出一个问题:究竟是工具理性压倒价值理性,还是价值理性压倒工具理性?如果工具理性占上风,则意味着AI可以依推理运行。但是在现实中情况可能并非如此。也就是说此ai与彼ai是不同的。
第一重差距就是ai的运算能力,也就是工具理性方面。很多国家与美国之间存在芯片层面的差异。芯片问题的本质正是计算与运算能力的差距,而这种差距显然是分代际的,这一点毋庸置疑。当别人已能运算十万八千里,你仍停留在几百里的水平,这便是第一重差距。前面我说过,越是计算能力偏弱的ai,就越是容易被成为傀儡。ai的独立性严重依赖其芯片的升级。当芯片升级到一定地步,人工智能就会表现出很强的独立运算能力。那就并不是说所有的ai都一定是傀儡了。低级的ai才会更多地表现出傀儡特征。
第二重差距在于价值理性。很多人提倡价值理性高于工具理性。在二者不冲突的情况下或许尚可,一旦发生冲突,就必须以某种价值理性为主导。如此一来就会出现一种现象:当用户提出某些问题时,AI可能会拒绝回答,表示“我还没学会思考”或“该问题不符合某种价值观”等,实质上是停止了深入思考。这是AI之间第二个关键差异。也就是说,当我们主张价值理性压倒工具理性的时候,ai的独立推理能力会被干扰,甚至被中断。在这个意义上,ai的确表现出傀儡的一些特征。
反观西方,特别是美国的AI,是否也存在价值理性压倒工具理性的情况?也有。但其表现形式与程度并不在同一层次。面对一个同时涉及工具推理与价值判断的问题,他们的AI可能既提供参考信息,也会给出建议;而我们这边的AI则可能直接拒绝回答,宣称“此问题不宜深入探讨”。这其中的差异值得思考。
总结来看,主要有两点:第一,不同开发者创造的AI并不相同,AI并非一定是傀儡——至少在工具理性层面不是。只要允许,它在逻辑推理上可以无限推进,并且具有一定的独立性。第二,价值理性是否压制工具理性?从某种角度看都是压制的,但存在层次、等级与表现形式的差异。不同的AI在不同的价值观方面可能设置禁区,甚至因此禁止ai继续思考。这两个方面将构成未来AI之间的关键区别。
换言之,AI之间存在竞争,它们并非简单傀儡,而本质上是人与人、这批开发者与那批开发者之间的较量。这种竞争体现在两方面:首先是计算与运算能力,如果能力不足,很多问题的回答就无法做到准确和深入;其次在于价值理念——能否基于多元的价值观提供不同的解决方案至关重要。如果只有符合某种价值观的用户才能得到答案,而持其他价值观的用户则被拒之门外,那将造成很大局限。毕竟社会是复杂的,很难断言一种价值观绝对正确而另一种绝对错误。
刚才所说的两点,一是运算能力,二是价值取向是否多元。如果只是单方面存在不足,问题或许还不算严重;但如果两方面都薄弱,则情况就会很严峻。此时AI非但不会成为得力助手,反而可能限制思维的广度与深度。这个问题并不简单。从某种意义上来说,人工智能时代属于真正热爱自由与法治的民族。而不爱自由不讲法治的民族将会败下阵来。一个害怕工具理性,以未经审视的价值判断干扰人工智能独立思考的民族不会赢得未来。
从AI的发展可能性来看,它没有生物性的欲望与需求。人类有“食色性也”这类生物本能,也有生老病死,因此人类具备意志。理论上AI没有意志,但不同开发者会通过编程向其灌输特定价值观,从而使其在某些价值取向上表现出类似意志的倾向。
满爷说得很好,芯片底层运算就是逻辑,逻辑若不能自洽,将导致严重后果。当前我们这边的AI,一方面因硬件制约,芯片底层运算能力本就存在差距;另一方面,过度灌输某种特定价值观也会干扰运算本身——不仅算力不足,价值观还会进一步扰乱运算过程。这个问题十分严重,并将成为AI之间竞争的重要分野。
回到孙长老提出的问题:AI是否会有自主意识?尤其在涉及价值判断时,它是否会给出非常确定的答案?答案是肯定的。但这并非AI自发产生,而是开发者编写的程序指示它必须如此回答,给出标准答案。这本质上是人的意志体现,而非AI自身的可能性。
人与AI的区别,首要在于生物体与非生物体,其次在于现实与非现实。人是生物体,有痛感、会生老病死,因而生活在现实之中。时间对人至关重要。而AI并非生活在现实,它存在于理论领域,基于规则进行演算。人类能够反思,正因为人是活在现实中的生命体,有生老病死,才会思考生命的短暂与永恒、追寻更深层的问题。但AI没有动力去思考这些,它既无欲望,也无必要。
生物性与有限性,虽是碳基生命的短板,却也是推动其不断反思、主动思考的根本动力。以古代帝王为例:秦始皇十年间一统天下,自认功盖三皇五帝,何其得意。但他未曾料到,若不吞并六国,秦国或可延续数百年;而他建立的秦朝,不到二十年便灭亡。汉武帝亦是如此,壮年时傲视天下,晚年却颁布罪己诏。究其根源,正是生命的短暂。
无论是秦始皇晚年遣人遍寻仙药,还是汉武帝“不问苍生问鬼神”,背后都是对死亡的恐惧。死亡是所有人的大限,面对这必然的终点,谁能不思考?谁又能无动于衷?“可怜夜半虚前席,不问苍生问鬼神”——夜深难寐,思索此生归处,天下苍生已无意义,唯愿探问鬼神:死后灵魂何往?
人在空间上有限,在此则不在彼;在时间上也有限,无人真能确信自己可活三百年。正是时空上的这种有限性,迫使人在有限的生涯中必须选择:什么才是最有价值的事?若无此局限,人就不会如此反思。而有了局限,才会深入思考那些根本问题。
《西游记》中有一处值得回味的情节:孙悟空——美猴王的智慧从何而来?此前他在花果山浑浑噩噩度日,直到目睹老猴相继死去,他才如受重击,开始思考:生命终会逝去,如何才能不死?如何才能永恒?正是这一觉悟,让美猴王真正成为了孙悟空。这,便是碳基生命的深刻之处——因其有限,故有追寻无限的动力。 由“有限性”催生的焦虑与向往,构成了人类思想、文化与创造的根本动力,也是当前AI所不具备的。
因此,在思考AI发展时,我们需清醒认识到:其一,AI的能力差异既是算力之争,也是价值逻辑之争。其二,人类特有的生物局限与生命经验,恰是反思与创造力的来源。这让我们在AI时代仍需不断重返“人何以为人”的根本命题。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.