*中国人民大学吴玉章 讲席教授 刘永谋首发于微信公众号,保留一切知识产权,侵犯必究。
![]()
这波生成式AI的热潮兴起不久,就有很多人在说:AI是一面镜子。为什么呢?因为大模型是大数据训练出来的,所以它是数据世界的平均镜像,即它给出的答案都网上答案在统计学意义上的主流观点。
实际上,AI的镜喻还可以效仿罗蒂的“自然之镜”,深挖其下更深的哲学伦理学意涵。在《哲学与自然之镜》中,罗蒂认为,西方哲学主流将“心”作为“自然之镜”,导致诸多问题;只有打破“自然之镜”,才能走向后哲学文化。爱丁堡哲学系教授瓦洛尔的《AI之镜:如何在机器思维时代重拾人性》,便是尝试深挖“AI之镜”的成果。
瓦洛尔觉得,AI之镜首先是人类认知之镜,即“AI系统把我们自己的智能映照给我们”;其次,AI之镜还是人类德性之镜,因为“它们复杂地映射我们记录下的思想、判断、欲念、需求、感知、期待和想象”。由此,目前大家担心的AI对人类的威胁,本质上不是AI的问题,而是人的问题,尤其是人类德性所造成的。并且,这也说明此种威胁是可以解决的:
我们是AI造成人类自身危机的根源,这其实是件好事——这意味着我们有能力抵抗,有能力疗愈。
我们的AI之镜又对我们的未来有什么样的威胁——这威胁和AI掌控未来的潜能没什么关系,反倒和我们放弃掌控未来的潜能大有关系。
简单地说,AI向善、智能向善,从根本上说以人类向善为前提,否则不可能实现。而现在的问题是:AI时代,人类放弃自己的责任,把问题推给AI而随波逐流,于是AI威胁便产生了。
这个观点与我不谋而合,好几年前我就写过《AI向善,还是人类向善》一文。
在瓦洛尔看来,AI之镜诱使人类陷入镜中,是所有AI威胁的根源:
那就是AI诱使我们陷入某种自我遗忘的能力——一种选择性遗忘,它削弱了我们对人类自身行动力的掌控,遮蔽了我们的自我认知。它是一种错觉,这种错觉能够使我们中间的技术能手沦陷,就像勒穆瓦纳所遭遇的一样——他发现自在和自己的倒影说话。
瓦勒瓦纳是谷歌工程师,2022年6月宣称大模型LaMDA有意识,一个月之后被辞退。
瓦洛尔对AI之镜的诱惑进行细致分析,提出许多非常有启发的见解。
首先,陷入AI之镜中,意味着陷入过去。大模型数据都是过去的数据,按照AI行事只能让未来重复过去。换言之,AI非常保守。
其次,AI会放大我们的既有缺陷。从本质上说,AI偏见不是电脑问题,而是人类价值观的问题。更准确的说,是一部分人的价值观的问题,因为训练大模型的数据主要是英语,源自以北半球年轻白人男性为主产生的数据。
再次,目前AI工具及其使用方式,正在损害人类德性。比如,依赖AI让我们失去想象力,削弱我们的实践智慧。再比如,出现AI反向适应问题,即不是AI增强人,而是人适应AI,结果人越来越像机器。也就是说,AI束缚了人。这便是我所称的“人的机器化”问题。
第四,AI决策或自动化决策非常危险。第一,AI黑箱导致不知道AI究竟如何决策的,很可能是胡说八道。瓦洛尔认为,大模型最让人担心的就是TA会出自本性地胡说八道。第二,AI决策被披上科学性的合法性外衣,很容易被人迷信。最近我非常关心这一问题,在很多场合揭示社会模拟器之类的AI4SS的问题,因为它被某些人吹得神乎其神。
第五,AI的自举困境。什么是自举困境?人类就现在这个德性,怎么可能凭着既有德性提升自己困境呢?现在想借助AI提升自己,AI就是个镜子,连自己都无法提升,如何能帮助人性提升呢?这个问题我常称之为实然与应然的差距问题。
第六,AI本无情,人把它当作共情之物即“共情盒”(瓦洛尔用这个词,明显想与“中文屋”相对照),产生大量问题。其中,瓦洛尔最关心的有两个:一是AI欺骗与操控,二是AI养育问题,即不是真情包围而是AI伪情陪伴长大的人会怎么样。
最后,陷入AI之镜中,觉得AI更了解人、了解我,结果是人类迷失、自我迷失。既然AI更了解人、了解我,那什么都听AI的好了,结果是人类放弃自己的道德责任。
这些批判有一个基本判断,我非常赞同,即AI威胁值得关注的根本不是什么奇点之后超级智能灭绝人类之类,而是AI正在从内部蚕食人性:
我们正受控于对人格日益深重、越来越迅速的机械化:具有反思性的洞察力被无脑预测系统取代,共享繁荣有效地让位于预期效用,人的创造力和开放式进步换成了内容传送上的本地优化。简言之,人的智慧对机器思考缴械投降。
这就是我常说的:未来智能社会最大的问题,不是机器人会变成人,而是人会变成机器。因此,瓦洛尔反对AI长期主义、加州意识形态,即要重点研究AI的生存性风险及其应对措施。
总的来说,瓦洛尔对AI威胁分析得不错,但对如何应对谈得很不够。不过,他也说不上怎么重塑法,简单提了一些想法:AI不要乱创新,先搞清楚创新的目标对不读;AI技术要与人文技术重新融合;把AI作为定位和纠正不公的工具使用,作为团结人类、团结社会的工具使用。宗旨,就是要主动重塑AI与人的关系:
完成必要的服务,让他人能够生存;包围他们不受伤害;修复和治愈;教育和训练;哺育、滋养和安抚——为了人性化的未来,AI可以被重塑,被重新构想为实现这些目的的工具,其衡量与价值仅在于它能否被证明服务于这些目的。只要我们选择。只要我们要求。
瓦洛尔的应对宗旨与我主要的AI发展的有限主义进路不尽相同。但是,他主张不能放任AI野蛮生长,对AI发展模式进行控制,与我的想法一致。瓦洛尔思考的许多问题与我重合,这些问题会在我的《AI与人性:AI时代的人心及其安顿》中讨论。我自信,我的讨论肯定比他要深刻,要清楚,更容易理解。
当然,这些并非我推荐《AI之镜》的主要理由,我推荐它主要还是因为该书提出许多发人深思的观点,是近来AI伦理研究领域少见的有真知灼见的好书。该书中文版发布会,本来请我讲讲的,结果schedule冲突了,有些遗憾。
![]()
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.