![]()
当大语言模型在几秒钟内就写出了一篇优秀的学术论文;当生成式AI创作出能够获奖的绘画与音乐;当算法决定我们看什么新闻、买什么商品甚至和谁约会时,我们正在经历人类历史上最深刻的一次技术革命。然而,在这场被资本和技术精英描绘为“人类文明新纪元”的狂欢背后,一场悄然而巨大的主体性危机正在蔓延。
人的主体性,即人作为认识世界、改造世界的能动者,具有自我意识、自由意志、创造性和道德责任的独特存在属性,正面临着前所未有的挑战。AI的泛滥不再仅仅是技术工具的普及,而是一场对“人之所以为人”的根本性挑战。
一、认知主体性的消解——从“思考者”到“查询者”
1.1 思维能力的外包与退化
人类认知能力的发展源于不断的思考、探索和犯错。然而,AI的出现使得人类可以轻易地将复杂的认知任务外包给算法。学生用豆包写作业和论文,职场人用 AI 写报告和方案,甚至连情感表达都要依赖AI的“灵感”。
这种“认知外包”正在导致人类思维能力的系统性退化。心理学研究早已证实的“谷歌效应”表明,长期依赖搜索引擎会使人们不再记忆信息本身,而是记忆信息的存储位置。大语言模型则将这一效应推向了极致:人们不再需要理解问题、分析问题和解决问题,只需要向AI发出指令,就能得到现成的答案。
更严重的是,AI正在消解人类的批判性思维能力。大语言模型生成的内容往往看似逻辑严密、论据充分,但实际上可能充满了幻觉、偏见和错误。然而,大多数用户缺乏辨别这些问题的能力和意愿,他们将AI的输出视为“权威答案”,盲目接受,逐渐丧失了独立思考和质疑的能力。
1.2 想象力与创造力的贫困
真正的创造力源于人类独特的生命体验、情感共鸣和对未知世界的好奇。AI的“创造力”本质上是对人类已有作品的统计性模仿和重组,它没有真正的理解,没有情感,也没有对世界的亲身感受。
然而,AI生成内容的泛滥正在挤压人类真正的创造空间。当AI可以在几秒钟内生成成千上万幅画作、谱写无数首乐曲时,人类艺术家的劳动价值被严重贬低。更可怕的是,年轻一代正在失去进行原创性创造的动力和能力。他们习惯于从AI那里获取“创意”,而不是从自己的生活和内心深处寻找灵感。
这种创造力的贫困不仅体现在艺术领域,也体现在科学研究和技术创新中。当科学家们越来越依赖AI来分析数据、提出假设时,他们可能会逐渐丧失那种能够带来重大突破的直觉和洞察力。科学史上那些伟大的发现,往往不是逻辑推理的结果,而是源于科学家们独特的想象力和灵感迸发,而这些恰恰是AI无法复制的。
二、实践主体性的异化——从“创造者”到“消费者”
2.1 劳动的异化与意义的丧失
马克思在《1844年经济学哲学手稿中深刻地批判了资本主义条件下劳动的异化。AI的出现则将劳动异化推向了一个新的高度。在AI时代,越来越多的脑力劳动正在被AI替代。程序员用AI写代码,设计师用AI做设计,医生用AI诊断疾病,律师用AI分析案例。劳动不再是人的本质力量的对象化,不再是自我实现的途径。
当人类的劳动被AI接管后,人们面临的不仅仅是失业问题,更是存在意义的根本危机。千百年来,人类通过劳动来确证自己的存在,通过创造来实现自己的价值。如果有一天,所有有价值的劳动都可以由AI来完成,那么人类存在的意义是什么?
2.2 资本对人的更深层次控制
AI技术的发展从一开始就遵循着资本的逻辑。大型科技公司投入巨额资金研发AI,不是为了造福人类,而是为了获取更大的利润。AI成为了资本控制人的新工具,而且这种控制比以往任何时候都更加隐蔽和深入。算法通过收集和分析用户的海量数据,精准地预测用户的行为和偏好,然后推送个性化的内容和广告。这种“精准推送”表面上是为了满足用户的需求,实际上是在塑造用户的需求,控制用户的注意力,最终将用户转化为资本的利润来源。
更可怕的是,资本正在利用AI技术实现对劳动过程的全面监控和管理。在工厂里,AI摄像头监控工人的每一个动作;在办公室里,AI系统分析员工的工作效率和情绪状态;在平台经济中,算法决定着骑手和司机的工作时间和收入。劳动者在AI的监控下,变成了没有自由、没有尊严的“数字劳工”。
三、道德主体性的沦丧——从“责任者”到“旁观者”
3.1 算法决策与责任黑洞
道德主体性的核心是自由意志和道德责任。人之所以要为自己的行为负责,是因为人有选择的自由。然而,当越来越多的决策被交给算法时,道德责任的归属变得模糊不清。
当自动驾驶汽车发生事故时,责任应该由谁来承担?是车主、汽车制造商、软件开发商还是算法本身?当AI系统在招聘中歧视女性、在司法审判中偏袒富人时,谁应该为这些不公正的结果负责?
目前,这些问题还没有明确的答案。而这种“责任黑洞”正在导致人类道德责任的推卸。人们习惯于将错误归咎于算法,而不是反思自己的责任。久而久之,人类将逐渐丧失道德判断和道德担当的能力,变成冷漠的“旁观者”。
3.2 情感的虚拟化与道德冷漠
AI的“拟主体性”特征使得它能够模拟人类的情感和行为。AI聊天机器人可以陪人聊天、安慰人,甚至可以扮演恋人、朋友和家人的角色。然而,这种虚拟的情感交流正在扭曲人类真实的情感体验。
当人们习惯于与没有真正情感的AI进行交流时,他们对真实人际关系的需求会逐渐降低。他们会变得越来越孤独,越来越难以理解和共情他人的感受。这种情感的虚拟化最终会导致道德冷漠——人们对他人的痛苦和不幸无动于衷,因为他们已经失去了真正的情感能力。
四、交往主体性的扭曲——从“共在者”到“孤立者”
4.1 虚假的主体间性
哈贝马斯认为,主体间性是人与人之间通过语言进行平等、真诚的交流和对话而形成的相互理解和共识。真正的主体间性建立在相互尊重、相互理解和相互承认的基础上。
然而,AI介导的交往正在制造一种虚假的主体间性。AI可以模拟人类的语言和行为,但它没有真正的自我意识,也不能真正理解人类的思想和情感。与AI的交流本质上是人与物的交流,而不是人与人的交流。
这种虚假的主体间性正在取代真实的人际交往。人们越来越喜欢在网上与 AI 聊天,而不愿意与身边的人进行面对面的交流。他们在虚拟世界中获得了虚假的满足感,却在现实世界中变得越来越孤独。
4.2 社会联结的原子化
AI算法的个性化推荐机制正在加剧社会的分化和原子化。算法根据用户的偏好推送内容,使得每个人都生活在自己的“信息茧房”中。人们只看到自己想看到的东西,只听到自己想听到的声音,逐渐失去了与不同观点、不同背景的人交流和沟通的能力。
这种“信息茧房”效应导致社会共识的破裂和群体的极化。不同群体之间相互误解、相互敌视,甚至发生冲突。而AI的泛滥则进一步加剧了这一趋势,使得社会变得越来越分裂,越来越难以形成共同的价值和目标。
五、如何在AI时代捍卫人的主体性
5.1 确立“人是目的”的根本原则
康德的“人是目的”的道德律令,在AI时代具有更加重要的意义。我们必须明确,技术是为人服务的工具,而不是反过来,人成为技术的奴隶。任何技术的发展都不能以牺牲人的主体性为代价。
这就要求我们在发展AI技术时,必须将人的尊严、自由和全面发展作为最高的价值标准。我们不能仅仅追求技术的进步和经济的增长,而忽视了技术对人的影响。对于那些可能严重威胁人的主体性的 AI 技术,我们应该坚决予以限制甚至禁止。
5.2 重建人的认知与实践能力
面对AI对人类认知和实践能力的侵蚀,我们必须主动采取措施,重建人的主体性。在教育领域,应该改变传统的应试教育模式,更加注重培养学生的批判性思维、创造力和实践能力。应该鼓励学生独立思考、大胆质疑、勇于探索,而不是盲目接受现成的答案。
在社会层面,我们应该创造更多的机会让人们参与到创造性的劳动和实践中去。我们应该尊重劳动者的价值,让劳动重新成为自我实现的途径。同时,我们也应该倡导一种健康的生活方式,鼓励人们多进行面对面的交流和沟通,多参与社会实践和公益活动,在真实的生活中体验生命的意义和价值。
5.3 构建以人为本的AI治理体系
现有的AI治理体系大多关注技术的安全性和可靠性,而忽视了对人的主体性的保护。我们需要构建一种以人为本的AI治理体系,将人的主体性作为AI治理的核心目标。
这就要求我们建立健全相关的法律法规,明确AI技术的应用边界和责任归属。我们应该加强对 AI 技术的监管,防止资本滥用AI技术侵犯人的权利和自由。同时,我们也应该鼓励公众参与AI治理,让不同利益相关者都能够发出自己的声音,确保AI技术的发展符合大多数人的利益。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.