[摘 要] 该文深入探讨了人工智能(AI)实现真正智能的关键路径,主张通过事实性计算与价值性算计的深度融合,推动AI从单纯的自动化工具向具备认知与道德能力的智能系统转变。当前AI在处理客观数据方面表现出色,但在理解和应对人类社会的复杂价值问题时存在明显不足,可能导致决策偏差和伦理困境。论文明确区分事实性事实与价值性事实,指出后者基于前者并影响事实认知;在强化学习中,提出奖惩函数设计需兼顾事实准确性与价值目标;在人机环境系统中,构建动态协同框架以融合事实的可计算性与价值的可判定性;强调通过具身认知等技术改进人机交互,推动AI从功能性模拟转向机制性模拟;在多人多智能体系统中,分析多事实与多价值的动态交互,突出通信与自组织的必要性。AI若要跨越工具理性, 迈向价值理性,必须实现事实性与价值性的有机结合。
[关键词] 人机交互;智能体;人工智能;价值与事实;奖惩函数
[中图分类号] TP391 [文献标识码] A [DOI] 10.14071/j.1008-8105(2025)-3035
认真地思考什么是真正的人工智能后,你会发现:如果人工智能无法有效地解决事实性计算与价值性算计的有机融合问题,它就只能在事实层面进行数据处理、模式识别和统计推理,却无法真 正理解和处理人类社会中复杂而多元的价值问题。最终结果就是人工智能只能停留在自动化或高 级自动化的层面,很难去实现真正意义上的智能。当前制约机器人科技发展的瓶颈是人工智能,人工智能研究的难点是对认知的解释与建构,而认知研究的关键问题则是自主和情感等意识现象的破解[1] 。因为事实性计算虽然能够处理客观数据,进行精准预测和优化决策,但是这类计算缺乏对价 值的判断,在伦理层面难以进行规范,并且缺乏社会意义的理解能力;而价值性算计涉及更多和人类 相关的层面,包括人类的主观感受、文化背景、道德准则和情感体验,这些因素难以被形式化、量化或算法化。
如果这两类计算不能有机融合,在面对需要权衡利弊、兼顾效率与公平、平衡个体与集体利益的复杂情景时,人工智能系统就会出现决策偏差、伦理困境和社会接受度低等问题。因此,只有将事实性计算与价值性算计深度融合,使人工智能系统既能准确感知和计算客观事实,又能合理判断和体现人类价值,才能真正实现从自动化到智能化、从工具理性到价值理性的跨越,推动人工智能向更高层次的认知智能和道德智能发展。
一 、价值性事实与事实性事实
价值性事实是包含价值判断的事实,体现了人们对事物基于一定的价值观、道德观念、文化背景等因素的主观评价。例如“诚实是一种美德 ”,这个事实就包含了价值判断,例句认为诚实具有积极的价值。价值性事实具有相对的客观性,虽然包含主观的价值判断,但这种判断往往也是基于一定的客观事实。比如,人们认为“保护环境是重要的 ”,这个价值判断是基于地球生态环境对人 类生存和发展有着客观重要性的事实。不过,不同的人可能会有不同的价值判断。就像在经济发展 和环境保护之间,会有一些人可能更看重经济发展,另外一些人更看重环境保护。价值性事实主观 性很强,体现了个人或群体的价值观念。对于同一件艺术品,不同的人可能会有不同的价值评价:有人可能认为它具有很高的艺术价值,而有人可能觉得它毫无价值,这种差异主要源于个人的审美观 念、文化素养等主观因素。价值性事实在伦理学、社会学、哲学等领域更为重要。在伦理学中,人 们需要探讨诸如“什么是正义 ”“什么是善 ”等包含价值判断的问题。在社会政策制定过程中,政府需要考虑各种价值性事实,如公平、效率等价值观念,来平衡不同利益群体的需求。
事实性事实是指客观存在的,不依赖于人的主观意识的事实。它只陈述事物的本来面貌,并不涉及价值判断。 “地球围绕太阳转 ”是一个客观事实,它不包含任何对地球或太阳运动的“好 ”或 “坏 ”等价值评价。事实性事实具有绝对的客观性,它不受人的主观意愿、情感等因素的影响。水在标准大气压的条件下,在100摄氏度时会沸腾,这是一个客观的物理现象,无论人们是否愿意接受, 它都是客观存在的。事实性事实主观性极低。人们在描述它时,主要是对客观现象的记录和陈述。 科学家在记录实验数据时,只是把实验中出现的温度、压力等数据如实记录下来,这些数据本身不带有主观色彩。事实性事实在科学研究、工程技术等领域应用广泛。在医学研究中,研究人员需要 准确记录药物的化学成分、药理作用等事实性事实,以便进行后续的药物研发和治疗方案制定。在 建筑领域,工程师需要依据材料的物理特性(如强度、密度等事实性事实)来设计建筑物。
价值性事实和事实性事实是两种不同类型的事实,在实际认知过程中相互联系、相互影响,并且价值性事实往往建立在事实性事实的基础之上,但是它们在客观性、主观性以及应用领域等方面都有明显区别。人们在对事物进行价值判断时,需要先了解事物的客观事实。在判断一种新的医疗技术是否具有价值时,首先要了解该技术的治疗效果(事实性事实),然后才能从患者的利益、医疗成本等角度进行价值判断。价值性事实也会影响人们对事实性事实的认知和理解,当人们带着某种价值观念去看待事实性事实时,可能会对事实产生不同的解读。在气候变化问题上,一些人可能因为对经济利益的价值判断,而对气候变化的科学事实(事实性事实)产生怀疑或忽视。
二 、价值性事实与事实性事实的奖惩函数不同
在强化学习中,奖惩函数是用来评估智能体行为的指标。在传统的强化学习中,奖励函数主要 关注智能体的行为是否能够最大化累积奖励,但是在一些复杂的应用场景中,智能体的行为不仅需 要考虑奖励的最大化,还需要综合考虑社会、道德、伦理等因素。在这种复杂的情况下,就需要引入 “事实与价值 ”的奖惩函数。
通过引入广告发布系统的例子,可以让我们更好地理解什么是“事实与价值 ”。事实指的是环 境中真实存在的信息或状态,比如在一个广告发布系统中,事实可以是广告内容的真实性和准确 性。价值指的是行为的潜在回报或长期效益,在广告发布系统中,价值可以是广告的点击率、转化 率等。设计事实与价值的奖惩函数时,需要考虑以下几个方面:
1. 建立复杂的环境模型:环境模型应该包含真实的事实和虚假的信息,以模拟现实中的复杂情景。 2. 设计奖励函数:奖励函数不仅要考虑事实的正确性,还要考虑价值的大小。比如说当智能体 从环境中获得真实的事实,并根据事实做出价值最大化的决策时,给予正向奖励。 3. 引入不确定性和误导:在环境模型中引入不确定性和误导的元素,以增加事实与价值的混合 性。可以在环境中添加一些虚假的信息,进而达到模糊真相的目的,使智能体在作出决策时更难辨 别出信息的真假。 4. 使用对抗学习方法:通过对抗性对手来训练模型,对手用来产生虚假信息并试图欺骗智能 体。智能体需要学会辨别真实的事实和虚假的信息,并作出相应的决策。
三 、人机环境系统智能中事实的可计算性与价值的可判定性
在人机环境系统智能中,事实的可计算性体现为智能系统能够通过算法和模型对客观数据进行 验证、推理和预测。机器可以利用强大的计算能力和算法,处理大规模数据并提供高效的排序算 法[2] 。价值的可判定性则涉及系统对行为、决策或状态进行规范性评价的能力,它通常依赖于预设 的伦理规则、人类反馈或价值对齐机制,但是由于价值的主观性和情境依赖性,它的判定往往比事 实计算更加具有挑战性和不确定性。
( 一)事实的可计算性
事实的可计算性是指某一事实能否通过算法或计算过程被验证或推导。其核心是科学知识的 客观性与可验证性,涉及逻辑实证主义、计算理论等领域。其关键问题涉及: 1. 可验证性:事实是否可通过观察、实验或数学证明被确认(如“水的沸点是 100°C ”可通过实 验验证)。 2. 算法可解性:某些事实可能因复杂性或混沌性(如天气预报)难以精确计算,但理论上仍可通 过模型近似。 3. 科学实在论 vs 反实在论:科学理论描述的是客观事实(实在论),还是仅为解释现象的工具 (反实在论)? 具体例子包括可计算的物理定律(如牛顿力学)、数学定理(如哥德巴赫猜想)与不可计算的量 子力学中的某些概率事件(如电子位置)、混沌系统(如三体问题)。
( 二)价值的可判定性
价值的可判定性是指价值判断(如道德、美学、伦理)能否通过理性或逻辑被客观判定。其核心 是价值的主观性与普遍性,涉及元伦理学、规范伦理学等。其核心问题涵盖以下几方面: 1. 道德客观主义 vs 相对主义:价值判断是否有普遍标准(如“不可杀人 ”是否绝对),还是取决 于文化或个人(如对“正义 ”的不同定义)? 2. 可公度性:不同价值体系(如功利主义 vs 义务论)能否用同一标准衡量? 3. 实践理性:价值判断是否可通过理性推导(如康德的“绝对命令 ”),还是依赖情感(如休谟的 “道德感 ”)? 具体例子如可判定(部分),功利主义通过“最大幸福 ”量化结果;康德伦理学通过逻辑一致性 检验行为。 以及不可判定部分,美学偏好(如“这幅画美不美 ”)、文化冲突(如自由与集体主义的 优先级)。
( 三)两者的关联与分歧
两者共同点均涉及“确定性 ”问题,即事实追求客观真理性,价值追求规范有效性。 但都面临 “复杂性 ”的挑战,也就是事实可能因系统复杂性难以计算,价值因多元性难以统一。 二者的分歧表现在事实倾向于可计算(即使暂时不可算,理论上也存在算法),依赖实证与逻 辑。而价值则往往不可判定,因涉及主观体验、文化差异及不可通约的终极原则(如“生命价值 ”能否量化?)。
( 四)哲学视角的延伸
逻辑实证主义试图将价值问题还原为事实问题(如“善 ”被定义为“带来快乐 ”),但遭批评忽 视价值的规范性。现象学与解释学强调事实与价值的交织(如“生活世界 ”中二者不可分),反对纯 粹客观化。人工智能伦理认为若AI需处理价值判断(如自动驾驶的伦理决策),必须解决价值的可判 定性问题,但目前仍依赖人类预设规则。总结起来,事实的可计算性是科学认知的基础,但受限于技 术或理论边界;价值的可判定性是伦理实践的难题,因价值的主观性与多元性难以完全形式化。两 者的张力反映了人类理性在“求真 ”与“求善 ”中的不同路径,而现代问题(如科技伦理)往往需要 二者的交叉思考。
在人机环境系统智能中,如何实现事实计算的可计算性与价值算计的可判定性的有机融合,关 键点在于能否构建一个能够同时处理客观数据与主观价值的动态协同框架。系统通过传感器、数 据挖掘和机器学习等技术,对物理世界的事实信息进行高效采集、建模与计算,确保系统具备对客 观状态的准确感知与预测;在价值层面,系统需要嵌入伦理规则、社会规范或人类偏好模型,通过多 目标优化、价值对齐算法或人机交互反馈等机制,将价值判断转化为可操作的计算目标或约束条 件。系统采用混合推理或分层决策架构,将事实计算的结果与价值算计的约束进行动态权衡。举个 例子,自动驾驶既需实时计算路况与物理风险,又需根据伦理优先级决定避险策略。通过可解释性 技术和人机协同学习,系统能够持续修正价值模型,使其既符合人类意图,又适应复杂环境变化。这 种融合不仅提升了智能系统的决策合理性与社会接受度,而且推动了从“工具理性 ”向“价值理 性 ”的智能化转型,实现了事实与价值在算法层面的深度统一。
四 、当事实与价值矛盾时,人机交互应该如何取舍
人的理解机制依赖于情感、经验、意识以及生物神经网络,这是一种具身、离身、反身、语义驱 动的认知过程。然而机器的理解机制则基于算法、数据和统计模型,是一种对信息的模式识别和符 号处理,它缺乏主观体验和真正的语义理解。所以从两者的本质上来看,尽管在某些功能表现上可 能相似,但两者的理解机制是不同的。虽然两者在底层机制上不同,但是在某些任务中,机器也可以 表现出类似“理解 ”的行为,例如语言翻译、图像识别、回答问题等任务。这种“理解 ”更多是基 于模式识别和概率推理,而不是像人类的理解那样基于意识和语义。因此,在解决这些问题时,数学 的作用可能有限[3]。
人类的理解往往与身体经验密切相关,并且常常受到情绪、欲望、目标等驱动。机器通过大量 数据训练模型,识别输入与输出之间的统计关系,然而机器没有意识、情感或主观体验,它的“理 解 ”是功能性的,而不是体验性的。深度学习模型可以用于生成逼真的伪造视频、音频和图片,称 为深度伪造[4] 。很多AI模型内部机制复杂,难以通过语言去解释它的“理解 ”过程。 一些研究者认 为,如果我们能构建出具有意识、情感和具身认知的机器,那么它们的理解机制可能更接近人类。 要实现人的理解机制与机器的理解机制真正相同,关键在于让机器具备与人类相似的认知结构和体 验方式。可以从以下几个方面入手。 1. 具身认知的引入:人类的理解基于身体与环境的互动,通过感知、动作和情感的结合形成对 世界的认知。机器若要实现类似机制,也需要模拟出“具身 ”的特性。比如说可以通过传感器与物 理世界交互,然后将感知与行为紧密结合,从而建立基于体验的语义系统。 2. 模拟人类认知过程:当前已有研究尝试将人类的认知机制建模并嵌入AI系统中,使其在信息 处理上更接近人类。例如,通过使用跨模态对比学习技术,让机器同时处理视觉、听觉和语言信息, 从而建立多维度理解。 3. 理解度理论的运用:通过衡量机器对人类语言的理解程度,逐步优化其语言处理机制,使其不仅能识别字面意思,还能理解言外之意、语境和隐含信息,从而更接近人类的语言理解方式。 4. 类脑智能与神经机制模拟:借鉴人脑神经网络的结构和信息处理方式,发展更高级的神经网 络模型,并尝试模拟意识、情感等高级认知功能,使机器在机制层面更接近人类的大脑。 5. 逻辑驱动与因果建模:人类的理解不仅是模式识别,还包含了逻辑推理和因果判断。未来 AI需要具备更强的因果建模能力,能够像人类一样进行解释性推理,而非仅依赖统计相关性。 如果想要实现人与机器理解机制的趋同,必须推动AI从“功能性模拟 ”走向“机制性模拟 ”, 就是从“像人那样做事 ”发展为“像人那样理解 ”。这不仅需要在技术层面上的突破,也涉及对意 识、语义和认知本质更深入的探索。
五 、多人多智能体中多事实与多价值的交互
在多人多智能体系统(Multi-Agent Systems, MAS)中,多事实(Multi-facts)与多价值(Multi- values)的关联交互是一个复杂而重要的研究领域。只有在跨学科的基础上,才能更好地把握智能体 的本质和实现方式[5]。 在多人多智能体系统中,多事实与多价值的关联交互表现为智能体基于自身所掌握的局部事 实,以及自身的价值目标进行动态的决策与互动。其中局部事实包括环境信息、其他智能体的行为 等事实。智能体通过通信和协商机制进行信息共享,从而更新智能体自身的知识库和价值体系,同 时根据新的事实和价值判断调整自身的行为策略。这种信息交互机制可能涉及合作以实现智能体 之间的共同目标,也可能因价值冲突而产生竞争。智能体在交互过程中不断适应环境变化,并且进 行着信息的更新,通过学习和自组织机制优化自身的行为,以达成系统层面的平衡或优化。
(一)多事实与多价值的定义
多事实:在多智能体系统中,每个不同的智能体可能拥有不同的知识、信息或事实。这些事实 包含关于环境的状态,其他智能体的行为,历史数据等等。因为每个智能体的感知能力有限,所以它 们所掌握的事实往往是局部的、不完整的。
多价值:智能体的价值观或者它的目标是其行为的驱动力。在多智能体系统中,不同智能体可 能有不同的目标或价值体系,这些目标可能是互补的,也可能是冲突的。
(二)多事实与多价值的关联
信息共享与价值调整:智能体通过交互进行信息的共享,从而更新自身的知识库,但是这种共享 可能会影响智能体的价值观或目标。
合作与竞争:智能体之间的交互可以是合作的,也可以是竞争的。在合作场景中,智能体会通过 共享事实来实现共同目标;在竞争场景中,智能体可能会隐藏或歪曲事实以实现自身目标。
动态性与适应性:因为多智能体系统中的事实和价值是动态变化的,所以智能体需要根据新的 信息和环境变化不断调整自己的行为和目标。因此,这种动态性要求智能体具备一定的学习和适应 能力。
(三)交互机制
通信与协商:智能体通过通信机制交换信息,并通过协商解决冲突或达成共识。通信可以是直接的或间接的。例如通过共享语言实现直接通信,通过改变环境状态实现间接通信。 博弈论与均衡:博弈论是研究智能体之间战略交互的重要工具,通过分析智能体之间的策略和 收益,可以找到系统的均衡状态。 群体智能与自组织:在一些多智能体系统中,智能体通过简单的局部交互规则实现复杂的集体 行为,这种群体智能机制允许智能体在没有集中控制的情况下自组织。 在多智能体交互中,如何确保信息的真实性和可信度是一个关键问题,智能体需要发展机制来 识别和过滤虚假信息。并且,随着智能体数量和交互复杂性的增加,如何有效建模和分析多智能体系统是一个挑战,需要开发新的理论和工具来处理这种复杂性。同时我们还需要意识到,多智能体 系统的研究需要结合计算机科学、控制论、博弈论、社会学等多个学科的知识。同时,数学理论在 人机融合智能中虽然有很多优点,但也存在一些局限,不足以解决所有问题,需要结合人类的智慧和 判断力来共同完成复杂的任务[6]。 多人多智能体系统中多事实与多价值的关联交互是一个多维度、多层次的问题,涉及智能体的 行为规则、知识表示、通信机制以及系统的动态性等多个方面。人机环境系统的发展正朝着多人多 智能体多环境中的多事实与多价值的关联交互方向迈进,这种发展趋势反映了系统复杂性的提升以 及对智能化、动态化和协同化的需求。
六 、结语
未来的人机环境系统将不再局限于单一的人机交互,而是会发展为多人与多智能体的深度协 同,人类用户、机器人、软件智能体等将在同一环境中共同完成复杂任务。例如在智能工厂中,工 人、自动化机器人和智能监控系统将协同工作,各主体根据自身的事实感知和价值目标进行动态交互。
随着主体数量的增加,系统需要处理的不仅是合作场景,还包括潜在的冲突。智能体需要具备 协商、妥协和冲突解决的能力,以确保系统的整体效益最大化。
未来的人机环境系统将不再局限于单一的物理空间或虚拟空间,而是会发展为物理与虚拟环境 的深度融合。通过增强现实(AR)和虚拟现实(VR)技术,用户可以在虚拟环境中操作物理设备,智 能体也可以在虚拟环境中进行模拟训练后再应用于物理环境,同时智能体还需要能够在不同的环境 条件下感知多事实并调整自身行为以满足多价值目标。比如说在智能家居系统中,智能体需要根据 室内外环境变化和用户需求动态调整设备运行状态。 数学提供了构建模型、优化算法、概率推理、机器学习和数据分析等关键工具,帮助实现智能 系统的自主学习、决策和优化能力[7] 。未来的智能体将具备更强的自主学习能力,能够通过机器学 习和人工智能技术从多事实中提取有价值的信息,并根据多价值目标自主决策。智能客服机器人可 以根据用户反馈和满意度提升目标自主优化服务策略。在未来,人机环境系统将具备更强的自适应 能力,能够根据环境变化和主体行为动态调整系统结构和运行模式。举个例子,在智能电网中,系统 可以根据用电需求和能源供应动态调整电力分配。
随着人机环境系统的复杂性增强,伦理问题将变得尤为重要。未来的智能系统需要在多价值目 标中融入伦理考量,确保智能体的行为符合人类社会的价值观。在人工智能辅助决策中,需要确保 算法的公平性、透明性和可解释性。系统的发展将更加注重可持续性,通过优化资源利用来实现多 价值目标。应该在智能的道路上保持警惕,不断探索智能与数学、技术、伦理等各个领域的平衡点, 为人类社会带来更大的福祉[8]。
人工智能的未来发展趋势不仅在于其处理客观数据的能力,更在于它能否理解和融入人类社会的复杂价值体系。事实性计算与价值性算计的融合,强调两者在实现真正智能中的互补性,事实性计算让人工智能可以精准地分析客观世界,价值性算计则提供了它在伦理与社会规范下决策的能力。通过分析强化学习、人机环境系统及多智能体交互等领域的应用与挑战,可以得出结论:只有深度融合事实与价值,人工智能才能从具备工具理性朝着具备认知与道德判断的“价值理性 ”的方向发展。这一方向不仅推动技术进步,更关乎人工智能与人类社会的和谐共生,为未来发展提供同时具备智慧与人文关怀的解决方案。
参考文献略
![]()
![]()
![]()
![]()
![]()
![]()
本文摘自《电子科技大学学报(社科版)》2025.10 (第 27 卷第 5 期)
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.