在人机协同中,“知道”与“确定性”体现了人类与机器在认知上的差异。人类的“知道”基于主观参照系统,依赖个人经验、语言定义和逻辑推理,是逻辑与语言游戏在个人能动性中的体现。而机器的“知道”则基于客观规则系统,通过程序、算法和数据处理实现,是对输入的响应。两者虽在逻辑层次上有共通性,但参照系统的参与方式存在本质差异,即在人机协同中,“确定性”和“非确定性”与人和机的参照系密切相关。实际上,单独看一个偶然命题,很难说它是绝对确定的,人类判断命题的真假,其实是在依靠自己的参照系统和背景知识,而不是孤立地去确定它。
一、人机协同中的“确定性”与“非确定性”
1、人类的参照系与确定性、非确定性
人类的参照系是动态的、主观的,并且受到多种因素的影响。人类的认知和决策基于自身的经验、知识、情感、文化背景以及逻辑推理能力。
在人类的参照系中,确定性通常与经验、知识和逻辑推理相关。当人类遇到一个熟悉的问题时,会基于以往的经验和知识,通过逻辑推理得出一个确定的答案,比如,一个数学家在解决一个已知的数学问题时,会根据已有的数学定理和公式,通过逻辑推理得出一个确定的结果。人类的参照系也会导致非确定性,这种非确定性可能源于信息的不完整、知识的局限性、情感因素的干扰等,在面对一个全新的、复杂的问题时,人类可能无法立即得出确定的答案,因为缺乏足够的信息或经验。此外,情感因素也可能导致决策的非确定性。比如,在面对一个重要的决策时,人类可能会受到情绪的影响,从而无法做出完全理性的选择。
2、机器的参照系与确定性、非确定性
机器的参照系基于其编程、算法、数据和规则。机器的决策和行为是通过预设的逻辑和规则来实现的,这些逻辑和规则是人类设计并输入到机器中的。
在机器的参照系中,确定性主要体现在其对规则和算法的严格执行上。只要输入的数据符合预设的规则和算法,机器就能给出确定的结果,一个简单的计算器程序,只要输入正确的数学表达式,它就能准确地计算出结果。这种确定性是基于机器对规则的严格遵循,不受情感、主观因素的干扰。
机器的非确定性通常源于其对复杂问题的处理能力有限,或者在面对模糊、不确定的输入时无法给出明确的答案。一个自然语言处理系统在处理模糊的、有歧义的语句时,可能会出现非确定性。此外,机器的非确定性也可能源于其算法的局限性。例如,一些机器学习算法在面对新的、未见过的数据时,可能会出现不确定的预测结果。
3、人机协同中的“确定性”与“非确定性”
在人机协同中,人类和机器的参照系相互作用,共同影响着“确定性”与“非确定性”的表现。
人类和机器在确定性和非确定性方面具有互补性。人类在处理复杂问题、情感因素和创造性任务时具有优势,而机器在处理规则性、重复性和数据处理任务时表现出色。如在医疗诊断中,医生可以根据患者的症状、病史和经验做出初步判断,而机器可以通过分析大量的医疗数据,提供更精确的诊断建议。两者的结合可以提高诊断的准确性和可靠性。
在人机协同中,确定性和非确定性的处理可以通过协同决策来实现。人类可以根据机器提供的数据和分析结果,结合自己的经验和判断,做出更全面、更准确的决策。在自动驾驶汽车中,机器负责处理实时的路况数据和驾驶规则,而人类驾驶员可以根据机器提供的信息,结合自己的驾驶经验和直觉,做出最终的决策。
人机协同中的确定性和非确定性是一个动态过程。随着人类对机器的理解加深,机器的算法和规则不断优化,人机协同的效率和准确性也会不断提高。如随着人工智能技术的发展,机器在处理复杂问题和模糊输入方面的能力不断增强,人类和机器之间的协同也更加高效。
在人机协同中,“确定性”和“非确定性”与人和机的参照系密切相关。人类的参照系基于经验、知识和情感,而机器的参照系基于规则和算法。两者在确定性和非确定性方面具有互补性,通过协同决策和动态调整,可以实现更高效、更准确的人机协同。这种协同不仅能够充分发挥人类和机器的优势,还能克服各自的局限性,推动人机协同的发展。
二、人类的“知道”与相信有关
在人机协同中,人类的“知道”与“相信”确实密切相关。
1、人类的“知道”是什么?
人类的“知道”可以理解为人类对某种信息或事实的认知。你知道“今天是星期天”,你知道“水在0摄氏度时会结冰”。这些知识来自于你的经验、学习和推理。
2、人类的“相信”是什么?
人类的“相信”则是你对某个信息或事实的信任程度。比如,你相信“明天会是个好天气”,因为天气预报是这么说的。这种相信可能基于证据(比如天气预报),也可能基于直觉或经验。
3、“知道”与“相信”的关系
人类的“知道”往往是基于“相信”的。
(1)相信是知道的前提
假设你看到天气预报说“明天会下雨”,于是你相信了这个信息。因为你相信天气预报是可靠的,所以你才会“知道”明天可能会下雨。在这种情况下,你对天气预报的“相信”是让你“知道”明天可能下雨的前提。如果没有这种相信,你就不会把天气预报的内容当作知识来接受。
(2)知道可以强化相信
你相信天气预报说“明天下雨”,然后你出门的时候带了伞。结果,第二天真的下雨了。这次经历会让你更相信天气预报的可靠性。当你通过经验验证了你的“知道”是正确的,这种经历会反过来强化你对天气预报的“相信”。
4、人机协同中的“知道”与“相信”
在人机协同中,这种“知道”与“相信”的关系同样存在,而且非常重要。
(1)人类对机器的“相信”
你使用一个语音助手来查询某个信息。你相信这个语音助手能给你正确的答案,所以你才会去使用它。你对机器的“相信”让你愿意接受机器提供的信息,从而“知道”某些事情。如果你不信任机器,就不会把机器提供的信息当作知识来接受。
(2)机器的“知道”与人类的“相信”
机器学习模型可以识别图片中的物体。你可能会问机器“这是不是一只猫”,机器回答“是的”。你对机器的“相信”程度会影响你是否接受这个答案。机器的“知道”是基于它的算法和数据。如果你相信机器的算法和数据是可靠的,你就会接受机器的“知道”为真。
5. 复杂情况
在实际的人机协同中,情况会更复杂一些:
(1)人类可能会怀疑机器的“知道”
机器翻译工具有时候会翻译错误。你可能会对机器的翻译结果产生怀疑,因为你发现它不总是准确的。这种怀疑会影响你对机器“知道”的接受程度。你会更倾向于用自己的知识和经验去验证机器的结果,而不是直接接受它。
(2)机器可能无法理解人类的“相信”
你可能因为直觉觉得某个地方不安全,而机器却说那里很安全。机器是基于数据和算法得出结论的,它无法理解你的直觉。在这种情况下,人类的“相信”和机器的“知道”可能会冲突。人类可能会更依赖自己的直觉和经验,而不是完全听从机器的建议。
简言之,人类的“知道”往往基于“相信”,而“相信”又会影响人类对机器“知道”的接受程度。在人机协同中,这种关系非常重要。人类需要对机器有一定的“相信”,才能有效地利用机器的“知道”;同时,机器也需要理解人类的“相信”方式,才能更好地与人类协同工作。
三、机器的“知道”与确定性“知识”有关
在人机协同中,机器的“知道”与“确定性知识”紧密相关,而与“相信”的关系相对较小,这源于机器的运作方式和人类有本质的不同。
1、机器的“知道”是基于确定性知识的
机器的“知道”主要来自其内部的程序、算法、数据和规则。这些知识是预先设计好的,或者通过机器学习从大量数据中学习得到的。
预设程序,如一个计算器程序,它“知道”如何进行加减乘除运算,是因为它的程序里写好了这些运算规则。它会严格按照这些规则来处理输入的数据,给出确定的结果。
机器学习模型,如一个图像识别系统“知道”一张图片上是一只猫,是因为它在训练过程中学习了大量猫的图片特征。它通过这些特征来判断新的图片是否为猫,这种判断是基于数据和算法(或基于规则或基于统计概率)的。
这种“知道”是确定性的,因为它完全依赖于机器内部的逻辑和规则。只要输入符合规则,输出就是确定的。
2、机器的“知道”与“相信”关系不大
机器没有“相信”的概念,因为它们没有主观意识、情感或个人经验。机器只是按照预设的规则和算法来处理信息,不会像人类那样基于信任或怀疑来接受或拒绝信息。
人类可能会因为信任某个信息源而相信其提供的信息,或者因为怀疑某个信息而拒绝它。但机器不会这样,它不会“信任”或“怀疑”任何信息,它没有主观偏见,只是根据自己的规则来处理信息。比如,一个自动驾驶汽车系统“知道”如何识别交通信号,是因为它被编程了识别交通信号的规则。它不会“相信”交通信号是正确的,它只是按照规则去识别并做出反应。
3、人机协同中的具体情况
在人机协同中,这种差异会导致一些有趣的情况:
(1)人类需要“相信”机器,但机器不需要“相信”人类
① 人类对机器的信任:人类在使用机器时,需要对机器有一定的信任,才会愿意接受机器提供的信息或建议。比如,你使用一个导航软件,你需要相信它能给你正确的路线。
② 机器对人类的信任:机器不需要“相信”人类,它只是按照规则处理人类输入的信息。比如,你在自动驾驶汽车中输入目的地,汽车会按照预设的规则和算法来规划路线,不会“相信”你输入的信息是正确的,它只是按照规则去处理。
(2)机器的“知道”可能需要人类的验证
虽然机器的“知道”是基于确定性知识的,但人类可能仍然需要验证机器的结果,尤其是当机器的判断与人类的直觉或经验冲突时。比如,机器翻译软件可能会有错误,人类需要通过自己的知识和经验来判断翻译结果是否正确。
4. 例子
当你问语音助手“今天天气怎么样”,它会根据它的知识库给出答案。这个答案是基于确定性知识(天气预报数据)的。机器不需要“相信”天气预报,它只是按照规则处理这些数据。一个医疗诊断系统可以根据输入的症状和数据,给出可能的诊断结果。这个结果是基于机器学习模型和医学数据的,而不是基于“相信”医生提供的信息,但医生可能会根据自己的经验来验证这个结果。
从上述不难看出,在人机协同中,机器的“知道”是基于确定性知识的,而与“相信”关系不大。机器严格按照规则和算法处理信息,没有主观意识或情感。人类则需要对机器有一定的信任,才能有效地利用机器的“知道”。这种差异导致了人机协同中独特的互动方式,人类需要验证机器的结果,而机器则完全依赖于确定性的规则。
四、人机协同中的信任
在人机协同中,建立人机之间的相互信任是一个复杂但至关重要的任务,它涉及多个方面的考量,包括可解释性、常识、参照系、背景和学习等因素。
1、可解释性
可解释性是建立人机信任的关键因素之一。AI系统需要能够清晰地解释其决策过程和逻辑,让用户理解其行为。通过解释生成模型、特征可视化工具和因果路径追踪机制等手段,可以增强AI决策的透明度。这不仅有助于用户理解AI的决策,还能让用户在面对AI的建议时做出更合理的判断。例如,提供AI决策的置信度(如预测的准确率)也能帮助用户校准对AI的信任。
2、常识和背景
常识和背景信息对于人机协同至关重要。人类在使用AI时,会基于自己的常识和背景知识来评估AI的建议。如一个医疗诊断系统如果忽视了人类医生的常识和经验,可能会导致不准确的诊断。因此,AI系统需要能够理解并融入人类的常识和背景,这样才能更有效地与人类协同工作。此外,AI系统若能更好地理解和适应人类在不同情境下的行为模式,也能增进双方的信任。
3、参照系
参照系是人类理解世界和做出判断的基础。在人机协同中,人类和机器可能有着不同的参照系。人类的参照系基于个人经验和文化背景,而机器的参照系则是基于数据和算法。因此,要建立信任,需要在两者之间找到共同的参照系或建立有效的转换机制。例如,AI系统可以通过学习人类的行为模式和语言,更好地与人类的参照系对齐。
4、学习
学习能力对于人机协同中信任的建立也极为重要。AI系统需要能够通过学习来不断优化其决策过程,以更好地适应人类的需求。这包括对用户行为的学习和对新情境的适应。例如,通过社会性学习机制,AI可以根据每次互动经验更新对人类行为的理解模型,从而逐步优化合作策略。此外,AI系统还可以通过与人类的交互来学习人类的价值观和目标,从而更好地与人类协同工作。
5、互信的建立
建立人机相互信任需要多方面的努力。AI系统需要具备高度的透明度和可解释性,以便人类用户能够理解其决策过程。同时,AI系统需要能够适应人类的常识、背景和参照系,从而更好地与人类协同工作。此外,通过持续的学习和优化,AI系统可以不断提高自身的性能和可靠性,进而增强人类对AI的信任。
总而言之,在人机协同中,单独看一个偶然命题,很难说它是绝对确定的,人类判断命题的真假,其实是在依靠自己的参照系统和背景知识,而不是孤立地去确定它。可解释性帮助人类理解机器的决策依据,增强信任感;常识和背景知识让机器更好地融入人类的认知体系,提升协作的自然度;参照系的对齐确保了人类和机器在相同的基础上进行交流与决策;而学习能力则使机器能够不断适应新的情况和人类的需求。这些因素相互作用,共同促进了人机之间的相互信任。通过强化这些方面,可以构建更加高效、可靠且易于理解和协作的人机协同系统。
![]()
![]()
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.