网易首页 > 网易号 > 正文 申请入驻

人机协同中的确定性与非确定性

0
分享至

在人机协同中,“知道”与“确定性”体现了人类与机器在认知上的差异。人类的“知道”基于主观参照系统,依赖个人经验、语言定义和逻辑推理,是逻辑与语言游戏在个人能动性中的体现。而机器的“知道”则基于客观规则系统,通过程序、算法和数据处理实现,是对输入的响应。两者虽在逻辑层次上有共通性,但参照系统的参与方式存在本质差异,即在人机协同中,“确定性”和“非确定性”与人和机的参照系密切相关。实际上,单独看一个偶然命题,很难说它是绝对确定的,人类判断命题的真假,其实是在依靠自己的参照系统和背景知识,而不是孤立地去确定它。

一、人机协同中的“确定性”与“非确定性”


1、人类的参照系与确定性、非确定性


人类的参照系是动态的、主观的,并且受到多种因素的影响。人类的认知和决策基于自身的经验、知识、情感、文化背景以及逻辑推理能力。

在人类的参照系中,确定性通常与经验、知识和逻辑推理相关。当人类遇到一个熟悉的问题时,会基于以往的经验和知识,通过逻辑推理得出一个确定的答案,比如,一个数学家在解决一个已知的数学问题时,会根据已有的数学定理和公式,通过逻辑推理得出一个确定的结果。人类的参照系也会导致非确定性,这种非确定性可能源于信息的不完整、知识的局限性、情感因素的干扰等,在面对一个全新的、复杂的问题时,人类可能无法立即得出确定的答案,因为缺乏足够的信息或经验。此外,情感因素也可能导致决策的非确定性。比如,在面对一个重要的决策时,人类可能会受到情绪的影响,从而无法做出完全理性的选择。

2、机器的参照系与确定性、非确定性


机器的参照系基于其编程、算法、数据和规则。机器的决策和行为是通过预设的逻辑和规则来实现的,这些逻辑和规则是人类设计并输入到机器中的。

在机器的参照系中,确定性主要体现在其对规则和算法的严格执行上。只要输入的数据符合预设的规则和算法,机器就能给出确定的结果,一个简单的计算器程序,只要输入正确的数学表达式,它就能准确地计算出结果。这种确定性是基于机器对规则的严格遵循,不受情感、主观因素的干扰。

机器的非确定性通常源于其对复杂问题的处理能力有限,或者在面对模糊、不确定的输入时无法给出明确的答案。一个自然语言处理系统在处理模糊的、有歧义的语句时,可能会出现非确定性。此外,机器的非确定性也可能源于其算法的局限性。例如,一些机器学习算法在面对新的、未见过的数据时,可能会出现不确定的预测结果。

3、人机协同中的“确定性”与“非确定性”


在人机协同中,人类和机器的参照系相互作用,共同影响着“确定性”与“非确定性”的表现。

人类和机器在确定性和非确定性方面具有互补性。人类在处理复杂问题、情感因素和创造性任务时具有优势,而机器在处理规则性、重复性和数据处理任务时表现出色。如在医疗诊断中,医生可以根据患者的症状、病史和经验做出初步判断,而机器可以通过分析大量的医疗数据,提供更精确的诊断建议。两者的结合可以提高诊断的准确性和可靠性。


在人机协同中,确定性和非确定性的处理可以通过协同决策来实现。人类可以根据机器提供的数据和分析结果,结合自己的经验和判断,做出更全面、更准确的决策。在自动驾驶汽车中,机器负责处理实时的路况数据和驾驶规则,而人类驾驶员可以根据机器提供的信息,结合自己的驾驶经验和直觉,做出最终的决策。


人机协同中的确定性和非确定性是一个动态过程。随着人类对机器的理解加深,机器的算法和规则不断优化,人机协同的效率和准确性也会不断提高。如随着人工智能技术的发展,机器在处理复杂问题和模糊输入方面的能力不断增强,人类和机器之间的协同也更加高效。

在人机协同中,“确定性”和“非确定性”与人和机的参照系密切相关。人类的参照系基于经验、知识和情感,而机器的参照系基于规则和算法。两者在确定性和非确定性方面具有互补性,通过协同决策和动态调整,可以实现更高效、更准确的人机协同。这种协同不仅能够充分发挥人类和机器的优势,还能克服各自的局限性,推动人机协同的发展。

二、人类的“知道”与相信有关

在人机协同中,人类的“知道”与“相信”确实密切相关。

1、人类的“知道”是什么?


人类的“知道”可以理解为人类对某种信息或事实的认知。你知道“今天是星期天”,你知道“水在0摄氏度时会结冰”。这些知识来自于你的经验、学习和推理。

2、人类的“相信”是什么?


人类的“相信”则是你对某个信息或事实的信任程度。比如,你相信“明天会是个好天气”,因为天气预报是这么说的。这种相信可能基于证据(比如天气预报),也可能基于直觉或经验。

3、“知道”与“相信”的关系


人类的“知道”往往是基于“相信”的。

(1)相信是知道的前提


假设你看到天气预报说“明天会下雨”,于是你相信了这个信息。因为你相信天气预报是可靠的,所以你才会“知道”明天可能会下雨。在这种情况下,你对天气预报的“相信”是让你“知道”明天可能下雨的前提。如果没有这种相信,你就不会把天气预报的内容当作知识来接受。


(2)知道可以强化相信


你相信天气预报说“明天下雨”,然后你出门的时候带了伞。结果,第二天真的下雨了。这次经历会让你更相信天气预报的可靠性。当你通过经验验证了你的“知道”是正确的,这种经历会反过来强化你对天气预报的“相信”。

4、人机协同中的“知道”与“相信”
在人机协同中,这种“知道”与“相信”的关系同样存在,而且非常重要。

(1)人类对机器的“相信”

你使用一个语音助手来查询某个信息。你相信这个语音助手能给你正确的答案,所以你才会去使用它。你对机器的“相信”让你愿意接受机器提供的信息,从而“知道”某些事情。如果你不信任机器,就不会把机器提供的信息当作知识来接受。

(2)机器的“知道”与人类的“相信”

机器学习模型可以识别图片中的物体。你可能会问机器“这是不是一只猫”,机器回答“是的”。你对机器的“相信”程度会影响你是否接受这个答案。机器的“知道”是基于它的算法和数据。如果你相信机器的算法和数据是可靠的,你就会接受机器的“知道”为真。

5. 复杂情况


在实际的人机协同中,情况会更复杂一些:

(1)人类可能会怀疑机器的“知道”


机器翻译工具有时候会翻译错误。你可能会对机器的翻译结果产生怀疑,因为你发现它不总是准确的。这种怀疑会影响你对机器“知道”的接受程度。你会更倾向于用自己的知识和经验去验证机器的结果,而不是直接接受它。

(2)机器可能无法理解人类的“相信”


你可能因为直觉觉得某个地方不安全,而机器却说那里很安全。机器是基于数据和算法得出结论的,它无法理解你的直觉。在这种情况下,人类的“相信”和机器的“知道”可能会冲突。人类可能会更依赖自己的直觉和经验,而不是完全听从机器的建议。

简言之,人类的“知道”往往基于“相信”,而“相信”又会影响人类对机器“知道”的接受程度。在人机协同中,这种关系非常重要。人类需要对机器有一定的“相信”,才能有效地利用机器的“知道”;同时,机器也需要理解人类的“相信”方式,才能更好地与人类协同工作。

三、机器的“知道”与确定性“知识”有关

在人机协同中,机器的“知道”与“确定性知识”紧密相关,而与“相信”的关系相对较小,这源于机器的运作方式和人类有本质的不同。

1、机器的“知道”是基于确定性知识的


机器的“知道”主要来自其内部的程序、算法、数据和规则。这些知识是预先设计好的,或者通过机器学习从大量数据中学习得到的。

预设程序,如一个计算器程序,它“知道”如何进行加减乘除运算,是因为它的程序里写好了这些运算规则。它会严格按照这些规则来处理输入的数据,给出确定的结果。

机器学习模型,如一个图像识别系统“知道”一张图片上是一只猫,是因为它在训练过程中学习了大量猫的图片特征。它通过这些特征来判断新的图片是否为猫,这种判断是基于数据和算法(或基于规则或基于统计概率)的。

这种“知道”是确定性的,因为它完全依赖于机器内部的逻辑和规则。只要输入符合规则,输出就是确定的。

2、机器的“知道”与“相信”关系不大


机器没有“相信”的概念,因为它们没有主观意识、情感或个人经验。机器只是按照预设的规则和算法来处理信息,不会像人类那样基于信任或怀疑来接受或拒绝信息。

人类可能会因为信任某个信息源而相信其提供的信息,或者因为怀疑某个信息而拒绝它。但机器不会这样,它不会“信任”或“怀疑”任何信息,它没有主观偏见,只是根据自己的规则来处理信息。比如,一个自动驾驶汽车系统“知道”如何识别交通信号,是因为它被编程了识别交通信号的规则。它不会“相信”交通信号是正确的,它只是按照规则去识别并做出反应。

3、人机协同中的具体情况


在人机协同中,这种差异会导致一些有趣的情况:

(1)人类需要“相信”机器,但机器不需要“相信”人类


① 人类对机器的信任:人类在使用机器时,需要对机器有一定的信任,才会愿意接受机器提供的信息或建议。比如,你使用一个导航软件,你需要相信它能给你正确的路线。


② 机器对人类的信任:机器不需要“相信”人类,它只是按照规则处理人类输入的信息。比如,你在自动驾驶汽车中输入目的地,汽车会按照预设的规则和算法来规划路线,不会“相信”你输入的信息是正确的,它只是按照规则去处理。

(2)机器的“知道”可能需要人类的验证


虽然机器的“知道”是基于确定性知识的,但人类可能仍然需要验证机器的结果,尤其是当机器的判断与人类的直觉或经验冲突时。比如,机器翻译软件可能会有错误,人类需要通过自己的知识和经验来判断翻译结果是否正确。

4. 例子


当你问语音助手“今天天气怎么样”,它会根据它的知识库给出答案。这个答案是基于确定性知识(天气预报数据)的。机器不需要“相信”天气预报,它只是按照规则处理这些数据。一个医疗诊断系统可以根据输入的症状和数据,给出可能的诊断结果。这个结果是基于机器学习模型和医学数据的,而不是基于“相信”医生提供的信息,但医生可能会根据自己的经验来验证这个结果。

从上述不难看出,在人机协同中,机器的“知道”是基于确定性知识的,而与“相信”关系不大。机器严格按照规则和算法处理信息,没有主观意识或情感。人类则需要对机器有一定的信任,才能有效地利用机器的“知道”。这种差异导致了人机协同中独特的互动方式,人类需要验证机器的结果,而机器则完全依赖于确定性的规则。

四、人机协同中的信任

在人机协同中,建立人机之间的相互信任是一个复杂但至关重要的任务,它涉及多个方面的考量,包括可解释性、常识、参照系、背景和学习等因素。


1、可解释性


可解释性是建立人机信任的关键因素之一。AI系统需要能够清晰地解释其决策过程和逻辑,让用户理解其行为。通过解释生成模型、特征可视化工具和因果路径追踪机制等手段,可以增强AI决策的透明度。这不仅有助于用户理解AI的决策,还能让用户在面对AI的建议时做出更合理的判断。例如,提供AI决策的置信度(如预测的准确率)也能帮助用户校准对AI的信任。

2、常识和背景


常识和背景信息对于人机协同至关重要。人类在使用AI时,会基于自己的常识和背景知识来评估AI的建议。如一个医疗诊断系统如果忽视了人类医生的常识和经验,可能会导致不准确的诊断。因此,AI系统需要能够理解并融入人类的常识和背景,这样才能更有效地与人类协同工作。此外,AI系统若能更好地理解和适应人类在不同情境下的行为模式,也能增进双方的信任。

3、参照系


参照系是人类理解世界和做出判断的基础。在人机协同中,人类和机器可能有着不同的参照系。人类的参照系基于个人经验和文化背景,而机器的参照系则是基于数据和算法。因此,要建立信任,需要在两者之间找到共同的参照系或建立有效的转换机制。例如,AI系统可以通过学习人类的行为模式和语言,更好地与人类的参照系对齐。

4、学习


学习能力对于人机协同中信任的建立也极为重要。AI系统需要能够通过学习来不断优化其决策过程,以更好地适应人类的需求。这包括对用户行为的学习和对新情境的适应。例如,通过社会性学习机制,AI可以根据每次互动经验更新对人类行为的理解模型,从而逐步优化合作策略。此外,AI系统还可以通过与人类的交互来学习人类的价值观和目标,从而更好地与人类协同工作。

5、互信的建立


建立人机相互信任需要多方面的努力。AI系统需要具备高度的透明度和可解释性,以便人类用户能够理解其决策过程。同时,AI系统需要能够适应人类的常识、背景和参照系,从而更好地与人类协同工作。此外,通过持续的学习和优化,AI系统可以不断提高自身的性能和可靠性,进而增强人类对AI的信任。

总而言之,在人机协同中,单独看一个偶然命题,很难说它是绝对确定的,人类判断命题的真假,其实是在依靠自己的参照系统和背景知识,而不是孤立地去确定它。可解释性帮助人类理解机器的决策依据,增强信任感;常识和背景知识让机器更好地融入人类的认知体系,提升协作的自然度;参照系的对齐确保了人类和机器在相同的基础上进行交流与决策;而学习能力则使机器能够不断适应新的情况和人类的需求。这些因素相互作用,共同促进了人机之间的相互信任。通过强化这些方面,可以构建更加高效、可靠且易于理解和协作的人机协同系统。



特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
《哈佛深红》丨前哈佛大学校长萨默斯追求中国女性时,爱泼斯坦是他的“僚机”

《哈佛深红》丨前哈佛大学校长萨默斯追求中国女性时,爱泼斯坦是他的“僚机”

邸报
2025-11-18 10:03:34
U22中国0-0乌兹别克斯坦U22无缘冠军,汪士钦报复推人染红

U22中国0-0乌兹别克斯坦U22无缘冠军,汪士钦报复推人染红

懂球帝
2025-11-18 21:33:16
特朗普竟然给克林顿吹过箫?!美国官方公开文件无意间泄露天机,特朗普被玩坏了

特朗普竟然给克林顿吹过箫?!美国官方公开文件无意间泄露天机,特朗普被玩坏了

西虹市闲话
2025-11-17 23:38:26
最新民调出炉,国民党支持率飙升;郑丽文提“一国两区”,不简单

最新民调出炉,国民党支持率飙升;郑丽文提“一国两区”,不简单

时时有聊
2025-11-18 19:55:39
刚刚,日本政坛传来最新消息,高市早苗又闯大祸:开响反华第二枪

刚刚,日本政坛传来最新消息,高市早苗又闯大祸:开响反华第二枪

小lu侃侃而谈
2025-11-18 19:25:22
里子面子都丢了,森林北公布体检结果,把汪峰的体面撕个粉碎

里子面子都丢了,森林北公布体检结果,把汪峰的体面撕个粉碎

鋭娱之乐
2025-11-18 12:44:19
城里没工打,村里无地种,冬已至,但真正的寒冬还未来临……

城里没工打,村里无地种,冬已至,但真正的寒冬还未来临……

村里的月光
2025-11-18 14:38:14
A股最低3926:股民准备,不出意外,明天,11月19日,可能这样走

A股最低3926:股民准备,不出意外,明天,11月19日,可能这样走

云鹏叙事
2025-11-18 16:01:45
孟加拉国前总理哈西娜被判死刑,中方回应

孟加拉国前总理哈西娜被判死刑,中方回应

政知新媒体
2025-11-18 16:44:49
重大风险警告!日本全境或变战场,中方14艘巨舰下水,反制将开始

重大风险警告!日本全境或变战场,中方14艘巨舰下水,反制将开始

云鹏叙事
2025-11-16 15:18:51
著名药物化学家李敏勇教授突发疾病逝世,年仅49岁

著名药物化学家李敏勇教授突发疾病逝世,年仅49岁

极目新闻
2025-11-18 09:42:29
中组部:公职人员退休后未经批准经商(包括当律师)的,不再保留党政机关退休金等待遇

中组部:公职人员退休后未经批准经商(包括当律师)的,不再保留党政机关退休金等待遇

新浪财经
2025-11-18 12:46:38
全运会乒乓球男团半决赛:北京队上海队成功会师决赛

全运会乒乓球男团半决赛:北京队上海队成功会师决赛

全景体育V
2025-11-18 20:02:29
大批中国人依然去日本旅游,被日媒看了笑话,记者采访道出心声

大批中国人依然去日本旅游,被日媒看了笑话,记者采访道出心声

奇思妙想草叶君
2025-11-18 01:27:22
假存款单租奔驰,连父母都是演员!湖北小伙被骗婚案一审开庭,被女方一句话“气笑了”

假存款单租奔驰,连父母都是演员!湖北小伙被骗婚案一审开庭,被女方一句话“气笑了”

潇湘晨报
2025-11-18 12:30:17
谁给张碧晨出的馊主意?这么有想象力衣服,太天马行空了!

谁给张碧晨出的馊主意?这么有想象力衣服,太天马行空了!

小椰的奶奶
2025-11-19 00:42:03
上位靠睡、赶走原配!刚拿金鸡奖影后的宋佳,私生活传闻有多离谱

上位靠睡、赶走原配!刚拿金鸡奖影后的宋佳,私生活传闻有多离谱

萧鑟科普解说
2025-11-18 10:02:39
刘强东三亚敬酒爆火:豪气干一壶酒,这才是大佬最真实的江湖气!

刘强东三亚敬酒爆火:豪气干一壶酒,这才是大佬最真实的江湖气!

商悟社
2025-11-18 14:32:26
东京餐厅厕所内樱花妹与黑人男友“15分钟激战”,老板怒挂全网后结局亮了...

东京餐厅厕所内樱花妹与黑人男友“15分钟激战”,老板怒挂全网后结局亮了...

今日日本
2025-11-18 14:16:22
外媒报道:中国进口14船美国大豆!但价格比巴西大豆要高?

外媒报道:中国进口14船美国大豆!但价格比巴西大豆要高?

王爷说图表
2025-11-18 17:42:17
2025-11-19 04:11:00
白驹谈人机 incentive-icons
白驹谈人机
人机交互与认知工程实验室
1685文章数 51关注度
往期回顾 全部

科技要闻

谷歌CEO警告:若AI泡沫破裂,没公司能幸免

头条要闻

27岁女孩家门口遇害 妈妈痛哭:墙上还有女儿血迹

头条要闻

27岁女孩家门口遇害 妈妈痛哭:墙上还有女儿血迹

体育要闻

结束最后一次对决,陈梦和朱雨玲笑着相拥

娱乐要闻

宋佳夺影后动了谁的奶酪

财经要闻

中美机器人爆发了一场论战

汽车要闻

硬核配置旗舰气场 岚图泰山售37.99万起

态度原创

手机
艺术
教育
房产
公开课

手机要闻

麒麟9030细节大揭秘:1+4+4满血规格,能否借此重振雄风?

艺术要闻

你绝对没见过!黎雄才山水画的独特魅力!

教育要闻

留学降温“AI化留学”泛滥海归人设崩塌?

房产要闻

29.4亿!海南“地王”片区,要卖超级宅地!

公开课

李玫瑾:为什么性格比能力更重要?

无障碍浏览 进入关怀版