近日,中国科学院心理研究所胡理团队在《科学通报》发表了题为“人类与人工智能在社会互动中合作行为的异同与挑战”的评述论文。文章梳理合作研究的经典范式,提出涵盖策略构建、行为执行和结果评估与学习的三阶段合作框架,比较人际与人机合作在行为模式和机制上的异同,为优化人机协作提出多维建议。
从远古狩猎的协同,到当今复杂的全球治理,合作是推动人类不断前行的内在力量。如今,随着人工智能(artificial intelligence, AI),特别是大语言模型(large language models, LLMs)的飞速发展,我们正迈入一个前所未有的“人机共存”时代。在这个变革的时代,社会交互的边界被持续拓展,AI的角色也在悄然演变,它不再仅仅是工具,而逐步成为能够承担广泛而重要社会互动的关键角色。这一深刻变革下,一个核心问题逐渐浮现:当社会互动的对象扩展至智能体,AI看似“类人”的能力与其“非人”的本质将如何重塑社会互动?当合作的舞台不再只属于“人类”,其内在机制和未来发展路径又将走向何方?
![]()
图1. 基于决策过程的人际互动与人机互动中合作行为的对比框架
合作表象的相似,合作机制的迥异
作为高度社会化的物种,人类的合作行为绝非单纯的理性计算。它根植于情感的土壤,也受制于道德规范和文化价值的无形牵引。在博弈理论构建的合作情境中,人类常常表现出超越短期利益的策略调整能力,例如,为了追求公平甘愿牺牲个人利益,或是因为对他人声誉的考量而选择信任并合作。然而,LLMs虽然在许多博弈任务中展露出令人惊叹的“拟人化”合作倾向,但其行为的深层驱动机制,与人类却有着本质的不同。AI的行为源于其算法的目标函数、庞大的训练数据分布和特定的提示词输入。它们无法真正理解或体验情感或道德规范,而是高度依赖于对输入信息的匹配。例如,在谈判和让步等情境中,LLMs可以模拟并呈现出一定的社交启发式,但这种策略并非源自经验的积累或对社会关系的认知,而是对数据中策略模式的拟合。当涉及公平性判断时,AI往往倾向于机械地执行资源平分,却缺乏人类在判断时所依据的背景信息、主观价值和社会语境理解的深层理解。
人机合作的认知挑战与伦理风险
当AI逐步成为我们的合作伙伴,人机互动中也随之浮现出一系列不容忽视的新挑战和潜在风险。首先,AI决策的“黑箱”特性让其内部运作对大多数用户而言难以理解。这种不透明性可能导致用户对AI产生不信任感,也可能走向另一种极端:对AI的行为进行过度拟人化解读,错误地将它们的模糊反应或偶然失误误解为有意的表达,并产生不合理的过度依赖。这些认知错位和信任偏差都会直接影响人机合作的效率。其次,LLMs基于大规模人类语言数据训练,这意味着它们在很大程度上不可避免地继承了社会中固有的偏见。若这些内在偏见未能被及时识别和有效干预,它们在人机交互中便可能被无意中延续,甚至无意放大。最后,AI系统在处理涉及复杂社会伦理的情境时,其伦理边界的模糊性尤为突出。它们往往难以识别并遵循人类社会中那些隐性的规范,例如文化敏感性、弱势优先原则等。这在高风险应用场景中可能导致意想不到的不良后果。上述问题清晰地表明,传统的人际合作模型在解释日益复杂的人机互动时存在着一定的局限性。因此,我们迫切需要发展新的理论与方法,它兼顾AI的演化逻辑及其技术特性,同时深刻理解人类的深层心理基础,从而弥补当前的理论空白。
构建可信、动态、负责任的人机协同体系
面对上述挑战,研究团队在论文中提出了一套多维度、系统性的应对策略,旨在推动人机关系向更成熟、更可信赖的方向不断演化。首先,提升AI行为的可解释性,增强其决策背后的逻辑透明度,是建立人机合作信任的基石。这包括开发解释生成模型、特征可视化工具、因果路径追踪机制等,让用户能够直观地“看见”AI的思考路径。其次,建立动态校准机制至关重要,这意味着人机合作应是灵活且具备强大适应性的。AI系统需要能够实时识别用户的目标与偏好,并根据语调、面部表情等多模态信号动态调整自身的策略,从而显著提升互动的个性化与协调度。同时,我们应引入社会性学习机制,使AI系统不再仅仅基于行为结果进行奖励反馈,而是能够模拟人类的社会归因过程,根据每次互动经验更新对人类行为的理解模型,逐步优化合作策略,从而有效避免因策略突变而导致的合作中断或失配。最后,确立清晰的伦理框架与边界,是构建负责任人机协同的不可或缺的一环。这要求在数据使用、算法设计与决策执行等所有环节全面且严格地纳入伦理规范,强化数据透明性与用户隐私保护。尤其是在涉及医疗、司法、公共决策等高风险场景中,AI的应用必须附带可审查的解释机制,并始终保留人类的最终裁决权。这些综合策略的实施,将为构建一个更加公正、协同和可持续发展的人机共存社会奠定坚实基础。
中国科学院心理研究所胡理研究员团队吕雪靖副研究员为论文通讯作者,硕士生姚苏宸为本文第一作者,相关研究得到了国家自然科学基金(32441103;32171077)和中国科学院青年促进会人才专项(2024084)的资助。
文章信息
姚苏宸,单骥,胡理,等. 人类与人工智能在社会互动中合作行为的异同与挑战. 科学通报, 2025.
https://doi.org/10.1360/CSB-2025-0662
转载、投稿请留言
| 关注科学通报 | 了解科学前沿
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.