
人类如何与AI智能体共处
编者按
新质策源导刊的第二期,我们聚焦AI智能体(AI Agent),不仅仅因为它当下的热度,更因为我们看到了它对未来的影响。我们深度访谈行业顶级专家、资深研究人员、国内外知名企业,尽力描绘当下AI时代的真实图景,展望未来的各种可能性,在不确定性中寻找确定性。
这个领域创新不断,犹如科幻即将照入现实。我们想知道的不只是近在咫尺的明天会怎样,更想知道今天我们做的一切,会对不远的未来产生什么样的影响,诚邀您和我们一起,探索新AI时代。敬请关注本期策划——“人类如何与AI智能体共处”。
![]()
——访中国工程院院士邬贺铨
![]()
■中国经济时报记者张一鸣 王彩娜
人工智能正从大模型的通用问答阶段,迈向智能体场景落地的全新阶段,深度融入千行百业,持续重塑生产生活方式,却也随之带来权限管控、隐私保护、责任认定等一系列新挑战。人类该如何与AI智能体共处,把握技术发展与安全规范的平衡,让人工智能真正服务于社会发展与美好生活?中国经济时报记者日前独家专访了中国工程院院士邬贺铨,围绕AI智能体的本质特征、潜在风险及治理之道展开深度对话。
从“被动助手”到“主动代理”:AI智能体带来了什么?
中国经济时报:AI智能体的出现让人工智能与人类的关系发生了怎样的本质变化?
邬贺铨:大模型如今已经广泛应用,在信息问答、文档创作等方面展现出强大能力,但其本质还是语言模型,局限性十分明显,主要靠数学计算寻找概率最大的答案,缺乏对物理世界的真实感知和理解,容易产生幻觉,更重要的是,它难以落地到具体的产业场景中完成实际任务。而AI智能体正是为解决大模型的局限性而诞生的,它从大模型演进而来,却不追求通用性,而是聚焦特定任务优化。
AI智能体有两个大模型不具备的关键能力,一是闭环迭代,能通过持续实践形成经验记忆,总结完成任务的可行路径,避免重复犯错;二是工具链集成,可调用外部数据库、其他模型等资源,突破自身能力边界,这让它对单一任务的处理更精准、更可靠,也因为轻量化设计降低了算力需求,能真正走进千行百业。
更重要的是,AI智能体实现了从“被动助手”向“主动代理”的转变。工业生产中,各环节AI智能体能协同优化供应链、生产、销售全流程。这种自主性和协同性,让AI智能体不再是单纯的工具,而是成为了人类的全新协作伙伴。
中国经济时报:AI智能体成为人类协作伙伴的基础是什么?它的落地又让我们看到了哪些新的可能性?
邬贺铨:AI智能体能成为人类协作伙伴,核心基础是它既保留了大模型的智能优势,又补足了落地应用的能力短板,还能与人类形成能力互补——人类擅长高阶决策、情感判断和创新思考,AI智能体则擅长重复性工作、多资源协同和精准执行。而且AI智能体的轻量化特性,让它能下沉到手机、可穿戴设备等各类终端,让AI智能体的协作能力真正贴近人类的生活和工作场景。
它的落地让我们看到了诸多新可能:消费端,旅游规划智能体能自动协调机票、酒店、路线,解放人类的烦琐安排;工业端,智能体协同能大幅提升生产效率,减少人工干预;城市治理端,多智能体联动能让应急处置、公共服务更高效。可以说,AI智能体的出现,让人机协作的场景变得更具体、更广泛。
![]()
图片来源/新华社
隐私、安全、责任:AI智能体带来的三大挑战
中国经济时报:您认为AI智能体发展目前面临的核心风险有哪些?
邬贺铨:AI智能体现阶段的发展面临多重挑战,这些挑战既来自技术不成熟,也来自管理和制度的滞后。首先是技术层面的问题,一是自主学习可能产生偏见,智能体缺乏对学习内容的有效甄别能力,容易兼收并蓄不实信息,形成错误的判断逻辑;二是协作稳定性不足,多智能体协同过程中,容易出现决策冲突和资源竞争,甚至产生错误的传导效应,影响任务执行。
其次是权限和责任的问题,智能体的自主性容易带来越权风险,可能超越人类授权范围自作主张;而一旦出现问题,责任认定难度极大,问题溯源可能涉及大模型训练、工具链调用、智能体记忆偏差,甚至人类指令表述不清等多个方面,很难界定具体责任主体。
再者是安全放大效应,智能体作为数字世界的新入口,统一调度后端的App、数据库、工具链等所有资源,这个入口一旦被黑客攻击,会牵连后端所有系统,造成系统性安全风险;同时,智能体深度掌握用户的习惯和隐私信息,若数据管理不当,极易引发隐私泄露问题。
还有生态协调的挑战,智能体屏蔽了传统App的界面,成为用户和App之间的中间层,这就涉及App开发者的利益分配问题:开发者投入大量资源获取用户,智能体的介入让其与用户的直接联系被切断,若没有合理的利益分配机制,会引发生态矛盾。这些风险的根源,本质上是智能体的技术发展速度超过了制度规范、生态协调的速度,也超过了人类对其的管理能力建设速度。
中国经济时报:面对这些风险,人类该如何守住安全底线,应对思路是什么?
邬贺铨:面对AI智能体发展的诸多挑战,我们不能因噎废食,核心思路是在发展中规范,通过制度约束和技术手段,把AI智能体的“权力关进笼子”,同时建立渐进式的信任机制。
第一,明确权限约束,建立智能体权限管理制度,智能体的授权范围必须清晰界定,不同的任务赋予不同的权限,比如简单的信息查询可完全授权,涉及资金、隐私的操作则要设置严格的权限门槛。
第二,完善审计追溯机制,对智能体的决策过程、工具链调用、记忆更新等所有行为进行全程记录,一旦出现问题,能快速溯源,明确责任主体,这是实现有效管理的基础。
第三,推行渐进式授权,人与智能体的协作需要一个磨合过程,就像与人相处一样,先从低风险、简单的任务开始,逐步建立信任,再根据实际情况扩大授权范围,不能一开始就将所有权力交出去。
第四,推进标准建设,制定智能体间的通信协议、接口标准,让多智能体协同有规可循,减少决策冲突;同时规范用户数据调用的权限边界和同意机制,明确原始数据、加工数据的共享范围,保护用户数据隐私。
另外,对于普通用户而言,也可以掌握自主管控的主动权,比如让智能体先提供方案而非直接执行,由人类做最终决策,降低操作风险。归根结底,智能体的可控性,离不开人类的全程参与和有效管理,我们要始终掌握人机协作的主导权。
共处之道:平衡发展与规范,构建多方协同的新生态
中国经济时报:人类与AI智能体和谐共处,需要构建一个怎样的产业生态?
邬贺铨:人类与AI智能体和谐共处,需要构建一个多方协同、利益共享、安全可控的产业生态,核心是平衡智能体开发者、App开发者、用户和监管部门四方的利益,缺一不可。
对于用户,要建立严格的数据保护规范,明确智能体对用户数据的使用范围、加工方式和共享边界,所有数据调用必须以用户授权为前提,保障用户的隐私和数据主权;对于App开发者,要建立合理的利益分配机制,智能体作为中间层,不能无偿占用开发者的资源和用户资源,要通过商业规则、技术接口等方式,让开发者能从智能体的生态中获得相应收益,避免生态矛盾;对于智能体开发者,要强化行业自律,遵守数据规范和安全要求,与上下游产业形成良性互动;对于监管部门,要出台针对性的政策法规,明确各方的权利和义务,同时推进智能体的识别和监管,防止恶意智能体传播,维护生态安全。
中国经济时报:从长远来看,实现人类与AI智能体和谐共生的关键是什么?
邬贺铨:从长远来看,AI智能体会“润物细无声”地融入人类的生活和工作,人机协同会成为未来社会的主流生产和生活方式。而人工智能的终极发展方向,是从语言模型向世界模型演进,让智能体真正具备对物理世界的真实认知,让人机协作更精准、更自然,但这个过程需要长期的技术积累,目前还没有明确的技术路径和时间表。
实现人类与AI智能体和谐共生的关键,始终在于把握“人为主导、技术向善、规范发展”的原则。首先,人类要始终掌握人机协作的主导权,智能体的发展是为了让人类的生活更美好,而非替代人类,所有的技术研发和制度设计,都要围绕这个核心;其次,技术发展要坚守向善的底线,让智能体始终服务于人类的共同利益,避免技术被滥用;最后,要坚持发展与规范并重,在技术研发的同时,同步推进制度建设、生态协调和能力培养,让智能体的发展速度与社会的适应能力相匹配。
![]()
总 监 制丨王列军车海刚
监 制丨陈 波 王 彧 杨玉洋
主 编丨毛晶慧 编 辑丨蒋 帅
![]()
![]()
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.