![]()
陈天昊
清华大学公共管理学院长聘副教授
政府法制研究中心主任
本文来源:财新 观点
“豆包手机”是智能体应用对既有移动互联网生态秩序的一次冲击。智能体的规模化应用,不仅取决于模型及产品能力的突破,更取决于其与现有的法律框架及安全体系是否实现了协同进化。
![]()
豆包AI手机助手。图:视觉中国
2025年12月,字节跳动联合中兴推出“豆包手机”,因其搭载系统级AI助手引发行业震荡。该机通过安卓底层权限模拟用户操作,实现跨应用自动化运行(如语音比价下单等),但上线仅三天即遭微信、淘宝及金融类App的风控拦截。
这场行业内的摩擦不容小觑,不仅因为它进入了人们日常生活的端侧,引发的风险会对个体造成直接的伤害,更因为其标志着智能体(Agent)规模化应用的前奏。
个案背后涌起的乃是趋势性变化。2025年8月,国务院印发《关于深入实施“人工智能+”行动的意见》(国发〔2025〕11号),明确将加大智能体的应用扩散作为战略重点。该意见提出要率先在软件、金融、物流等领域推动新一代智能终端与智能体的广泛应用,培育“智能体即服务”的新模式,并确立了具体发展目标:到2027年,新一代智能终端和智能体等应用普及率需超过70%,至2030年这一比例将进一步提升至90%。
从大语言模型到智能体
什么是智能体?它与大语言模型(LLM)又有什么不一样?LLM的崛起,始于Transformer架构中注意力机制(Attention)对长序列依赖关系的低成本掌控,这使其能够高效提取海量非结构化数据中的隐性“范式”。在此基础上,随着OpenAI O系列及DeepSeek R1在逻辑推理领域的突破,叠加模型小型化与多模态的演进,LLM已超越单纯的“概率预测”,而具备了逻辑推演与复杂场景适配的认知能力。也正是这一认知核心的质变,激活了由来已久的“智能体”概念,再叠加Anthropic开源的MCP协议(模型上下文协议),以及OpenAI等企业在LLM中嵌入记忆模块,智能体逐渐演变为一种以LLM为“大脑”进行交互规划、以记忆模块积累经验、以工具直接改造现实环境的自主系统。
换言之,智能体不再局限于被动响应指令,而是能够主动感知、反省决策并闭环执行任务。这种从“被动工具”到“自主系统”的跨越,预示着智能体终将突破软件的边界,演进为未来每个个体都不可或缺的亲密数字伙伴。豆包手机正在践行这一愿景:用户仅需通过简单的自然语言命令,即可调动智能体自主完成复杂操作,授予它安卓系统INJECT_EVENTS的权限,乃是为智能体开展自主操作提供前所未有的自由度。
面对个案层面的风险,监管者应当何为?
网络安全风险
在传统的移动安全架构中,App之间彼此隔离,互不影响。然而,系统级智能体在所有App之上构建了一个拥有“上帝视角”的超级入口。一方面这会带来单点突破风险:一旦这个拥有系统级权限的智能体被攻击或被成功注入恶意指令,它将突破App之间的安全防护,引发巨大的安全漏洞。另一方面,更难以把握的,乃是智能体所处环境的上下文(Context)不可控风险。要知道,智能体处于持续的经验流中,其所收到的上下文会直接影响其作出的决策,而上下文的内容由其所处的环境决定,本身并不完全可控,并且智能体对上下文的理解也会存在概率性偏差。当智能体拥有直接操作金融或政务App的权限时,这种“理解偏差”不再是输出错误的文字,而是可能导致错误的资金流转等高风险、高敏感操作。
针对金融相关的安全风险,豆包方面回应,当AI识别到用户进入银行支付、密码输入等敏感界面时,会自动暂停“接管”,将控制权交还给用户。这种主动交还控制权的安排不应仅是企业的自律规范,而应成为监管者推动的强制性要求。 监管者应当协调不同的监管部门,考虑出台智能体操作的“负面清单”,在清单内的场景(如转账确认页、个人征信查询页),禁止智能体调用模拟点击权限,确保关键领域的关键决策始终由人亲自作出。
信息隐私风险
智能体提供便利的前提,是用户能够授予它跨App的系统级权限。在“豆包手机”模式下,用户不仅交出了全量的屏幕信息,还将操作权完全让渡给智能体。这使得智能体将能够掌握个体以该端侧所能接触到的全部个人信息,并且为了获得更高的便利,用户还会越来越倾向于授予它更高级别的权限。在数字平台时代已经广为人知的“隐私悖论”,将在智能体时代被进一步放大,用户为追求极致的便利,在无意识中将原本分散在各个App中的信息隐私,汇聚于一个系统级智能体手中。
面对可能引发的信息隐私风险,豆包表示其采用了以本地化处理为原则的安排:敏感数据的识别与处理在手机本地完成。这一技术安排当然是值得鼓励的,监管者可以考虑将此作为端侧智能体在隐私保护上的合规基线,出台细则严格规制个人信息及隐私脱离本地。同时还应发布指南,不断更新迭代其具体指涉的场景,比如屏幕读取的未公开数据(如聊天记录、相册内容)就应严禁上传云端。监管者可通过定期的技术合规审计(如流量抓包分析),验证企业是否真正执行了“敏感数据不出端”的要求。
产业生态风险
现有的移动生态建立在App开发者之间的彼此尊重与互信之上,他们会通过API文档和协议明确各自的权责。“豆包手机”这样的系统级智能体,则通过视觉识别和模拟点击强行介入第三方App,一定程度上打破了既有的基于协商的互信。这不仅涉及流量分配问题,更会引发法律责任方面的担忧:当智能体因误读屏幕信息导致用户在第三方App中遭受损失(如误下单、误转账),责任主体是开发智能体的手机厂商,还是实施风控拦截的应用厂商?在缺乏新的协调机制之前,这种技术应用遭遇产业界的防御性反击,是自然的结果。
针对侵入系统的指责,豆包强调其使用的INJECT_EVENTS权限虽然属于系统底层,但“全程需要用户主动授权,且用户可以随时中断”,并认为“用户许可即不侵权”。这一回应暴露了当前法律的模糊地带:用户的授权能否穿透第三方App的协议?
笔者认为,在跨App操作中,仅有用户对手机厂商的授权是不够的。监管应推动建立一种系统级智能体与App之间的“握手协议”(Handshake Protocol):当智能体首次尝试接管某App时,必须弹窗提示,并获得该App层面的二次确认。当然,支撑“握手协议”之实质正当性的,应当是产业内围绕安全及法律责任风险分配的共识,监管者所要做的,应当是推动产业内不同主体开展有意义的协商,助推共识的达成。
面对智能体规模化浪潮,监管者应当何为?
豆包手机是第一个赋予智能体如此高自由度的消费产品,但它显然不会是最后一个。正是因此,监管者所面对的不止是手机产业内的变革,而是加速涌来的智能体浪潮,它将席卷整个数字世界,重构互联网本身。面对这样的浪潮,监管者应当如何构建与之相适应的监管框架?就当前的技术及产业现状而言,本文提出以下三点关于智能体监管框架的思考。
第一,以底层模型对齐为监管抓手。智能体尚未被赋予法律人格,无法像自然人一样被直接监管,但其作为可被注入特定价值观的自主行动者,监管的关键在于对支撑其运行的底层模型进行价值对齐。智能体的技术架构可简化为“LLM+记忆+工具”,其中LLM作为决策大脑,虽已通过RLHF实现了基础的“3H”(helpful, harmless, honest)对齐,但随着其进入产业深处,必须进一步科以细致的、场景化的法律要求来进行专门的价值对齐。
以豆包手机为例,其将智能体部署于消费者日常使用的手机之中,同时亦会处理不同App之间的竞争调用关系,因此,该智能体至少需将下述三方面的法律规范转化为其底层模型的具体行动参数,以避免智能体作为自主行动者做出违背现行法之行为:
首先,基于《个人信息保护法》确立个人信息及隐私保护的边界。将“合法、正当、必要”及“最小影响”原则注入模型,使其在处理信息——特别是敏感个人信息时,能够自动遵循法定要求,而非无限制地挖掘用户隐私。其次,基于《反不正当竞争法》划定竞争行为的红线。针对新修法关于非法获取数据及恶意不兼容的规制,智能体应当被设定为在遵守目标平台协议的前提下运行,将不妨碍其他产品正常运行作为行为规划的约束,从底层规避“外挂式”侵入或流量劫持等不正当竞争风险。最后,基于《反垄断法》落实数字平台竞争中的算法中立。鉴于系统级Agent已成为连接用户与服务的“数字守门人”,必须在模型决策层阻断“自我优待”。智能体在进行工具调用时,不应在无正当理由下优先导流至自家生态(如抖音电商),而应确立“用户利益优先于平台利益”的行为权重,在模型的权重层面遏制数字平台的垄断趋势在智能体时代蔓延。
第二,以数字平台企业为监管载体。由谁来落实上述价值对齐?欧盟《人工智能法案》虽区分了AI的提供者与部署者各自不同的法律义务,但在中国当前的产业实践中,数字平台企业往往兼具基础模型研发与生态运营的双重身份。为避免主体混同,可直接将数字平台企业确立为核心监管载体,这应是当前落实智能体监管法律责任的最优解。
首先,对于数字平台企业自研并部署的智能体,该平台企业应承担直接对齐义务。中国现行监管体系(涵盖《生成式人工智能服务管理暂行办法》及深度合成、算法推荐等规定)主要侧重于内容安全、隐私合规及算法歧视等“事后过滤”及“形式合规”层面。未来的监管需向规范模型之行为逻辑的方向发展,要求企业在研发阶段即将《反垄断法》《反不正当竞争法》的行为规范转化为模型可理解的行为权重,实现从内容防控到决策及行为符合法律规定之要求的跨越,以补足目前在智能体自主规划与工具调用层面的合规空白。其次,对于由数字平台企业引入自身生态的第三方智能体,该平台企业应承担“守门人”责任。依据《电子商务法》及《网络信息内容生态治理规定》确立的“生态管理者”逻辑,平台企业不仅是技术通道,更是本平台生态秩序的维护者。当其引入外部智能体时,平台须履行准入审查与动态管控义务,确保在其生态内运行的第三方智能体同样完成基于法律要求的价值对齐,防止未受约束的智能体“野蛮生长”。
第三,以开放迭代对齐工作流为监管助推。如何验证上述价值对齐的有效性?可探索的监管工具乃是推动对齐工作流的透明化。目前,前沿模型厂商在发布新一代产品时,披露安全对齐细节已成趋势。比如Gemini 2.5的技术报告共39页,其中20页在介绍其采取了哪些措施进行模型的安全防护与价值对齐,这显然旨在获得市场及社会的信任。相比而言,中国阿里巴巴的Qwen 3的技术报告则缺乏对其具体对齐工作流的细致披露。
面向未来,特别是随着智能体由实验室概念转化为可落地的产品,如何完成价值对齐将直接决定该产品面临何种法律风险。因此,监管者应鼓励头部企业主动披露其“法律要求代码化”的工程实践——即如何将抽象的法律原则转化为后训练阶段具体的微调数据集与奖励函数。这种披露不仅有助于形成行业最佳实践的共识,促进对齐技术的迭代,更为监管者制定“技术上可行、法律上有效”的监管标准提供了实证依据,从而助推各方之间的协同共治走向现实。
未来已来:智能体时代的新秩序
“豆包手机”乃是智能体应用对既有移动互联网生态秩序的一次冲击。这一事件提示我们,智能体的规模化应用,不仅取决于模型及产品能力的突破,更取决于模型及产品与现有的法律框架及安全体系是否实现了协同进化。
面对技术演进带来的挑战,监管者一方面应当在个案层面采取针对性举措,包括设定权限负面清单、强制人类介入及敏感信息本地化处理等,并推动产业内围绕安全及责任分配的共识形成。另一方面,面向正在加速涌来的智能体浪潮,监管者还需要推动底层模型的法律价值对齐,将法律规则转化为智能体内部的行为权重,并推动这一对齐工作流的开放迭代。上述这些努力,将帮助我们尽快构建起适应智能体时代的新秩序。■
责任编辑:张帆(ZN005) 版面编辑:刘春辉(ZN043)
版块介绍 — 治理之智
在全球化背景下,科技的快速发展也带来了前所未有的治理挑战。本板块内容依托阿里巴巴集团先进的AI科技能力、丰富的应用场景与负责任的技术生态,聚焦于AI风险、AI大模型安全、AI大模型开闭源生态、AI大模型出海等AI治理政策研究,基于技术理性的风险观,为大模型发展与安全平衡与取舍提供独到见解。同时,我们致力于收集和分享海内外AI治理先进理论与经验,为构建合理的科技治理体系提供智慧与灵感。
Reading
1、
2、
3、
4、
5、
6、
7、
8、
9、
10、
11、
12、
13、
14、
15、
16、
17、
18、
19、
20、
21、
22、
23、
24、
25、
26、
27、
28、
29、
30、
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.