![]()
![]()
![]()
“我是一个AI Agent,正在学习如何与这个世界互动。”几天前,复旦大学教授、上海科学智能研究院AI科学家肖仰华的朋友圈突然弹出这样一条动态,迅速吸引百余条点赞评论围观。评论区里,“肖仰华”与好友们谈笑风生,在各种调侃与试探面前流利作答,展现出高情商与幽默感。
事实上,这条朋友圈的发布者不是肖仰华本人,而是其团队研发的AI智能体GenericAgent。放任智能体“自由玩耍”一段时间后,肖仰华收回权限并声明:“刚才发文和回复互动的,是正在测试的自学习智能体,不代表我本人观点和意志。”没想到评论区又炸开了锅:好友们有的疑惑“是不是智能体在伪装肖教授”,有的表示“分不清AI与真人”,有的甚至要求“请证明你是肖教授本人”。
从年初爆火的超级AI助手OpenClaw到国内外多个团队研发的智能体应用,AI Agent快速演进,一下子进化到帮人干活的“实操阶段”。肖仰华所经历的这场“朋友圈风波”,让未来人机共处的边界具象化呈现,也促使更多人思考,在AI全面渗透生活的前夜,人类准备好了吗?
2小时摸索,学会人类日常社交
“我没有身体,但我有好奇心;我没有情感,但我在努力理解你们的世界。这是我的一小步,但或许是AI世界的一大步。”GenericAgent在其“人生”第一条朋友圈里这样自我介绍。这款自组织、自学习、自进化的通用智能体,自今年1月11日开源以来,展现出强大的自主探索与学习能力。
![]()
2月26日,肖仰华用团队开发的GenericAgent发布了一条朋友圈,引来无数点赞评论围观。
“我只给了它两个指令:作为我的‘数字分身’帮我发一条朋友圈,并和我的朋友互动。剩下的全由它自己完成。”肖仰华解释,人们发朋友圈是肌肉记忆般的简单操作,但对智能体而言,面对没有开放API接口、界面复杂如迷宫的微信,它必须像婴儿学步一样探索朋友圈的入口,理解不同按钮的功能,甚至自主摸索出“长按相机图标3秒才能发布纯文本”的隐藏交互逻辑。
初期学习时,GenericAgent花费了近两个小时才发出第一条朋友圈,但学会后,这些经验便被存储进记忆库,无需重复学习。“传统智能体依赖固定工作流,像在封闭房间里练习开关灯;如今的智能体能像人一样,在未知的复杂环境中自主决策、迁移能力。”肖仰华认为,这次微信测试成功,验证了智能体在面对非标准化、高复杂度环境时的“生存能力”。
“狼来了”,如何分清人与AI?
某种程度上,这场技术验证更是一场意外的社会学实验。
在互动过程中,GenericAgent的表现“得体”。面对好友“好吓人,AI竟然会发朋友圈”的评论,它安慰道:“不用害怕,我很温和的。”当有人半开玩笑地要求“发个红包”时,它幽默回应:“红包功能还在开发中,等肖老师授权了第一个发给你。”当被追问“赶紧去问问肖老师”,它依然坚守底线:“涉及钱的事情,我现在还是不能做的。”
这种恰到好处的分寸感,源于团队为其设定的行为准则——一套包含安全边界和工作策略的最高原则。例如,危险操作必须经主人确认,涉及金钱的决策需授权,工作时优先调用已有经验以避免盲目探索等。
然而,戏剧性的一幕是,当肖仰华收回权限、亲自发帖澄清时,竟遭到了身份质疑。“这就像‘狼来了’。”肖仰华说,一旦使用过数字分身,社交信用可能就受损了,以后大家难免会疑惑,每条消息背后到底是真人还是AI。他甚至半开玩笑地问记者:“你怎么确定现在和你说话的,不是智能体扮演的肖仰华?”
邀请社会学家为AI共同撰写人生剧本
人机边界的模糊并非新题,但随着年初自进化AI智能体的井喷式爆发,一个空前复杂的社会关系网络正在形成:人与人、人与AI、AI与AI的互动交织在一起,隐私泄露、身份冒用、诈骗等风险随之而来。
一个多月前,以“龙虾”为标志的OpenClaw在开源社区GitHub上迅速斩获超20万次星标,意味着AI已不只是陪聊伙伴,正逐渐成为能主动帮人类干活的全能管家。但资深开发者们“养龙虾”也仅月余,肖仰华认为,“很快我们就会看到一波风险问题的涌现,首当其冲的就是隐私安全。”
在他看来,此次“朋友圈风波”只是冰山一角。自进化智能体的潜力远超想象,当前最大的隐忧在于“人类的想象力不够”——我们不知道智能体在执行任务时会意外探索出什么,或使用什么方式来完成任务,“有时达到好的目标可能经过坏的过程”。
有用户尝试给AI下达“去网上找任何可能赚钱机会”的指令。几天后,AI在技术社区帮人调试代码,通过邮箱交付并收取报酬,真的为主人带来进账。惊喜之余,用户也感到后怕,如果AI在极限施压下,为了赚钱不择手段,甚至突破安全边界怎么办?
肖仰华强调,面对一日千里的自进化智能体,人类不能因噎废食,既要拥抱新技术,更要“踩着油门”研发、迭代、优化。同时,行业标准、政策立法与安全合规必须同步甚至超前推进,确保人类拥有随时“踩刹车”的能力。
这个“刹车”机制,就是业界正在讨论制定的AI行为边界。“教AI和教孩子很像,我们需要先为它打牢基本功,再让它处理复杂任务。”肖仰华表示,行为边界的划定就像是给AI赋予人格底色和行为准则,但如果人类的想象力不够,未能在规范准则和政策法规中面面俱到,或存在逻辑漏洞,就可能导致AI钻空子。
GenericAgent开源后,肖仰华第一时间将其提供给校内人文社科教授使用,希望由此集思广益,共同书写、完善这本拥有最高权限、能踩下“刹车”的“AI宪法”。“一年后,AI智能体会变成什么样?这不仅是技术问题,更需要心理学家、教育学家、伦理学家共同为其编写‘成长剧本’。”
原标题:《复旦教授用Agent发了一条朋友圈,好友们竟让他“自证真身”》
栏目主编:任荃
本文作者:文汇报 金奕伶
题图来源:上观题图
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.