一套实验设备连续运转30天,没人碰过培养皿,没人调整过参数,最后走出来的是活性提升5倍的新酶——这不是科幻设定,是北京智源深澜的实验室日常。
4月底的一场行业沙龙上,创始人王承志展示了团队打造的自动化蛋白质连续定向进化平台。这套系统被《Nature Chemical Engineering》定义为"全球首个工业级、可编程、自动化的蛋白质连续定向进化平台",登上了当期封面。
![]()
更值得玩味的是它背后的野心:AI for Science的3.0时代。
![]()
王承志把AI在科研中的角色演进划了三段。1.0阶段是"显微镜增强插件",AI帮忙处理实验数据、分析湿实验结果,只复盘不设计。2.0阶段是"导航式设计引擎",生成式AI入场后,实验结果能反馈给模型更新参数,形成干湿闭环——这也是当下行业的主流。
而3.0阶段,AI自主完成"设计实验→执行实验→分析结果→迭代优化"的全闭环。人类只需定方向、提问题,剩下的交给AI智能体。智源深澜从创立之初瞄准的就是这个目标。
听起来像是把科幻词汇串在一起,但王承志团队已经做出了能落地的硬核系统。
这套平台的核心是一个"物理世界的AI智能体"——不是聊天窗口里的对话框,而是能直接驱动机械臂、培养箱、检测仪的控制系统。每轮实验数据出来后,系统自动分析结果、设计下一轮实验,再把设计转化为机器人可执行的指令。连续运行1个月无人工干预,自动完成培养、传代、检测、筛选。HEPA过滤、UV灭菌等防污染设计拉满,全程无交叉污染。遇到设备故障、生长异常,系统还能动态调整策略。
两个案例展示了这套系统的实战能力。
第一个案例是多重耐药外排泵LmrA的定向进化。这个蛋白会无差别转运底物,既转目标物质也转非目标物质。要筛选出"只转目标、不转非目标"的变体,需要二维筛选:A=1(转目标)且B=0(不转非目标)。团队设计了NIMPLY生物逻辑门遗传线路,结合自动化平台连续运行1个月,成功进化出符合要求的LmrA变体。原本看似无解的多目标筛选,被自动化加AI的组合高效攻克。
第二个案例来自mRNA疫苗生产。这个行业有个痛点:成本高、损耗大。工艺要分两步走——先靠T7 RNA聚合酶转录RNA,再用另一个加帽酶给RNA加上5'端的帽子,中间还要纯化,损耗非常严重。客户提出的需求是把两个酶融合成一个兼具双活性的新酶。难点在于,简单融合会让两个酶的活性全消失,只能从零进化。
团队把这个挑战交给自动化平台。连续运行1个多月无污染,自主记录、分析、迭代实验,几乎没有人参与。最终进化出CapT7融合酶,不仅兼具双活性,转录活性还比原始T7酶提升5倍。
但王承志没有渲染"AI取代科学家"的叙事。他坦承,短期内AI4S还不是"客户云端点鼠标就能做实验"的状态——需要大量工程师维护复杂的自动化设施,AI4S公司更像"工程+科学"的混合体。
不过随着自动化实验通量越来越大,整套体系会越来越复杂。团队的长期目标是把科研环节变成可交易的token——科学家设计新分子,能马上拿到测试结果。
这个愿景背后,是三个尚未解决的深层问题。
第一个问题关于AI幻觉。科学领域的AI幻觉比通用大模型更隐蔽、更危险。通用领域的幻觉通常靠常识就能看穿,但科学领域的幻觉"不但看起来是对的,而且看起来很专业",通常都带着令人信服的置信指标。最危险的是,科学AI的幻觉往往位于"合理但错误"的甜蜜点——不是胡说八道,而是那种"差一点点就完美了"的精致错误。这类错误如果被下游研究者当作起点,会污染整个研究链路,造成错误的级联放大。对于自主实验室来说,因为更少人为介入,幻觉会更容易在错误的道路上浪费大量资源甚至造成严重后果。
![]()
第二个问题是速度错配。AI的产出是指数级增长的,实验的产能是线性甚至恒定的。AlphaFold在几分钟内预测出蛋白质结构,但实验验证常常需要数月甚至数年。生成式AI和当前的实验范式构成了行业的根本矛盾。智源深澜的应对策略是通过生物学体系的设计降低实验通量需求——自主进化体系可以把起始样本减少数万倍,本质上是用生物体系的自动化替代物理实验的自动化。较少人工干预的自动化实验室能在一定程度上减轻实验压力,因为自主系统可扩展性极强,不依赖于有经验的实验人员。
第三个问题是开源代码的"可读不可跑"。学术界的开源代码很多时候不考虑工程化,环境依赖死锁、无测试无文档、不关心异常处理、日志、模块化——这和工业界可稳定复现的要求完全不同。
这三个问题指向同一个命题:AI在科学领域不是加速了发现,而是加速了"猜测"的产出。它生产假说的速度远超人类验证假说的能力。当猜测的库存积压到实验验证无法消化的程度,整个系统的瓶颈就不再是想象力,而是物理世界的执行带宽。只有当物理世界的执行带宽和AI的生成能力对齐时,AI4S 3.0才能真正到来。
王承志还提出了AI自主科研带来的三个值得深思的问题。
第一个是"理论膨胀"。AI可以无限生成新的科学理论与假设,但理论再先进都需要物理实验验证,而实验受限于时间周期、特殊材料制备、能源消耗等现实条件。当AI在一个下午就能推演出数以万计具有逻辑自洽性的新材料结构或亚原子粒子模型时,人类科学家将面临前所未有的筛选压力:在资源有限的现实世界中,究竟哪一个假说才值得耗费十年时间和数十亿经费去建造对撞机或实验室?科学探索的重心正在从"如何发现"转向"如何筛选"。若验证速度跟不上推演速度,人类的知识库将充斥着大量处于"待定"状态的理论——它们在数学上完美无瑕,在现实中却迟迟无法落地。
第二个是科研劳动的商品化。当AI能完成科研全链条,科研会从"精英智力活动"变成"可量化、可交易的商品",像云计算一样变成可批量购买的计算服务。普通人也能低成本做科研——比如有人用Claude做基因测序分析。这种民主化有其积极面,但也可能稀释科研的严肃性,让"做研究"变成"跑脚本"。
第三个是责任归属的模糊。当AI自主设计实验、执行实验、分析结果,如果出了错,责任在谁?是设计AI的人、维护设备的人、还是使用系统的人?现有的科研伦理框架和知识产权体系,都是围绕"人类科学家"构建的,AI智能体的介入让这套框架显得捉襟见肘。
回到智源深澜的实验室,那台连续运转30天的设备仍在迭代。它解决的问题很具体:让蛋白质进化更快、更便宜、更可预测。但它打开的问题更宏大:当AI开始自主做科研,人类科学家的角色是什么?
王承志给出的答案偏向实用主义:在可预见的未来,AI是"放大器"而非"替代者"。它放大科学家的设计能力,放大实验的吞吐量,放大假说的验证速度——但方向的选择、价值的判断、伦理的权衡,仍然需要人类。
这个判断或许过于乐观,或许过于保守。但可以确定的是,AI for Science的3.0时代已经不再是概念。它正在北京的某个实验室里,以每月一轮的进化速度,把蛋白质变体从培养箱中筛选出来。
而我们要做的,可能是学会和这些"不知疲倦的科研智能体"共处——既利用它们的速度,也警惕它们的幻觉;既享受它们带来的民主化,也守护科研的严肃性。毕竟,科学的终极问题从来不是"我们能多快生成答案",而是"我们敢不敢为答案负责"。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.