![]()
AI究竟是药物研发的颠覆者,还是仅仅是个高级的“加速器”?
作者丨岑峰
过去几年,无论是AlphaFold家族的惊艳迭代,还是各类生成式AI在分子设计上的“狂飙”,都给外界营造出一种错觉:AI似乎即将彻底颠覆制药行业,甚至有人开始倒数“全AI设计新药"上市的日期。
然而,真实情况却是:那些在硅基世界里被打分极高、看似完美的分子,却在进入真实的碳基人体后屡屡折戟。在真实的临床二、三期试验中,AI制药的失败率依然居高不下。
在AI算力呈指数级暴涨的今天,为何药物研发却陷入了“反摩尔定律”——技术越来越先进,投入的资金越来越庞大,但新药产出率却在持续下降?
在这场算力与生命科学的碰撞中,AI究竟是颠覆者,还是仅仅是个高级的“加速器”?
近日,雷峰网及AI科技评论组织了一场主题为“后AlphaFold时代AI制药的破与立”线上圆桌,南佛罗里达大学教授许东、同济大学生命科学与技术学院教授刘琦、香港大学数据科学与药学系副教授张清鹏,三位横跨计算科学、生物信息学与复杂系统科学的顶尖学者,展开了一场两小时的深度对谈。
对于没有时间观看直播的读者,我们提炼了本次圆桌的四大核心洞察:
洞察一:算力无法颠覆生命法则,重回“系统科学”与“机理模型”
当前AI制药最大的误区在于还原论的线性思维-将药物研发简化为“一把钥匙开一把锁”的游戏,过度追求分子与单一靶点的高亲和力。
然而,人体绝不是一台可以被简单拆解的机器,而是一个会自适应、会代偿、与环境动态交互的复杂生态系统。如张清鹏教授指出,药物进入人体后,面临的是吸收、分布、代谢、排泄等极其复杂的动力学过程。在细胞系中起作用的分子,未必能被有效递送,更未必能引发期待的宏观药理反应。
刘琦教授则点出了问题的本质:AI技术目前只能做到“降本增效”,它无法颠覆制药本身的生物学与化学逻辑。
一个引人深思的案例是辉瑞的新冠药物Paxlovid。在其大获成功的背后,居功至伟的是基于常微分方程(ODE)的PKPD数学模型分析,而非时下最“时髦”的深度学习黑盒模型。遗憾的是,这类偏机理、能提供清晰生物学追溯路径的模型,在学术界的关注度远不如那些“刷榜”的AI大模型。
未来的破局点在于“灰盒化”:”将基于物理与机制的(Physics/Mechanism-driven)模型与强大的数据驱动(Data-driven)表征学习相结合。只有让AI真正理解药物在体内的作用机制,而不仅仅是“暴力猜解",AI制药才能真正走向临床。
洞察二:跨越“盲人摸象”的数据鸿沟,干湿闭环是唯一解
为何AI在自然语言处理和图像识别领域能所向披靡,在生命科学领域却常常泛化能力极差?答案在于数据的“完备性"与“干净度”。
不同于拥有海量且标准标签的ImageNet,生命科学领域的数据面临着三大先天缺陷:
▪维度不完备:我们当前对靶点和生命体的描述特征(如氨基酸序列、SMILES表达式)相比于图像像素而言太少,用单一模态的数据去训练模型,宛如“盲人摸象”。
▪负样本缺失:制药公司出于商业机密,极少公开失败的实验数据,导致AI模型只能在“幸存者偏差"中学习,极易过拟合。
▪长尾分布下的边缘案例:许东教授提到,以AlphaFold为代表的模型基于进化中的负选择能很好地预测常见蛋白,但在面临BCR/抗体等处于主动进化的边缘案例时,效果要差的多。
数据鸿沟的存在,注定了现阶段的纯计算模型无法独立完成新药发现。三位学者一致认为,“干湿实验结合”是现阶段唯一可行的路径。
不再追求AI一次性给出一个完美的分子,而是利用贝叶斯优化、主动学习等方法,让AI生成数十个候选者,通过高通量、自动化的湿实验快速测试,并将结果(尤其是负反馈)实时反哺给Al。通过24小时不间断的快速迭代,在有限的数据样本下逼近最优解。
洞察三:寻找高价值赛道:免疫疗法、老药新用与数字细胞
在具体的制药赛道选择上,嘉宾们描绘了一幅清晰的价值地图:
▪老药新用:老药的安全性已得到验证,直接绕过了最致命的毒副作用风险。结合系统生物学,利用AI寻找多靶点的“药物组合”,是控制复杂系统网络失衡的高效路径。然而,其商业化挑战在于如何突破现有专利封锁,这也催生了AI在专利规避设计上的新应用。
▪从小分子到多肽/抗体的演进:相比于合成困难、成本高昂的小分子去从头设计,多肽和蛋白药物的可合成性极高(大肠杆菌表达等技术使得成本大幅降低)。它们的挑战转移到了“如何保持稳定"以及“如何避免强烈的免疫副作用”"。
▪免疫疗法:免疫疗法(如针对癌症、阿尔茨海默症等)被视为当今制药界的“顶流”。然而,由于免疫系统极其复杂,目前AI在免疫领域的渗透依然较浅。这片尚未被充分开垦的处女地,正是年轻学者和创新企业大有可为的“好领域”。
▪RNA递送与虚拟细胞:随着mRNA技术的成熟,制药的核心难点之一变成了“递送”(如LNP纳米脂质体在不同器官的分布)。同时,从分子层面的AIDD向细胞层面的“数字细胞"演进正在发生。利用单细胞测序、扰动测序构建细胞的“世界模型",在虚拟环境中模拟药物干预效果,有望大幅缩减动物实验的时间与成本。
洞察四:AI Agent入驻实验室,从SaaS向RaaS(结果即服务)跃迁
大语言模型与AIAgent的狂飙,正在重塑科研的生产关系。
在过去,生物学家需要学习复杂的代码和软件去处理数据。而如今,诸如OpenAI Swarm模式或BioAutoMATE等智能体的出现,正在将制药软件从SaaS(软件即服务)向RaaS(Results asaService,结果即服务)跃迁。研究人员只需用自然语言提出需求,Agent就能自动完成文献检索、假设生成、工具调用和流程自动化。
张清鹏教授形容,这就像每个研究员都配备了十几个24小时不知疲倦的“超级实习生”。
尽管目前的Agent更多是在做“降本增效”的流程自动化,尚无法触及突破底层制药逻辑的“无人区",但其对研发速度的提升是实实在在的,其效率提升可达数倍。在未来,随着具身智能与自动化实验室的结合,药企的研发成本结构将被彻底重写。
在圆桌的最后,三位嘉宾还对AI制药的未来进行了展望:在AI制药这条长坡厚雪的赛道上,中国展现出了得天独厚的优势。极高的AI人才密度、完备的上下游产业链、显著的成本优势,以及庞大的临床数据资源,共同促成了近年来越来越多的中国Biotech公司向海外药企高价“出海(License-out)"的繁荣景象。
尽管我们仍面临着医疗数据分散、"数据孤岛”林立的现实挑战,但正如许东教授所言,在特斯拉自动驾驶的演进史中,正是源源不断的数据积累最终促成了智能的“顿悟"。随着中国产学研各界在干湿闭环上的发力,AI制药跨越“死亡之谷"的奇点,或许已在酝酿之中。
以下是本次圆桌的实录,限于篇幅,AI科技评论进行了不改原意的编辑:
![]()
主持人: 许东(南佛罗里达大学教授)
嘉宾: 刘琦(同济大学生命科学与技术学院教授)、张清鹏(香港大学数据科学与药学系副教授)
01
摒弃“钥匙开锁”的线性思维,
敬畏复杂系统
许东:今天讨论的主题是"后AlphaFold时代AI制药的破与立"。AI制药近年非常活跃,大量文章和创新公司涌现,AI在制药各环节都起了很大作用,也出现不少令人鼓舞的亮点。但另一方面,AI在制药方面仍面临很多挑战,无论是新药发现还是临床转化,效率和最早预期仍有差距。我们今天希望就这些问题展开深入讨论。
刘琦:感谢雷峰网组织这次活动。需要说明,我们团队并不直接做AI制药,而是偏技术层面。我个人对AI制药最大的观点是:AI技术本身并不能颠覆制药的逻辑,它能够加速研发过程、增效降本,但无法完全颠覆制药本身。
这个领域确实太重要了——无论从生命健康、工业界还是商业角度,但凡能做到一点加速或降本,贡献都是巨大的。这也解释了为什么AI制药这么热,有大量工作和初创公司。但严格来说,目前尚无完全通过AI技术设计或发现、并走到临床实验末端的药物。这是领域需要解决的问题。
张清鹏:我的观点与刘老师吻合。我们往往过度关注高亲和力分子,多少还是以"一把钥匙开一把锁"的线性思维。即便技术不进步,过几年也会有完全AI设计的药物上市,这肯定会发生。
发现靶点、设计小分子就能搞定一切吗?我做复杂系统出身,人体不是可简单拆解的机器。人体是会自适应、学习、与环境动态交互、会代偿的复杂生态系统。必须从系统科学角度,从优化分子(binding affinity等分数)转向从系统层面优化整个动态生物网络的调控。
目前与临床整合的数据相对匮乏、成本较高,很多研究计算层面挺好,实际临床应用还有门槛。我在药学系发现,药学里药代动力学(PKPD)等复杂动力学特征非常关键——药物进人体内,不是cell line里直接起作用,能否很好递送?能否经过人体互动产生期待的药理效果?每一步都很复杂。
辉瑞新冠药物Paxlovid的例子很说明问题:临床实验前,他们用相当复杂的ODE模型做了PKPD分析,预估临床效果很好。但这个"幕后英雄"式的数学模型发在一般杂志,引用仅30多个。这种偏机理、偏系统的建模,能给临床和后续研发提供解释性依据,追溯清晰生物学路径,会使AI在药物研发全流程中得到更好促进。
许东:我非常同意张老师观点。人体复杂,药物与人体作用也复杂。我想补充:现在计算方法离真正落地应用还差得非常远。现阶段比较有效的路径是整合计算和实验。
我早年做蛋白结构预测,几次在CASP比赛名列前茅,后来有人做得更好,加上AlphaFold出现,很多人觉得蛋白结构赛道没啥可做了。我反而觉得AlphaFold带来了很多机会,这些年回到结构上做免疫问题。
免疫问题分两大类:一是TCR与peptide-HLA的线性表位识别,二是BCR/antibody与抗原的构象表位识别。第一类有不少工具,第二类基本没有靠谱工具。大家用AlphaFold做interaction prediction,但机器学习真正广泛复现很难——小数据能复现,到real world就难,到edge cases几乎没工具能用。
AlphaFold这类工具在BCR/antibody场景就属于edge cases——它基于进化中的negative selection profile,而BCR是active evolution,profile很不一样,效果并不好。这是机器学习的普遍问题:文章结果漂亮,落地好的相当少,到edge cases几乎没工具可用。
这些年美国卫生部和高分杂志非常在乎工具的reproducibility。我给刘琦老师最近一篇Nature Machine Intelligence文章做reproducibility report,非常欣赏他的工作——很多生信工作经不起深度可重复性测试,刘琦的工作经得起。他用meta learning方法做PanPep,我们做了非常细的测试:原始数据、新数据、fine tuning、扩展到其他case,分easy/medium/hard三种难度。
但即使这样,目前最好的工具离实际应用还差得远。 比如拿一个peptide到几千万TCR库里找,前100、1000甚至10000个几乎都不靠谱。我们现在做蛋白多肽设计,紧密结合实验:用贝叶斯优化产生一二十个序列,实测后反馈,再产生新序列,一般三五轮结果就非常好。
举个农药的例子:用多肽杀农作物真菌,合作者通过phage display找到初步多肽,我们用AI贝叶斯优化,只做了几十个多肽,最终产生约100倍提高——最早的多肽稀释100倍后仍能达到杀伤效果。这些结果已在大田验证并被商业化,说明AI有潜力,但工具还有很大空间,现阶段紧密结合实验是较好路径。
02
跨越“盲人摸象”的数据鸿沟
许东:接下来讨论:AI制药这几年发展中,最成功的是哪些点?最失败的又是哪些?
刘琦:就着刚才的讨论延伸。为什么说AI制药还有鸿沟未逾越?最大成功停留在早期药物发现和筛选阶段,即靶点发现、分子生成和优化。但最大失败也在这里:很多AI筛选的分子到临床二期、三期就fail掉,临床转化率相对较低。
为什么?核心问题是数据局限性。 早期筛选多在in vitro甚至model animal数据上,与人体in vivo环境有巨大gap,这是domain差异。AI模型在有限数据环境建模,学到的规律在人体复杂环境下泛化能力不足,导致后期失败率高。
再呼应张老师观点:当前AI技术发展(foundation model、深度学习驱动的representation learning)对机制可解释性、模型白盒化能力较差,多是black box learning。 早期PKPD模拟可用动力学、physics-driven模型,这些优势随着高阶AI技术发展反而显得不fashion。大家过于追求data-driven、deep learning-based black box模型,对药物在人体内如何体现作用的mechanism-based东西反而不清楚了。
未来方向:将mechanics-based方法与深度学习强大的representation-based方法结合, 形成“灰盒化”表征。既能高效预测筛选,又能很好体现药物机制,这可能是AI制药技术发展的重要方向。
张清鹏:成功方面:一是大幅缩减了分子筛选周期;二是老药新用出现了不少好成果。 我们自己的老药新用算法与合作临床医生在给无药可用病人使用,积累了一些实际成功案例。去年《新英格兰医学杂志》发表了一篇关于卡斯尔曼病(罕见病)的文章,通过AI计算老药新用,经人工和湿实验筛选后很快给病人用上,且有效果。这不见得那么fancy,但把分析做好、从已有药物里选,节奏会挺快。港大也有同事通过不同方式发现有趣成药点,有的是中医,有的是现代医学药物,很多都可以转化。
失败方面, 刘老师提到的转化率相对不高确实存在。我举个例子:与华中科大同济医学院合作时,他们讲过一个故事,有位肿瘤病人脑部转移耐药去世,开颅后直接把药撒到大脑里有效果,但递送不进去。我们发现了钥匙,但怎么费尽千辛万苦插到锁上?这中间是非常复杂的过程。 mRNA最终得诺贝尔奖,关键就是纳米脂质粒的发现能很好递送。我们团队最初也想设计mRNA语言模型,但最后发现最有趣的是如何设计纳米脂质粒,使其针对不同病人、不同器官更好递送。生成各种target或promising molecule之外,与生物结合更多一些,这是未来最有潜力、也最有兴趣投入的点。
许东:两位老师说得非常好。AI展现的最大成功就是早期筛选的效率提升:以前做assay可能成千上万,现在能真正下一个数量级,这毋庸置疑。但刚才也讲到,它在整个制药链上占的研发成本比例还是比较小,并没有撬动整体AI制药的范式,还有很长的路要走。
当然,人体太复杂、药物与人体作用太复杂。张教授讲到的老药新用,某种程度上能绕开一些问题。老药基本被临床验证过,至少副作用不用担心,正作用有多大虽不确定,但风险可控。比如我在CureMatch做过advisory board,他们用药物组合(两个、三个药联用)做老药新用,效果还不错。AI在这方面也能起很大作用。
刘琦:老药新用确实是非常快速可以切入的赛道。就像许老师说的,老药的毒性、安全性已被研究得比较透彻,如果能快速找到新适应症,是相对稳妥、快捷的方式。
但从商业角度,它也有问题:很多药厂在做药时会尽量自己扩大适应症,或用专利保护起来。要很好突破专利、找到新indication,并不容易;但一旦能做到,是非常好的事情。
另一个观察:早期计算机辅助药物设计叫CADD,现在叫AIDD,但早期AI范式更多停留在molecular层面。drug target明确的蛋白放在那,去找相互作用的分子。但药物研发是非常长的链条,越往后越不是简单molecular层面的问题,会上升到cellular、tissue层面,最终是human body层面的问题。
这也要求AIDD研究范式要有创新。像GeneTech他们推的,以及许老师说的protein design例子,就是大家认为需要做lab in a loop,用实验数据快速反馈,形成闭环,快速迭代方法。 无论是molecular层面、cellular层面还是tissue/organ层面的模型,都需要实验反馈来校正算法。不能完全依赖AI算法本身的能力,要放到更大闭环上看这个问题。
张清鹏:顺着刘老师补充两点。第一,老药新用中,如果找到好药物、有一定新适应症潜力,就从设计全新molecule变成优化现有molecule、改进它。 通过改进突破现有专利封锁,同时使新适应症效果更好。从纯建模角度应该能办到,现实化学里是不是可行,我不是特别清楚,但觉得应该是可以的。
第二,许老师说的老药新用里的combination(药物组合)。我做复杂系统出身,最开始做药物研究就是做这个。就像研究社会网络,想控制系统往往不是一个靶点能控制的——疾病本身可能不是某个通路或蛋白决定,而是整个系统稳态失衡。系统性疾病或aging往往是很多基因、蛋白、通路共同的状态转移。找到合适用药方案,往往需要多个靶点,这就涉及药物连用问题。
连用问题变成复杂系统/网络里多靶点最优化的问题,有很多算法优化空间。可以一股脑扔给AI做,但这么多年组合优化、甚至量子计算方法,都可能在这里产生很好应用。
许东:刚才两位都谈到突破专利的问题。现在一些团队和公司就做这事,尤其在多肽抗体方面,有专利的抗体或多肽,用AI在周边寻找类似的,不一定是序列类似,而是binding confirmation类似。
这条赛道也面临挑战:现在专利把claim做得非常广,突破专利不容易。这也有些争议:用AI专门攻克现有专利,某种程度上是不是降低了专利保护的范畴? 但另一方面也可能增加可能性。大家对这个问题怎么看?
刘琦:感觉现在特别是Agent技术、大语言模型驱动的Agent技术发展,对专利信息收集整理能力相对于之前有巨大提升。 最近很多公司在做类似的事,通过智能体技术对文献、专利信息整理、总结、梳理,甚至做自动化知识提取,帮助指导从头设计新序列或抗体突破专利。整个事情可能通过智能体、像OpenClaw这种技术快速迭代完成。
未来这确实是双刃剑: 一方面大家能快速在药物研发中获取更多信息、快速迭代;另一方面对制药公司本身也提出很大挑战,怎么在未来更好保护自己的产品。双方都会有非常多技术突破的地方。
许东:这个问题确实是双刃剑。一方面增加可能性,另一方面整个药物研发从pharmaceutical到biotech company,在美国已面临很大压力。美国过去医保卖药利润丰厚,能拿很多资源回来开发;但现在慢慢学其他国家,特别是Medicare用国家式采购,对定价权要求很高,制药公司面临资源越来越少。biotech投资也变得风险比较大。
如果大家都攻克专利,说白了就是靶点已知、路走通了、antibody work了,我们改一改sequence也能work,这当然也是一种方式;但找到新靶点、解决新病的压力就大了。 两方面要有个均衡。
确实全球范围内,真正novel的drug development在放缓。即使AI所谓助力,整体药物开发看FDA approve的新药也是越来越少。当然另一方面,剩下的病也越来越难攻克,都有这方面因素。这个问题可能没有明确结论,但确实值得思考。
刘琦:许老师说的让我想到药物研发里的"反摩尔定律"(Eroom's Law)。大家都知道摩尔定律是技术快速迭代、计算成本快速降低;但药物研发的反摩尔定律是:技术发展快、投入钱多,但真正产出率反而降低。 为什么是这样?我现在也没有很好答案,但这是需要大家关注的问题。
许东:很大程度上是因为剩下的问题越来越多的是硬骨头,低垂的果实已被摘完,剩下来的是更难做的靶点、更难成药的靶点。
我们可以就计算本身讨论。刚才讲了整个制药链,单说计算这一块,我个人认为也有比较大挑战。PPT里展示了,真正工具用到实际数据,和文章结果差得相当远。 很多问题看似解决,其实没有解决。
比如预测多肽能不能通过脑血屏障,很多方法文章结果都很好,但真正去预测真的不行。这些事还得通过昂贵实验去做。所以药物预测的泛化能力好像是个很大问题,和其他AI领域不太一样。自然语言或图像泛化能力可能还比较好,但药物除了人体太复杂,还跟Alpha chain、Beta chain、HLA allele type、环境、怎么测的数据都有关,问题特别复杂。
另外,feature也非常少。小分子可以用SMILE、structure表示,但feature就这么点,和一张照片比少得多;氨基酸feature更少,蛋白或多肽就是20种氨基酸的组合。能用的feature少,我认为也是造成泛化能力差的原因。
所以想问:AI制药这些工具,今后有没有可能真正有更好的思路和方法提高泛化能力?至少让这些工具不只存在于高分文章中,而是真正药物开发的给力工具?
刘琦:我很同意许老师的说法。可以这样想:AI最早的应用场景是text和image,为什么AI在AI for science或AI制药领域泛化不那么容易?不像图像识别有ImageNet,深度学习技术出来后就能做得很好。
我觉得一个原因是:我们对药物、靶点、生命体的研究描述还是不够完备,需要更多信息描述研究对象。 换句话说,当前使用的特征或信息描述有点像"盲人摸象":只是拿到完备描述空间中某一部分。做组学分析时经常能看到:描述一个细胞或生命系统,不是一个简单模态就能描述完备的。这导致在不完备描述空间设计AI算法,泛化能力会受到限制。
第二个最大问题是:可用来训练的标注信息、监督信息相对不容易获取或缺失。 不像image或text,训练模型时监督信息相对容易获取,比如image标签是猫还是狗很容易知道。但药物领域很多标注信息缺失。比如许老师说的epitope问题、免疫的epitope和TCR包括跟HLA结合的问题,这是非常典型的小样本学习问题。HLA有很多亚型,很多deposition数据只在特定常见亚型上,要把模型泛化到没见过的HLA亚型,标注信息就不足。
再比如预测HLA抗原复合物和TCR结合,同样是这个道理。本身就是long tail、长尾分布问题。这样的问题在药物研发里非常常见:针对某蛋白家族做筛选,大量训练样本只在某类特定蛋白上见过,要泛化到没见过的蛋白,必定遇到问题。
这也是为什么AlphaFold做得比较好。它有相对干净、噪音小的ground truth data,可以把protein folding做好;但放到其他领域,不一定有这么干净、好的ground truth data让你训练模型。 再加上生命体系本身非常复杂,不像text、image信息就放在那。各方面原因导致了这些问题。
张清鹏:刘老师回答已经很到位了,我完全echo"盲人摸象"这个点。从AI角度,AI本质上还是在"猜",猜哪个equilibrium state对应什么样的memory或state。 如果只是盲人摸象的片面数据,确实很难有泛化性猜出去,因为本质上还是在猜,没有实际对机理的完整理解和推理能力。
就像自然语言或照片,像刘老师说的,有最完整的ground truth,训练模型效果在算力、模型结构达标情况下确实能达到很好效果。港科大熊辉老师说过:数据越完整清晰,AI猜得越准,取代人的效果越好,比如写代码、翻译等。
但问题在于,很多问题上根本没有完整数据,而且很多是动态的,我们把它当静态看;很多时候只有正样本,没有负样本,因为药厂不会把失败数据分享出来让你学习。 数据本质上的缺失,AI毕竟不是魔法,还是在猜。没有足够数据学习,猜得比较局限、比较过拟合,这是可以理解的。
许东:我很同意两位的说法,刚才都提到了数据问题。数据确实少,很多所谓"negative results"我们都看不到。但我自己觉得,数据总归会积累,只会多不会更少,今后可能逐渐变好。
我上个月买了特斯拉,用全自动驾驶。以前觉得那东西不是特别靠谱,现在几乎开车全用自动驾驶,因为它现在确实非常靠谱。特斯拉早年也报道过问题,但现在Model Y做得非常好,就是通过数据不断积累。 即使积累到现在,它还得不断扩充大模型、不断address我管它叫"edge cases",因为总有一些新case。
这个过程在药物研发中可能也一样:数据不断积累,不断有大模型。 现在制药方面,无论小分子还是免疫,都有人在做所谓"仿真式模型":真正集结大规模数据。这方面我觉得还是给我们一些希望:也许这些仿真式模型达到一定程度后,真能出现所谓"顿悟"现象,就是Grok或emerging intelligence现象,在某些问题上产生实质性突破。
这当然是猜想,没有很强证据,但既然在别的领域能做到,药物领域可能也只是时间问题,也许是5年或10年这个时间段。
03
从小分子、多肽到免疫疗法:
如何寻找药物研发的“好赛道”?
许东:那我们下一个话题,讨论AI制药在不同种类药物上的特殊之处。先说小分子——小分子当然还是现在药物的主流。有些从NCI library里找small molecule做screening,有些做真正的de novo药物设计。但de novo设计有时能设计出来,却不容易合成,或合成效率太低、成本太高。也有从中药或草药中筛选小分子有效成分,这些都是AI能上手的机会。
小分子有优点:比较稳定、容易合成,但也有副作用等问题。想听听两位老师:AI在小分子赛道上能起哪些作用?今后年轻老师选题,哪些可能是比较好的题目?
刘琦:药物研发现在有非常多modality,最经典的还是small molecule,相对其他方式有很多优势,所以这也是AI制药里做得最多、从早期CADD就大量在做的领域。涉及很多molecular层面问题:有靶点,怎么针对靶点做小分子筛选?
看技术发展趋势,从早期筛选到现在大家慢慢做更多Generative AI:不需要筛,而是设计生成新小分子。这又带来新挑战,就像许老师说的:生成出来的小分子怎么评估成药性?是否可以合成? 不能生成出来很理想、很好,最后合成不出来。药物研发里还有很多问题需要解决。
我们现在看到很多工作,包括自己也在做,利用foundation model强大的表征学习能力,加上后续微调、后训练技术做药物筛选和生成。但这里面非常重要的问题是:如何快速获得对AI模型的反馈? 这也是我前面强调的,要做快速反馈,干湿实验结合。
现在有些工作做active learning(主动学习),本质上就像许老师举的蛋白质设计例子,把整个设计loop做成实验反馈,通过贝叶斯优化做实验反馈的loop。这可能是现在很重要的方向:让模型在相对较少训练样本时,通过闭环反馈快速迭代、提升性能。
张清鹏:AI在分子设计这块已经很高产了,就像刘老师说的,但缺乏反馈。我们团队纯做算法,最近加入医学院,发现实验部分不管是合作还是外包,对项目成本和时间耗费都比较高。
我比较期望自动化湿实验能极大把成本降下来,就像AI的token越来越便宜一样。OpenAI的Swarm虽然现在有人拿它赚钱,不代表以后都拿它赚钱,它更多是一个toy,但展示的未来会越来越好、越来越有机会。给大家机会和AI Agent不停interact、得到反馈、知道怎么用这个东西。
自动化湿实验成本越来越低、足够低的情况下,很多实验可以做大量积累正负反馈。 这样找的并不是单一点上分数最高的,而是通过大量反馈找到机制清晰、对整个系统扰动更稳健、更容易转化的分子。
许东:刚才两位都说到快速反馈的赛道上确实也见到一些工作,比如实验室能把机器人和AI联动,一边设计一边24小时不停筛选。商业上也有Recursion Pharmaceuticals、Ginkgo Bioworks这些公司。我们合作者去询价,Ginkgo做一小单10万美元起步,对一般学术单位不太现实。
当然希望这过程在制药工作中能加速。筛选数以万计起步,全自动筛选不同小分子,马上在细胞assays上看到结果,马上给AI设计新小分子,马上合成、测细胞assays,24小时不停迭代。也许这一块今后在药物开发上能取得比较亮眼的成绩,但现在好多还是POC(proof of concept),不是制药公司广泛使用的模式。
许东:那我们下面讨论蛋白多肽制药。这些年以蛋白多肽为基础的药物呈上升趋势。我自己长期做多肽设计,有一点特别想提:小分子我们过去也做过,新冠时发过一篇小分子文章,引用还挺多,但合成非常复杂,找实验合作者也没做成功。多肽就不是这样,设计出来就能合成,价钱现在还挺低。
比如做de novo肽合成,这边能找到专门服务,差不多200美元合成一个多肽,国内有些单位更便宜。如果不追求纯度、不做de novo合成,用大肠杆菌表达,又便宜很多。
所以蛋白赛道不存在"能不能合成"的问题,但存在"怎么有效、是否稳定"的问题,最好常温也能用,尽量避免副作用等。
我们现在参与的一个合作是做老年痴呆疫苗开发,用抗体中和Aβ。早期有人做过,大部分人真有效、真能把Aβ降下来,但6%的人有很强副作用(脑膜炎等),临床实验被叫停。抗体这种方式有时副作用非常大,包括现在癌症免疫疗法也有很多非常大副作用。这块不知道两位有什么经验分享?
刘琦:我做多肽、抗体相对少一点,许老师经验更多。但很同意许老师说法:相对于小分子,多肽抗体可合成性肯定更容易,但凡事都有两面性。
张清鹏:之前跟腾讯合作过一个TCR de novo design的paper,问了业界一些朋友,有个别公司依托医院给比较独特、比较少的病人做临床转化实验,但目前还没积累到很多很强证据。
我个人比较感兴趣的还是免疫治疗,不单单是癌症或自身免疫系统疾病,其他和免疫系统相关的疾病。我们不是指望蛋白一次性解决所有问题,更多从系统角度看怎样影响免疫系统整体状态。这和蛋白质、多肽、抗体设计相关性很强。
人体内免疫抑制蛋白很多种,大家常用的就两种,但还有很多种。这些各种各样的免疫checkpoint protein是不是对应一些抗体设计,或T细胞受体等其他调控免疫系统的机制可以调用起来?这还有很多可以玩、可以探索的点,但我们还没有相关成果出来。
许东: 刚才说的免疫,我认为是大有可为。免疫疗法几乎是制药里的"顶流",现在最早成功是癌症,免疫疗法把过去癌症四期判死刑的人,现在百分之二三十能治好,这是相当惊人的成就。
这种疗法也用到老年痴呆,像我们参与的一型糖尿病,用得非常广。免疫方式以后非常有空间做。 年轻老师如果愿意在这个赛道走,其实大有可为。AI现在做得还非常浅,真正把AI和免疫系统深度结合的工作非常少。
我经常审这类文章,比如给Nature大子刊审。其实我不是免疫专家,免疫懂得很少,但用AI做免疫问题,找reviewer很难找,所以很多人找我来review,两边都知道一些的人不太多。这反过来说其实是个机会。
真正把免疫的东西走得更深、AI结合底层更深,从科研工作来说"俗一点"能发更高分文章,"大一点"可能在药物研发上有更多突破。
张清鹏:稍微补充一点。我个人对这最感兴趣,也是团队核心、现在和未来的研究重心。但和一些很知名的免疫专家交流,大家还是持相当保留态度,觉得AI还是overhyped。
一方面期待能做出很好工作,另一方面需要有合理预期。那位老师说overhyped,但依然用AI设计了一个预测免疫反应的很好文章。他所谓的overhyped是说:想靠AI在数据不够完整情况下猜出整个免疫系统实际状态和response,还是很难。
但具体到病人,比如PD-1百分之二三十的drug response,能把病人response区分开、把病人数据和实际药理学特征对应得上,这本身已经非常非常强了。 只是在超级大佬眼中可能觉得没那么强,但对很多想让它转化到临床的人来说,还是很有希望的。
许东:我对免疫专家这种观点并不惊讶,因为免疫系统实在太复杂了,我们对免疫系统的知识其实知道得非常少。 不光不做免疫的,整个做免疫的专家对免疫系统了解我觉得还是比较表面,光T细胞本身就是一个王国,里面各种各样事情特别多。
所以AI起的作用绝对还是非常小的,但从另一点来讲这就是好的领域。 我们现在在这方面稍微深耕一点,我个人愿意往这方向多用力。年轻科研工作者也可以考虑这个方向。
杨振宁过去讲过一句话,我上大学时亲耳听到:"什么是好领域?找到真正有很大空间成长的领域,你自己的事业也随着领域一起成长,这就是好领域。"我觉得用计算方法、特别是AI方法做免疫,可能就属于这么一个赛道。
刘琦:我也很同意上面两位老师的说法。我们自己也确实在做一些免疫治疗、细胞治疗方面的工作,跟更多免疫学专家讨论。可能两位老师不太清楚,中国这边基金委有非常大的项目支持,所谓"免疫力解码",在基金委交叉学部立很大项目,从免疫系统数据整理收集,到AI方法开发,到具体免疫学应用,我国有很大布局。
从AI药物研发角度,免疫治疗、细胞治疗一定是非常重要的领域,相对于传统其他类型疾病治疗、其他modality,都有很多探索空间,但里面也确实非常多挑战。
最大挑战确实是:免疫学本身高度复杂,很多免疫学家自己都还没搞清楚,更别说我们用AI来做。 包括前面许老师举的例子,我们那篇文章也是在做一个最基本的fundamental问题,抗原和TCR到底怎么识别、怎么结合? 通过做这问题就能看到里面有非常多挑战。
04
RNA、数字细胞与与大模型时代的洞察
许东:那我们下面讨论RNA赛道。RNA本身可以通过新冠疫苗方式作为递送方式。比如我们跟Scripps Research合作,他们做一个蛋白针对癌细胞,但不是把蛋白输入人体,而是像新冠疫苗一样把mRNA放到人体,mRNA进入癌细胞内部表达。这避免了很多问题,很多蛋白越不过细胞膜,但mRNA在里头表达就解决了。
这是一种递送方式。另外小RNA赛道,siRNA、miRNA等,也有不少人探讨用AI辅助制药。在mRNA制药赛道上,两位老师有什么想法或信息分享?
刘琦:从最早做RNA inference、siRNA设计,到现在非编码RNA、microRNA,到现在mRNA疫苗,这个赛道确实和其他modality(抗体或小分子)有不一样的关注点。就像许老师说的,它最重要的是解决了递送方面的重要问题,所以这也是领域非常受关注的原因。
张清鹏:我们经验类似。最开始觉得用语言模型做显然可以做,也看到有些同事发文章。但实际做时请了一个学药物的本科生实习,一个本科生就把我们模型从机理上讲漏洞百出,单单想着很简单假设、一个语言模型就能解决所有问题。
逐渐了解更多后,目前做得更多的还是递送这一块,LNP不同器官分布、预测组分在不同器官分布、内吞路径、脱靶风险等。希望从载体RNA、细胞整体微环境多尺度模型,看递送动力学、化学修饰等一体建模,这是我们在做的一些研究。
许东:那我们下个话题讨论其他数据,多组学数据、单细胞数据对药物的影响。刚才讲了药物和人的作用非常复杂,所以很多方法做药物效果预测。早期在细胞器里做bulk RNA-seq,看药对细胞器的影响。现在做得比较多的是single cell level,甚至大规模做Perturb-seq大规模筛选。
其他组学如蛋白组学、修饰组学也做得蛮多。很多药物作用离不开蛋白修饰,比如抗体作用,抗原糖基化等修饰会阻断作用,测各种组学能理解这事。
进一步现在做Virtual cell,真正把细胞里方方面面在虚拟细胞里模拟出来,变成actionable的模拟器。在虚拟细胞里加药,看会有什么效果。这方向在美国卫生部也推动,因为过去做临床或实验得经过大型动物、找猴子等,现在美国卫生部说可以越过——用细胞实验或小鼠实验,不用做猴子实验,直接到人的一期临床试验。Virtual cell模拟作用越来越重要。
这赛道也有很多AI方法。我们自己做单细胞数据比较多,刘琦老师也做很多这方面工作。单细胞分析、AI对药物响应预测可能有帮助。两位老师在这方面有什么想分享的?
刘琦:组学这块我们确实做了比较多工作,包括单细胞组学。许老师提到Virtual cell概念,我们现在开发所谓in silico cell、Virtual cell、数字细胞,不同概念,但是其实指向相似的事情。
在AIDD领域怎么理解?个人觉得它超越了传统molecular level的AIDD技术手段,更多是从cellular角度做系统刻画。 很多时候组学解决的问题,并不是靶点非常明确、针对蛋白做药物设计或分子筛选,而是只有cellular level的profile、phenotype readout,可能是基因转录组、蛋白组、修饰等,是体系本身的readout。
加上现在perturbation-based技术(如Perturb-seq),可以研究细胞在扰动状态下怎么变化。我们现在也做很多这些东西,包括提了一个概念叫"world model(世界模型)",指的是从动力学角度出发,像无人驾驶汽车一样,研究细胞在扰动状态下的变化轨迹、运动轨迹。
从药物研发角度,这本质上是底层逻辑,可以应用于小分子药物研发,也可以应用于细胞治疗、抗体研发等。它更多是从cellular level而非molecular level研究体系。组学技术本身跟蛋白质结构建模、小分子虚拟筛选等技术,提供了另外一个角度的补充,都是从药物研发角度帮助发现新治疗方案、找到新靶点等方面体现作用。
张清鹏:单细胞这边我们是另外一个角度。一方面是和临床结合合作,对比治疗前/治疗后、预后好/预后不好的病人的单细胞数据,看能不能找到可能的druggable target。找target的过程中,就像刘老师说的已经到了cellular level,很多时候看到单细胞数据里,病(不管是肿瘤还是其他)不是铁板一块,而是复杂生态系统。
干预过程往往也不是以前那样看所有细胞的平均状态,现在能看到不同细胞之间intercellular有很多interaction、互相制约和调控。 这很符合我们做建模、尤其是复杂系统建模的方向,是我们很感兴趣的方向。所以更多还是在利用单细胞测序出来的数据。
05
AI Agent 的涌现与RaaS模式的突破
许东:那我们下一个话题谈谈AI Agent方向。我教机器学习方法论这门课,深感机器学习发展实在太快,估计教别的课每年改一点点PPT就行,机器学习这门课每次讲,百分之二三十内容全得置换,内容太新了。
从自然语言模型到大语言模型,再到AI Agent,然后到所谓"skills"模式,这个发展可能给制药赛道提供一些东西,比如从文献检索到假设生成、实验设计、分子筛选,整个都能串在一起。
我们也见到生信里一些好的Agent,比如Biomni,自己在试这个模型,确实相当给力。这些Agent对药物范式会不会有真正更大的影响? 还是比较期待的。两位老师在这问题上有什么想法?
刘琦:我在同济教机器学习本科课程,也觉得变化非常快。AI从早期符号主义,到现在深度学习连接主义,再到foundation model,到现在Agent时代,发展非常非常快。
生物包括AI制药领域也看到Agent应用。记得很早ChatGPT刚起来时,许老师在给我们学校线上报告讲到prompt、提示工程,现在看技术又不停迭代,从RAG技术到现在可能用得不多,到现在OpenClaw等技术。
也确实看到像许老师说的Biomni,还有北美James Zou等做的很多类似Agent工作。但我个人观点:至少从现在工作看,Agent更多还是扮演自动化的衔接纽带。更多是用智能体技术把很多分析工具和流程整合起来,就是现在说的"skills"——本质上还是工具流程的整合和自动化,并没有传统理解的training-prediction的AI味道,还差那么点意思。
当然不妨碍未来用大语言模型能力,从训练角度、规划角度,涉及后训练技术、强化学习运用,真正让智能体发挥作用。现在感觉Swarm这种东西,更多还是大元模型做流程化调度和整合,智能因素还没有那么被发挥出来。
张清鹏:我们虽然我在药学系,但一半contract在数据科学,给全校设计AI literacy课程,包括给医学院设计相关课程,也是每次几乎要改大半部分。
个人觉得现在AI Agent,一方面不知疲惫,可以一直压榨它;另一方面记忆力好一点,最起码在context下面可以做到过目不忘。类似于实习生角色。基模水平可能还没有特别强,但每个人都有10个、20个24小时工作的实习生,效率肯定提高很多。
而且想到OpenAI Swarm是一种,今年下半年肯定会有更好机制、更好基模出来,token也会越来越便宜。稍微往前看,肯定能比去年James那篇Nature做得更好。像这种相对模块化的科研工作,以后到底什么是科研、什么是人要做的科研,可能需要一定程度重新定义。
有些工作可能真的是a group of Agent完全可以做,完全不需要人参与,以后还是不是我们所谓"人参与的科研",范式上都会有所改变。但短期内,肯定还是看human in the loop,像James那篇文章,还是有一个人,如果没有人可能也做不到那个效果。肯定还是有人在关键点发挥人最重要的角色,然后放大AI能力、放大每个人能力。
整体而言还是非常兴奋。这东西有点像Minecraft游戏,接下来给这些AI Agent一个、两个或100个、1000个,让它自己在里面做各种各样的事,感觉像有个基地,绝大多数潜力都还没有被挖掘出来。可能比协调还要再往前一步,现在基模一定程度上是可以办到的。
当然也包括药物研发。药厂以后成本肯定会降很多,因为记得读书时有个PhD Comics,一个做生物化学实验的博士生崩溃说每隔几小时往里加点东西做实验,"猴子都能干这个事情,我凭什么要干?"。以后具身智能这些方法,Agent在现实实验室中能具身出来,可以省掉很多成本。还是挺期待AI Agent在药物研发里的各种可能性。
许东:我自己感觉,Agent这种方式,特别是Swarm模式,在AI制药赛道上,可能帮的更多的不是方法,而是帮了人。
什么意思呢?以前都是Hardware as a Service(HaaS)、Software as a Service(SaaS)、Data as a Service(DaaS)。Swarm模式真是叫RaaS(Results as a Service)。 你告诉他自然语言的东西,他就直接给你出结果了,这是过去没见过的情况。
在生信问题上,过去很多做实验的人觉得用生信挺复杂,现在跟他说用自然语言把问题说一说,Agent就帮你做了,像BioAutoMATE很大程度上已经实现这个事了——让很多实验的人很容易上手AI工具。
另外,即使我们做计算的,一般学生做问题可能还是比较窄。比如真正做AI设计的,问他稍微一点,让他用别的问题做点pipeline设计,能不能不要有免疫反应?正常情况下他得去学那个东西做成半天,Agent就是描述一下,Agent帮他做了。 所以这些对人的帮助确实非常明显。
刘琦:对,我觉得许老师说得特别对。个人感觉Agent对AI制药来说,还是没有跨越最初讲的那些壁垒,它更多还是加速降本增效过程,提高药物研发前期早期效率、降低成本。原先做实验要一天,现在可能只要一个小时;原先设计什么东西,通过Agent很快把前面所有东西都做好。
但本质的药物研发逻辑还是没有办法突破,包括前面说的那些问题,somehow还是存在在那里。当然不排除未来Agent进化非常快,可能有新技术产生。比如现在也看到,包括在AI模型设计上,很多工作是用Agent帮助设计AI模型架构,希望用Agent帮助更好设计模型架构,达到很好泛化性能。 像这样方向可能对我们突破AI制药本身的重要挑战帮助更大,而不是降本增效。
当然对制药公司来说,很多也非常愿意买单。现在看到真正做AI制药的,不是用AI研究筛选小分子,可能是帮做文献整理、临床资料整理梳理自动化,反而这样一些公司很赚钱。 真正做AI制药的公司反而不是那么容易赚钱,道理也在这个地方。
张清鹏:前一段见一个校友,制药公司,聊到最后说能不能帮我部署几个Agent,让我裁掉1/3的人。 最终就像刘老师说的,更感兴趣的还是直接能降本增效的点,实际核心业务流程现在还很难切进去。
许东:增效确实非常明显。比如我们组有人说,做AI模型什么的,现在研发速度一个人相当于以前6个人的速度。训练这些东西还是得花那么多时间,但产生模型的速度基本上能提高好几倍,这点确实非常明显。
06
全产业链的降维打击与数据孤岛的隐忧
许东:那我们最后一个问题,讲讲中国在这方面的发展。今天听众很多是国内的。国内在AI制药赛道上,对全球科研贡献越来越大,产业上也见到很多创新亮点:比如一些单抗、双抗被国外大型药企高价收购,非常喜人。从中国发展来说,两位老师对做药物的优势、机会、挑战有什么想法?
刘琦:确实看到很多中国药企做海外deal,现在成了一种趋势、一种商业模式。原因很多:
第一,中美成本差异。 中国药物研发上下游产业链,从成本上来说相对美国很有优势,产业链也非常完备。在中国如果有idea,自己具备实现idea做药的所有产业链条,整个产业成本也比较低。这是国外大药厂从中国买drug最大的原因。
第二,中国有比较大的临床数据资源,这也是很重要的优势。
第三,国家本身的技术储备、人才储备,包括AI技术产业快速增长,也是很重要的原因。从AI技术上看,中国应该不比美国差多少。
这些都让我对中国AI制药未来产业发展非常非常有信心。最近也看到很多公司,比如英矽智能、晶泰科技等都做得非常好。
张清鹏:我也同意刘老师说的。一方面制药产业刚才刘老师说了,从AI产业来说,差距基本上在一年之内,是非常小的差距。AI底层不管是能源供给、能源成本,未来token成本,这些都有优势。中国需求也比较大。
唯一的是,数据虽然多但比较分散,很难形成聚力。 尤其是临床这块,我们接触得多一些,数据之间互通一定程度上抑制了很多可能的创新研究以及转化机会。 当然这些都是好攻克、好改变的。
许东:我很同意,这方面国内会越做越好。刚才讲到人才储备,不光是国内,全球范围内华人在这赛道上可能代表了一半的科研人员。黄仁勋老讲全球做AI的一半都是华人,真是这样。
我是90年来美国的,那时候技术高手好多是前苏联、东欧的人,数学训练特别严格。比如BLAST软件最终优化好多都是前苏联三十几个人优化到非常极致的程度。但过去十年看到,因为国内基础教育非常好,AI在这方面表现非常突出,无论国内还是海外华人,都还有很多机会。
许东:那今天聊得差不多了,也快两个小时了。非常感谢两位嘉宾来参加讨论,自己也学了很多。感谢听众来参加论坛,最后感谢雷峰网科技评论和GAIR Live平台,让我们有机会之间交流,也跟大家交流。
刘琦、张清鹏:谢谢大家。
Youtube链接:https://youtu.be/wMUy6pEjg5A
未经「AI科技评论」授权,严禁以任何方式在网页、论坛、社区进行转载!
公众号转载请先在「AI科技评论」后台留言取得授权,转载时需标注来源并插入本公众号名片。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.