![]()
![]()
要点速览:
· 本文记录了8位顶尖神经科学家将大模型等AI工具纳入核心工作的具体场景,覆盖了细胞图谱绘制、文献分析、数据处理、实验指导、代码生成、会议记录整理等多个场景。AI,已经成为科研不可或缺的“协作伙伴”。
· 核心应用聚焦六大方向:包括生成无偏大脑细胞图谱(如CellTransformer模型)、辅助非英语母语研究者提升文本与编码效率、预测神经科学研究结果及复现可能性(如BrainGPT项目)、开发神经数据探索可视化工具、指导疾病相关分子机制实验、快速提取文献结构化信息(如MetaBeeAI)。
· AI主要承担大规模数据处理、重复劳动、初步分析等任务,人类研究者负责结果验证、错误纠正、深度解读及关键决策,“专家在环”的流程设计保障了研究的准确性与透明度。
· AI能够突破人类认知局限,如发现未被编目脑区、连接被忽视的研究成果、快速处理海量文献与数据,同时为跨物种、跨疾病的研究提供可扩展平台,加速科学发现进程。
· 但是,AI仍存在幻觉(虚构文献/数据)、统计陷阱、理解偏差等问题,研究者通过限制工具作用边界、手动审查输出结果、构建领域基准数据集、持续微调提示词等方式降低风险。
· 双向赋能成为新趋势:AI不仅助力神经科学研究,神经科学的成果也反向用于剖析AI模型(如探究大模型语言处理机制),这种双向交流催生协同效应,推动双方领域共同进步。
(文末有征集送好礼活动,不要错过哦!)
人工智能会如何重塑科学研究的未来?当一个“无所不知”的数字大脑成为科学家的研究伙伴,会碰撞出怎样的火花?这或许不再是一个遥远的问题,而是一个正在发生的现实。
在过去的几年里,大语言模型在规模和能力上实现了迅速增长。它们不仅能理解和生成文本,还能解析复杂的图表与代码,展现出强大的推理能力。面对这一新兴力量,嗅觉敏锐的科学家们没有迟疑,迅速将其融入自己的工作流程中。他们或使用这些工具来分析文献,或与之共同头脑风暴提出假设,或利用其高效查询数据库,与复杂数据集交互并调查新发现的结论。
那么,在神经科学——这个探索人类心智前沿的领域里,这一切是如何具体发生的?下面,八位顶尖的神经科学家将为我们分享他们与这位“新同事”共事的独家故事。
01
Reza Abbasi-Asl:用Transformer
绘制无偏的大脑细胞地图
![]()
Reza Abbasi-Asl
2018年于加州大学伯克利分校获得电气工程与计算机科学博士学位和硕士学位,期间开发了具有计算神经科学应用的可解释机器学习工具。目前是UCSF神经病学系和生物工程与治疗科学系的助理教授,关注精神疾病相关研究。
我们的实验室正在使用大模型背后的核心技术来解决一种完全不同的语言:细胞组织的语言。实验室通过空间转录组实验进行观测。我们提出了一个简单的问题:人工智能模型能否根据细胞周围的细胞环境来解释细胞,就像语言模型解释句子中的单词一样?结果证明答案是肯定的。
我们开发了一个名为CellTransformer的模型,该模型通过学习,能基于其“细胞邻域”,即围绕它的细胞小社区的分子特征预测细胞状态。我们使用由我们的合作伙伴艾伦研究所收集的大量空间转录组数据集对模型进行以自监督训练;AI模型观察一个细胞邻域,观察时忽略一个细胞的分子身份,然后尝试根据其临近细胞预测隐藏细胞的身份。
通过重复这一过程数百万次,CellTransformer学会了不同细胞如何排列在一起的基本规则。这种方法与之前旨在定义大脑中不同细胞类型的脑图工作不同。CellTransformer确定了这些细胞类型是如何组装成更大的、有明确功能的区域的。
CellTransformer能够有效地从底层学习神经解剖学的规则,而不需要任何人工指导。实验室创建了一个全新的、超高分辨率,完全是数据驱动的大脑细胞图谱。 我们非常激动地看到CellTransformer以惊人的准确性重现了大脑已知的大尺度区域结构,并且还发现了许多之前未编目、更精细的亚区域。
![]()
CellTransformer识别出的1300个脑区及艾伦研究所提供的参考分区
这真的很令人兴奋,因为几十年来,临床研究一直依赖于本质上是由手绘的大脑地图,这些地图包含了历史上对大脑不同区域兴趣所带来的偏见。我们用AI生产的地图提供了更详细和无偏见的表征,使科学家能够将疾病状态或药物作用与大脑中高度特定的、由细胞定义的区域相关联,并且可以轻松应用于新出现的数据集。
最令人兴奋的可能是CellTransformer框架不仅适用于神经科学。我们设计它作为一个强大且与组织无关的工具,可以应用于任何具有大规模空间转录组数据的器官系统。这不仅提供了一张新的脑图,还为创建几乎任何生物学领域的高分辨率细胞图奠定了基础。最终,我们将其视为一个可扩展的平台,将为深入了解无数不同物种和疾病状态的组织结构铺平道路。
02
Katrin Franke :
提升非英语母语者文本效率
![]()
Katrin Franke
斯坦福大学基础生物科学领域的高级研究科学家,关注眼科研究与临床实验,通过结合神经元记录和人工智能工具来研究大脑中视觉信息处理的基本原理。
作为一名非英语母语英语者,我以前在清晰表达想法方面很吃力——无论是撰写电子邮件时把握正确的语气,还是总结论文。现在,我使用大模型来润色我的草稿,检查语法和调整语气,使写作对我这样的非母语者来说变得更加容易。
除了写作,我还依赖大模型进行编码任务,尤其是生成用于数据绘图或调试的小段代码片段。这些工具的交互性帮助我比独自工作时更有效地思考问题。我还发现自己与大模型来回交流想法——无论是头脑风暴分析研究方法,还是思考如何构建我正在撰写的论文结构。
我的研究涉及众多协作,包括频繁的会议,我们将会议记录转录工具,并使用大模型进行处理,以生成有明确行动项的有序摘要,这节省了大量时间。最近,我们开始使用视觉语言模型等高级模型作为科学家的强力助手。视觉语言模型允许研究人员以前所未有的规模和速度,执行传统上需要人类理解的分析。例如,我们的研究涉及理解视觉皮层中的神经元对不同图像的反应,现在我们可以使用视觉语言模型自动描述这些图像的共同点,这比研究人员手动完成要快得多。
尽管我经常使用这些工具,但我对它们的输出保持批判性视角。如果一个人对输出保持批判性视角,并意识到如幻觉等局限性,我相信AI工具,如大模型具有巨大的潜力,可以彻底改变我们的工作方式。
03
Bradley Love:人机协作
预测神经科学研究结果及复现可能性
![]()
Bradley Love
洛斯阿拉莫斯国家实验室的高级研究科学家。在启动BrainGPT项目后,他对将大语言模型等现代人工智能技术扩展到构建能加速科学发现的系统产生了浓厚兴趣。
BrainGPT.org项目调查了在神经科学文献上训练的大模型是否能在预测神经科学各个子领域的实验结果方面超越人类专家。来自11个国家的国际团队开发了BrainBench,这是一个基于《神经科学杂志》摘要的基准测试数据集,考察了人类专家和大模型能否区分实际和被微妙改变的研究结果。
![]()
BrainBench是一个用于评估受试者预测神经科学研究结果的能力的神经科学基准测试。受试者需要在原始摘要和经过大幅修改结果但仍保持连贯性的摘要之间进行选择。人类专家和大型语言模型(LLMs)的任务是从这两个选项中选择正确的(即原始的)版本。人类专家在在线研究中做出选择并提供可信度和专业知识评级。LLMs的评分是基于选择困惑度较低的摘要(即对模型来说不那么令人惊讶的文本段落),它们的可信度与两个选项之间的困惑度差异成正比。图源:Nature Human Behaviour
关键发现是,大模型展示了超越人类的实验结果预测能力,具有更高的置信度与更高的预测准确性。这项开创性研究表明,大模型可能会从根本上改变神经科学研究的方式。BrainGPT的出现有两个主要影响:首先,由于大模型和人类专家都表现出校准的置信度,结合人类和AI的混合团队可能比单独由人或大模型更准确地进行预测;其次,BrainGPT可以通过利用大模型的独特能力来加速科学发现。
![]()
人类和各种模型的预测准确性对比,来自https://arxiv.org/pdf/2408.08083
哈佛医学院和麻省总医院的Michael Schwarzschild发现了一种潜在的帕金森病生物标志物,后来发现20世纪80年代和90年代的研究已经暗示了类似发现。经过测试,BrainGPT正确地将这一创新结果识别为最有可能的,展示了它们发现被忽视的研究和连接不同科学文献的能力。
该团队现在正与AE Studio合作开发开源工具,帮助各学科科学家利用这些预测能力。这些工具旨在通过预测研究结果和评估过去研究的复现可能性来加速发现。
04
Jeremy Magland:开发端到端的
神经电数据探索和可视化智能体
![]()
Jeremy Magland
2015年加入西蒙斯基金会的Flatiron研究所。他的工作重点在于开发用于分析、可视化和共享大规模科学数据的计算方法和开源软件。现在专注于构建可重复使用、云友好的工具,使复杂数据集更容易探索和重用。
我们使用大语言模型来帮助神经科学家更容易地复用DANDI(神经生理学数据分布式存档)存档中的复杂数据集。DANDI托管了数百个神经生理学数据集,其中包含使用电生理学和钙成像等技术收集的大脑活动记录,以及行为和刺激数据。这些数据集充满了发现新结果的潜力,但如果没有收集这些数据,可能会很难知道从哪里开始。
我们的团队构建了一个系统,使用大模型来完成一些繁重的工作。首先,一个AI智能体探索数据集:它自主地从远程文件中加载数据片段,运行探索脚本,并生成和检查可视化来理解数据。然后,第二个模型使用收集到的信息编写一个Python notebook,介绍数据集,展示如何加载数据、绘图和分析数据。经过人类对准确性的审查后,该notebook与数据集共同上线。项目目标是帮助科学家在几分钟内从“这看起来很有趣”过渡到“我可以开始工作了”。 这一步使公共神经科学数据更易于接近和重复使用。
在使用大模型时,重要的是要意识到它们存在可能产生误导性信息的潜在风险。我还启动了这个项目来测试大模型,看看它们是否会陷入一些常见的统计陷阱,并可能导致虚假发现。预计随着模型变得更智能,这个问题将变得不那么严重。
05
Nina Miolane:
使用大模型查找文献并指导实验
![]()
Nina Miolane
加州大学圣塔芭芭拉分校的助理教授,领导几何智能实验室,并与REAL AI for Science Initiative和Bowers女性大脑健康计划的AI核心共同担任联合主任。使用 AI 模型构建大脑的数字孪生——整合成像、认知和分子数据,以预测大脑健康、早期检测疾病并支持个性化护理。
额叶-颞叶变性(FTD)是一种影响大脑额叶和颞叶区域的痴呆症,损害语言、决策和运动功能。尽管它是60岁以下人群中最常见的痴呆症,但人类对其分子基础仍了解不多。我们想利用FTD患者的蛋白组学大数据,通过可解释图神经网络(GNNs)来填补这一空白。
我们的模型通过检测早期分子迹象来预测未来的认知衰退,有时能在症状出现之前预测疾病将如何影响患者的生活。然后我们应用大模型增强的可解释性技术来识别驱动模型预测的蛋白质,以便在分子层面突出可能促成FTD的模式。
我们将大模型整合到我们的可解释性流程中。在确定最重要的10个预测蛋白质后,定制AI会查询PubMed并总结相关论文,以回答诸如:这些蛋白质已知的功能是什么?哪些与神经退行性疾病有关?例如在阿尔茨海默病或帕金森病研究中,或在动物研究中出现?哪些可能是新的?
早期测试已经产生了有希望的线索——例如,揭示GNN识别的蛋白质与其他神经退行性疾病之间的论文,即使没有先前已知的FTD关联。我们的团队验证了所有参考文献。我们发现,自动搜索丰富了我们的解释和讨论,指导我们选择未来在实验室中测试那些蛋白质。
该方法确实存在局限性。大模型可能会虚构研究,例如引用不存在的论文或非同行评审的研究。为了降低这种风险,我们将大模型的作用限制为总结来自自动化PubMed搜索的结果,所有输出都由我们的团队手动审查。即使AI可能仍然会误解发现或错过关键文献,该工具在假设生成方面仍然很有价值。我们计划通过跟踪大量查询中有效输出与错误输出的比率,通过专家审查来正式评估其准确性。
06
Rachel Parkinson:
快速阅读文献并提取结构化信息
![]()
Rachel Parkinson
牛津大学蜜蜂研究所,人工智能科学研究员。她研究调查昆虫的感官信号处理以及环境压力因素对授粉者大脑和行为的影响,使用神经生态学方法来理解昆虫如何使用感觉数据进行觅食和导航。她的研究还考察了如农药等压力因素如何影响昆虫感知和应对环境变化的能力。
我们使用大模型来克服生物学和神经科学中的一个挑战:海量的已发表研究。我们的项目MetaBeeAI专注于理解压力源,如杀虫剂,如何影响昆虫的大脑和行为。但核心问题是普遍存在的:研究人员难以跟上文献增长的速度。
MetaBeeAI使用大模型阅读数千篇论文,识别相关发现并提取结构化数据——包括实验设计、受影响的脑区和行为结果——以便立即纳入元分析或计算模型。
关键在于,这并不是一个“黑盒”系统。我们设计了MetaBeeAI作为一个专家在环的流程,研究人员可以在每个阶段验证输出,纠正错误,并提供改进后的提示词和对大模型进行微调的反馈,从而随着时间的推移提高工具的上限。这使得整个过程透明、可审计,并适应不同领域的需求。我们还在构建一个由领域专家精心策划的基准数据集,这有助于评估大模型在真实生物文献上的性能,并推动模型成为更好的科学阅读者。
我们的最终目标是让这个工具可供神经科学和生物学领域的所有研究人员使用,帮助他们提取关键发现,综合证据,并加速发现。
07
Martin Schrimpf:
用大模型预测人脑处理语言时的特征
![]()
Martin Schrimpf
洛桑联邦理工学院助理教授。他的研究专注于对视觉和语言中智能背后神经机制的计算理解。为了实现这一目标,他融合了深度学习、神经科学和认知科学,构建了与大脑内部处理中的神经表征相匹配、输出与人类行为对齐的人工神经网络模型。
我们将大模型用作大脑处理的预测模型。我们最近发现,GPT型模型的内部表示——也就是为ChatGPT等工具提供支持的同一模型家族,其表征与人类语言网络内部的表征惊人地相似。当我们向人类和这些模型展示相同的文本时,我们观察到两个系统之间存在着显著的对应关系:模型的内部激活预测了大脑中的神经活动模式和阅读时间等行为反应。
这种一致性足够强,以至于我们现在可以使用大模型来选择可以可靠地增加或减少人类语言系统特定部分活动的句子。我发现这非常令人兴奋,因为它开辟了通过感知输入而非侵入性程序来调节大脑活动的可能性。
受这些发现启发,我们也在研究大模型能否被视为一种“物种”,通过使用神经科学中的功能定位器对各种模型进行研究,我们发现大模型的组件中只有相对较小的一部分用于核心语言处理,这意味着很大一部分用于辅助任务。这一特征,与人类语言网络和更广泛的推理及世界知识系统存在不同,再次出现呈现镜像映射。
在这种双向交流中,我们有了许多有价值的发现,包括使用AI模型来理解大脑,以及使用神经科学工具来剖析模型。我们看到越来越多的协同效应,我相信这将导致更完善的大脑模型。
08
Kim Stachenfeld:
数据驱动的计算神经科学模型自主构建
![]()
Kim Stachenfeld
Google DeepMind的高级研究科学家,同时也是哥伦比亚大学理论神经科学中心的兼职助理教授。她研究大脑如何构建支持记忆和预测的世界模型。在机器学习方面,致力于将这些认知功能实现到深度学习模型中。
计算模型在神经科学中扮演着重要角色,它将神经过程的抽象描述与可测试数据的定量预测相结合。传统上只有专业研究人员能构建。
然而,现在大模型也能编写可执行代码,虽然大模型生成的代码仍落后于熟练程序员的代码,但它可以快速且大规模地生成。AlphaEvolve等方法通过在优化循环中生成和改进代码来发现最大化某些得分的程序。我们团队正在使用这种方法进行数据驱动的计算模型发现,优化大模型生成的程序以捕捉神经科学数据集。
我们专门将这种方法应用于发现捕捉动物学习行为的计算模型中存在的问题。流程以含示例程序和修改说明的提示词启动,大模型提出修改方案,新程序按数据拟合度评分,迭代中高分程序会替换示例程序。这些生成程序拟合效果好、易阅读,但难点在于理解其代码元素功能及与过往研究的关联。
这也体现了生成式AI的普遍权衡:模型构建变简单了,但质量难保障。计算神经科学家如今的核心挑战,是明确模型所需具备的属性。
2026

从这条Flag开始
“每天多睡一小时”“开一家自己的小店”“读完50本书”“带家人去一次长途旅行”……
还记得去年底你立下的Flag吗?它实现了吗?
每一个认真写下的目标,都是你送给新一年的珍贵礼物。2026年,你想解锁哪些新的关卡,达成哪些新的成就?今天,【红杉汇】再次向各位读者发起——
2026新年Flag征集令
先立Flag,再赴山海。本次征集主题、内容不限,无论是事业、桃花、健康,还是学习、家庭,或者是生活探索,凡你期待,皆可留言。
我们将精选并汇编部分读者的新年Flag,最终推出2026新年特辑,被选中的读者将获得我们准备的新年礼包一份。
征集时间:2025.12.15-2025.12.28
征集方式:在本文下方留言处留言
征集内容:我的2026新年Flag
要 求:主题、内容不限,条理清晰
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.