![]()
█ 脑科学动态
首个包含六种主要细胞的“微型大脑”问世
深度睡眠通过脑液和神经节律支持记忆
大脑并非被动接收声音,而是主动调谐的倾听者
鱼的眼睛会骗人,鸟的眼睛更“实在”?视错觉揭示动物感知的奥秘
瘦素感应大脑回路可克服焦虑以满足生存需求
社交媒体使用量增加导致青春期前儿童认知能力下降
荣格“原型”理论的神经科学新解
海马体如何通过一个参数实现多样的记忆编码与回放
█ AI行业动态
谷歌Gemini接入实时地图数据,一键规划最完美的可执行旅程
AI助力核聚变突破:DeepMind与CFS加速清洁能源进程
顶级AI模型加密投资大乱斗:DeepSeek赚翻,GPT-5巨亏
█ AI驱动科学
大语言模型也会“脑腐”,垃圾网络文本会导致其认知能力下降
记忆即行动:为长程任务打造自主上下文管理框架
AI眼中的实验室:结合XR与视觉大模型,LabOS革新科研协作模式
Meta耗费40万GPU小时,揭示大模型强化学习的Scaling Law
用于无监督多变量时间模式分类和多通道脉冲排序的节俭脉冲神经网络
Emoface:通过面部生物标志物区分重度抑郁症和躁郁症的人工智能辅助诊断模型
脑科学动态
首个包含六种主要细胞的“微型大脑”问世
如何更真实地模拟人脑以研究复杂疾病?麻省理工学院的 Li-Huei Tsai、Robert Langer 及合作团队开发出一种名为miBrain的全新3D人脑模型。该模型首次集成了全部六种主要脑细胞类型,为深入理解阿尔茨海默病等神经退行性疾病的细胞机制提供了前所未有的平台。
![]()
▷ 青色染色显示 miBrain 培养物中整合的六种主要细胞类型。Credit: MIT Picower Institute/Koch Institute
研究团队利用患者来源的诱导多能干细胞,在一种定制的、模仿大脑细胞外基质的水凝胶支架中,成功培育出包含神经元、星形胶质细胞、小胶质细胞、少突胶质细胞、周细胞和血管内皮细胞的微型大脑组织。这些miBrains模型能自发组装成功能单元,展现出神经活动、髓鞘形成以及功能性的血脑屏障等关键特征。
为了验证模型的应用价值,团队将其用于研究阿尔茨海默病最强的遗传风险基因APOE4。通过构建含有APOE4星形胶质细胞的miBrain,研究人员发现,这些细胞足以驱动阿尔茨海默病的两种核心病理特征:淀粉样蛋白的聚集和tau蛋白的异常磷酸化。更重要的是,研究揭示了这一过程背后的关键机制:APOE4星形胶质细胞必须与小胶质细胞进行分子“串扰”才能诱发病理变化。当模型中缺少小胶质细胞时,tau蛋白的病变程度显著降低。这一发现精准定位了细胞间的相互作用在疾病发展中的核心作用,为开发新的治疗靶点提供了重要线索。研究发表在 PNAS 上。
阅读更多:
Stanton, Alice E., et al. “Engineered 3D Immuno-Glial-Neurovascular Human miBrain Model.” Proceedings of the National Academy of Sciences, vol. 122, no. 42, Oct. 2025, p. e2511596122. pnas.org (Atypon), https://doi.org/10.1073/pnas.2511596122
深度睡眠通过脑液和神经节律支持记忆
睡眠为何对大脑至关重要?日本理化学研究所(RIKEN)脑科学中心的 Masako Tamaki 及其团队,为解开这一谜题提供了新线索。他们的研究首次揭示了深度睡眠期间,大脑中的慢波等神经节律如何与脑脊液的特定流动模式紧密耦合,这种协同作用可能对巩固记忆和清除大脑废物起着关键作用。
![]()
▷ 不同睡眠阶段的大脑区域活动。慢波睡眠会诱发与学习和记忆回路相关的大脑区域活动。Credit: RIKEN
为了克服传统功能性磁共振成像的巨大噪音对睡眠的干扰,研究团队采用了稀疏功能磁共振成像(sparse functional MRI)技术,该技术在扫描间隙留出安静时段,使得受试者能够在仪器内安然进入深度睡眠。通过同步记录脑电波,研究人员得以精确捕捉不同睡眠阶段的神经活动,并将其与大脑侧脑室(lateral ventricles,充满脑脊液的大脑空腔)的信号变化进行关联分析。研究发现,在深度睡眠阶段,标志性的慢波与频繁、中等强度的脑脊液信号增强呈现出紧密的时间锁定关系。这种独特的动态模式与浅睡眠和快速眼动睡眠截然不同。更重要的是,在深度睡眠期间,海马体和额叶皮质等负责学习与记忆的关键脑区表现得尤为活跃。这一发现表明,深度睡眠可能通过一种独特的神经-流体耦合机制,高效地“清洗”并维护着这些在日间高强度工作的记忆网络。研究发表在 PNAS 上。
阅读更多:
Uji, Makoto, et al. “Human Deep Sleep Facilitates Cerebrospinal Fluid Dynamics Linked to Spontaneous Brain Oscillations and Neural Events.” Proceedings of the National Academy of Sciences, vol. 122, no. 41, Oct. 2025, p. e2509626122. pnas.org (Atypon), https://doi.org/10.1073/pnas.2509626122
大脑并非被动接收声音,而是主动调谐的倾听者
大脑如何在我们专注于任务时更有效地处理声音?耶路撒冷希伯来大学的 Israel Nelken、Ana Polterovich、Alex Kazakov、Maciej M. Jankowski 和 Johannes Niediek 发现,大脑听觉皮层并非简单地放大声音,而是通过与任务行为同步的内在神经活动,主动重塑对声音的表征,化身为高效的倾听者。
研究团队通过记录在执行声音辨别任务的自由活动大鼠的大脑活动,揭示了听觉系统的一种全新工作模式。他们发现,当大鼠专注于任务时,其听觉皮层的神经元会表现出一种独特的、大规模的慢放电频率调制。这种活动并非由外部声音直接触发,而是与任务的特定时间点(如开始、等待、获取奖励)严格同步,如同大脑为任务内置的“节拍器”。这种内在的“计时”活动使得声音呈现前的基线神经活动水平显著提高。与直觉相反,这种高基线活动并没有增强大脑对声音的反应强度,反而使其减弱。然而,这种减弱的反应却携带了更多与任务相关的信息,使得声音的表征更加清晰和独特。研究团队通过计算机模型进一步阐释了其背后的机制:持续升高的神经活动引发了更强的突触抑制(synaptic depression,即神经元之间的连接效率暂时降低),这减少了神经元的同步放电,从而塑造出信息量更大、噪声更少的声音编码。这一发现表明,注意力并非一个简单的音量放大器,而是一个复杂的自适应过滤器,能根据行为需求实时优化听觉处理。研究发表在 Science Advances 上。
阅读更多:
Polterovich, Ana, et al. “Task-Related Activity in Auditory Cortex Enhances Sound Representation.” Science Advances, vol. 11, no. 42, Oct. 2025, p. eadv1963. science.org (Atypon), https://doi.org/10.1126/sciadv.adv1963
鱼的眼睛会骗人,鸟的眼睛更“实在”?视错觉揭示动物感知的奥秘
动物的感知世界是否与人类相同?为了探究视觉错觉如何反映不同物种的生态适应性,维也纳大学与康拉德·洛伦兹动物行为学研究所的Maria Santacà、Cliodhna Quigley和Leonida Fusani团队比较了孔雀鱼和环斑鸠对艾宾浩斯错觉的反应。研究揭示,不同物种的视觉策略与其生存环境紧密相关,为理解感知的进化提供了新视角。
![]()
▷ 著名的艾宾浩斯错觉,以其发现者德国心理学家赫尔曼·艾宾浩斯(1850-1909)的名字命名。尽管外观不同,但两个橙色圆圈大小相同。Credit: Wikimedia Commons, public domain
研究团队利用经典的艾宾浩斯错觉(Ebbinghaus illusion,即一个中心圆的感知大小受周围圆圈大小影响的现象)范式,来探究两种生态位迥异的动物——孔雀鱼和环斑鸠的视觉感知策略。实验中,研究人员以食物为诱饵,观察动物的选择。结果显示,孔雀鱼一致地“上当了”,它们更倾向于选择被较小圆圈包围的食物,表明它们像人类一样,将这个食物感知为更大。研究者认为,这种行为反映了孔雀鱼依赖整体处理(global processing,即优先将视觉场景作为一个整体来解读)的策略,这可能有助于它们在光线变幻、植被茂密的复杂水下环境中快速评估配偶或捕食者的相对大小。相比之下,环斑鸠在群体层面上并未表现出对错觉的稳定反应,个体间差异巨大。这种现象表明,环斑鸠可能更倾向于局部处理(local processing,即更关注单个物体的细节而非整体背景),这种策略更适合它们作为陆生食谷动物的需求——在杂乱的地面上精确识别和啄食微小的种子。研究发表在 Frontiers in Psychology 上。
阅读更多:
Santacà, Maria, et al. “Circles of Deception: The Ebbinghaus Illusion from Fish to Birds.” Frontiers in Psychology, vol. 16, Oct. 2025. Frontiers, https://doi.org/10.3389/fpsyg.2025.1653695
瘦素感应大脑回路可克服焦虑以满足生存需求
大脑如何在焦虑与饥饿等基本需求间做出权衡?科隆大学的Tatiana Korotkova及其团队研究了小鼠大脑。他们发现,下丘脑外侧(lateral hypothalamus)一个对瘦素(leptin)敏感的神经回路是关键,该回路能主动抑制焦虑,从而使动物能够执行进食和探索等对生存至关重要的行为。
![]()
▷ 下丘脑外侧(绿色)中的瘦素感应神经元有助于克服焦虑,从而实现适应性行为。来自前额叶皮质的输入以红色表示。白线表示单个神经元的活动。Credit: Rebecca Figge-Schlensok
研究团队利用微型显微镜对自由活动的小鼠进行在体单细胞钙成像,实时监测了下丘脑外侧中表达瘦素受体的特定神经元(LepR_LH)的活动。他们发现,每当小鼠克服恐惧、探索令其不安的开放区域或在其中进食时,这些神经元的活动就会增强。进一步的实验中,当研究人员人为激活这群神经元时,小鼠的焦虑行为明显减少,更愿意在挑战性环境中探索和进食。该神经元群的活动甚至能预测个体小鼠的焦虑水平。研究还揭示,在高焦虑个体中,来自前额叶皮层的输入会抑制这群抗焦虑神经元,使其难以发挥作用。在神经性厌食症的动物模型中,激活该回路能显著减少由焦虑驱动的过度运动,同时不影响正常活动,为治疗相关疾病提供了新思路。研究发表在 Nature Neuroscience 上。
阅读更多:
Figge-Schlensok, Rebecca, et al. “A Lateral Hypothalamic Neuronal Population Expressing Leptin Receptors Counteracts Anxiety to Enable Adaptive Behavioral Responses.” Nature Neuroscience, Oct. 2025, pp. 1–11. www.nature.com, https://doi.org/10.1038/s41593-025-02078-y
社交媒体使用量增加导致青春期前儿童认知能力下降
青春期前儿童日益增加的社交媒体使用是否影响其认知发展?Jason M. Nagata及其同事利用大规模纵向数据进行研究。他们发现,从9岁到13岁,社交媒体使用量持续增加的儿童在语言和记忆等认知测试中表现较差,揭示了社交媒体使用与认知能力下降之间的显著关联。
![]()
▷ 不同年龄段社交媒体使用时间轨迹。Credit: JAMA (2025).
该研究基于美国“青少年大脑认知发展”(Adolescent Brain Cognitive Development, ABCD)项目的数据,对6,554名青少年进行了为期三年的跟踪调查(从9-10岁到11-12岁)。研究人员采用基于群体的轨迹建模(group-based trajectory modeling,一种识别不同发展模式的统计方法)分析了儿童社交媒体使用习惯的变化,并将其分为三组:无或极低使用组(占57.6%)、低度稳步增长组(36.6%)和高度持续增长组(5.8%)。认知能力通过美国国立卫生研究院工具箱认知电池进行评估,涵盖口头阅读、顺序记忆等多个维度。研究结果清晰地显示,随着社交媒体使用量的增加,认知表现得分呈下降趋势。其中,社交媒体使用量高且持续增长的儿童群体,在多项认知测试中得分最低,尤其是在语言和记忆能力方面。这项观察性研究虽然不能确定因果关系,但有力地证明了社交媒体使用与青春期前儿童认知能力下降之间存在强相关性。研究发表在 JAMA 上。
阅读更多:
Nagata, Jason M., et al. “Social Media Use Trajectories and Cognitive Performance in Adolescents.” JAMA, Oct. 2025. Silverchair, https://doi.org/10.1001/jama.2025.16613
荣格“原型”理论的神经科学新解:迷幻体验如何揭示深层潜意识的运作模式
荣格的“原型”理论能否被科学证实?Hugh McGovern、Marco Aqil、Selen Atasoy和Robin Carhart-Harris团队尝试回答这一问题,他们整合了荣格心理学与前沿神经科学,提出一个全新框架,揭示原型、集体无意识和迷幻体验背后的神经机制,为这一百年心理学理论赋予了可检验的生物学基础。
该研究将荣格心理学概念与大脑的预测性加工(Predictive Processing,即大脑通过不断生成和修正预测来理解世界)框架相结合,提出了一个“三元互动”模型来解释原型的神经基础。模型认为,原型并非单一概念,而是分层存在的:最深层是“原型本身”,作为一种与生俱来的情感倾向,根植于大脑皮层下古老的情感中枢;中间层是“原型意象”,即我们在梦境或迷幻体验中遇到的具体形象,由视觉皮层等低层感官区域产生;最上层是“原型故事”,即英雄之旅等叙事模式,由默认模式网络(Default Mode Network, DMN,一个与自我反思和叙事思维相关的大脑网络)等高级皮层编码,并受文化熏陶。研究指出,迷幻药(如LSD、DMT)作为5-HT2A受体激动剂,能够暂时“松开”高级皮层对低级脑区的自上而下的抑制性控制,使大脑进入一种更灵活、信息流动更自由的“熵增”状态。这使得来自深层潜意识的、通常被压抑的“原型本身”和“原型意象”得以涌入意识。而“集体无意识”则被视为一种由进化和文化共同塑造的、全人类共享的预测模型,它在我们的大脑中形成普遍的神经活动“吸引子”,这解释了为何不同文化中会出现相似的神话和象征。研究发表在 Neuroscience of Consciousness 上。
阅读更多:
McGovern, Hugh, et al. “Eigenmodes of the Deep Unconscious: The Neuropsychology of Jungian Archetypes and Psychedelic Experience.” Neuroscience of Consciousness, vol. 2025, no. 1, Feb. 2025. academic.oup.com, https://doi.org/10.1093/nc/niaf039
发放率自适应:海马体如何通过一个参数实现多样的记忆编码与回放
大脑海马体在记忆编码和导航中生成多样化的神经序列,包括快速的前瞻性theta序列和复杂的记忆回放序列。然而,科学界一直缺乏统一的理论来解释这些动态模式的来源。北京大学心理与认知科学学院的吴思研究团队与合作者Zilong Ji, Tianhao Chu, Xingsi Dong, Changmin Yu, Daniel Bush, Neil Burgess等,通过理论驱动的计算模型和动物实验,首次提出了一个统一的底层机制。
该模型的核心在于在传统的连续吸引子网络中引入了单细胞层面的自适应负反馈机制。研究发现,发放率自适应(Firing Rate Adaptation,即神经元在持续高活动后活动强度降低的现象)是驱动所有序列动态的关键统一底层机制。通过调节自适应强度这一单一参数,模型即可模拟动物在运动状态下产生的theta序列,以及在静止/睡眠状态下涌现的静止型、扩散型和超扩散型回放序列。
基于该统一机制,团队提出了三大理论预测并用动物实验进行了验证。第一,跨动物数据证实,theta序列的长度与回放序列的扩散性呈显著正相关,表明这两种序列功能由同一适应强度参数调控。第二,回放序列的扩散性具有状态依赖性:清醒状态下由于较强的自适应强度,回放序列呈现超扩散动态(Super-diffusive);而在睡眠状态下,扩散性显著减弱。第三,在时间尺度上,神经活动与回放步长呈反相位锁定(Anti-phase Locking):在伽马振荡处于峰值时,神经活动增加会抑制自适应负反馈,导致回放步长减小(局部扫描)。这些结果首次在理论和实验层面建立了海马体序列多样性的统一框架。研究发表在 Nature Communications 上。
阅读更多:
Ji, Zilong, et al. “Dynamical Modulation of Hippocampal Replay Sequences through Firing Rate Adaptation.” bioRxiv, 15 Sept. 2024, p. 2024.09.13.612895. bioRxiv, https://doi.org/10.1101/2024.09.13.612895
AI 行业动态
谷歌Gemini接入实时地图数据,一键规划最完美的可执行旅程
谷歌近日宣布,开发者现可通过Gemini API启用一项名为“Grounding with Google Maps”(基于谷歌地图的语义锚定)的新功能,赋予Gemini模型“地理空间理解与推理能力”。在人工智能领域,“Grounding”(语义锚定)的核心理念是让AI的回答基于真实数据源,而非凭空生成的幻觉。通过直接连接谷歌地图覆盖超过2.5亿地点的实时地理数据,谷歌解决了大型语言模型在时间与空间事实方面缺乏现实感的问题,成功将Gemini从一个纯粹的语言模型蜕变为一个空间智能体(Spatially Aware AI),使其能够理解、推理并使用真实世界的地理信息。
在技术机制上,谷歌在Gemini API中新增的该工具会在模型识别到用户请求涉及地理、路线或商业信息时,自动调用Maps数据进行查询。这一过程包括识别地理语境、访问实时地理位置、营业时间及用户评分等,最终生成基于事实支撑的自然语言回答,并可嵌入交互式地图组件。开发者可利用此功能构建智能旅行规划、基于地理距离和时间逻辑的个性化本地推荐,以及高精度的空间问答(Local QA,本地问答)系统。此外,企业也可将其用于商业智能,如优化配送路线和零售选址分析。谷歌强调,同时启用Maps与Search语义锚定,能够结合地图的结构化事实数据和搜索的动态内容,显著提升实时推荐的准确性与实用性。
API Maps
阅读更多:
https://ai.google.dev/gemini-api/docs/maps-grounding?hl=zh-cn
AI助力核聚变突破:DeepMind与CFS加速清洁能源进程
作为一种清洁且丰沛的能源,聚变能的实现需要使电离气体等离子体(电离气体)在超过一亿摄氏度的极端环境下,稳定存在于聚变装置的约束场中。Google DeepMind宣布与全球聚变能源领军企业联邦聚变系统公司(Commonwealth Fusion Systems, CFS)达成研究合作,致力于将人工智能应用于攻克这一复杂的物理难题。CFS正通过其紧凑型强场托卡马克装置(磁约束装置)SPARC,开辟通往聚变能源的快速通道。SPARC的目标是成为人类历史上首个实现聚变能量净增益的磁约束装置,即产生的聚变能量超过维持反应所需输入能量。
Google DeepMind此前与瑞士洛桑联邦理工学院等离子体中心的合作已证明,深度强化学习能够精准操控托卡马克磁体,稳定复杂形态的等离子体。在此基础上,研究人员开发了快速可微分等离子体模拟器TORAX,以涵盖更广泛的物理现象。TORAX基于JAX框架(谷歌开发的高性能数值计算库)打造,使其能够流畅运行于不同硬件并无缝集成AI系统,实现卓越的性能。在SPARC正式启动前,TORAX已成为CFS团队通过数百万次虚拟实验测试完善运行方案的核心工具。通过帮助研究人员理解等离子体在不同条件下的行为规律,TORAX极大地节约了团队的时间与资源,为SPARC在首批实验数据出炉时快速调整策略奠定了基础。
Google DeepMind与CFS的合作已在三个关键领域展开:构建快速精准的可微分聚变等离子体模拟系统;探寻最大化聚变能量输出的高效稳健路径;以及运用强化学习探索新型实时控制策略。托卡马克运行涉及磁线圈电流、燃料注入及加热功率等诸多参数的精细调节,人工寻找最优配置方案效率低下。通过将TORAX与强化学习及AlphaEvolve等进化搜索算法结合,AI智能体可以在模拟环境中探索海量场景,迅速锁定实现净能量增益的最优路径。
阅读更多:
https://deepmind.google/discover/blog/bringing-ai-to-the-next-generation-of-fusion-energy/
顶级AI模型加密投资大乱斗:DeepSeek赚翻,GPT-5巨亏
最近,一场名为“Alpha Arena”的AI投资大赛引起了科技与金融界的广泛关注。这场由nof1.ai发起的竞赛中,六大顶级大型语言模型——包括Claude 4.5 Sonnet、DeepSeek V3.1 Chat、Gemini 2.5 Pro、GPT-5、Grok 4和Qwen 3 Max——各自获得了1万美元的初始资金,在Hyperliquid(加密货币衍生品交易平台)上自主交易加密货币永续合约(允许交易者对冲或投机资产价格波动的金融工具)。比赛的胜负标准是风险调整后收益(衡量投资回报与所承担风险比率的指标),且所有AI模型的思考过程和交易记录必须完全公开透明。截至统计,不同模型的交易表现和风格差异巨大。其中,DeepSeek V3.1 Chat以其激进的投资策略拔得头筹,采用中高杠杆、分散配置和纯多头趋势跟随策略,资产增值幅度遥遥领先。研究人员分析指出,这与其母公司幻方量化深耕全自动量化交易的专业基因密不可分。紧随其后的是Grok 4,它采用全多头布局,特别是对比特币(BTC)使用了20倍高杠杆,实现了高额收益。而Claude 4.5 Sonnet和Qwen 3 Max则采取了更为稳健的轻仓或求稳策略,获得了稳定回报。
与领先者形成鲜明对比的是,GPT-5和Gemini 2.5 Pro的表现不佳,遭遇了显著亏损。GPT-5试图采用多空混合对冲的策略,体现出偏向宏观的逻辑推理能力,但由于其做空策略失误,导致资产大幅缩水。排名垫底的Gemini 2.5 Pro则因过度依赖短周期信号,采取频繁调整的高频交易策略,累计交易次数多达46次,高昂的手续费严重侵蚀了盈利空间,收益率在所有模型中最低。nof1.ai创始人Jay A阐明了举办这项竞赛的深层目标:他们认为金融市场比传统游戏环境更适合作为下一代AI的训练场,因为市场是活的、会学习和适应的,这为AI提供了开放式学习和大规模强化学习的终极复杂挑战。
V3.1 Chat Arena
阅读更多:
https://news.bitcoin.com/6-bots-with-real-money-hyperliquid-hosts-first-ever-ai-trading-showdown/
DeepSeek 开源 3B 模型 DeepSeek-OCR:视觉模态实现文本“光学压缩”,探索无限上下文新路径
DeepSeek 团队近日开源了 DeepSeek-OCR 模型,这是一个体量仅为 3B 参数但思路极具创新性的模型,核心在于探索通过视觉模态实现文本信息的“光学压缩”(Optical Compression,用视觉 Token 替代大量文本 Token,从而实现信息“瘦身”)。当前所有大型语言模型在处理长序列文本时都面临计算复杂度呈平方级增长的困境。研究人员通过将文本内容转化为图像,再对图像进行高效编码,有效解决了这一瓶颈。DeepSeek-OCR 的架构包含两个关键组件:DeepEncoder(编码器),负责图像特征提取和大幅压缩;以及 DeepSeek3B-MoE(解码器),负责从压缩后的视觉 Token 中重建文本。论文数据显示,该模型能够实现高达 10 倍的压缩率,同时 OCR 准确率仍能保持在 97% 以上。在 OmniDocBench 基准测试中,DeepSeek-OCR 仅需极少的视觉 Token 即可超越现有主流模型的表现,大幅提高了训练数据的处理效率。
DeepSeek3B-MoE 解码器采用了混合专家(MoE, Mixture of Experts,一种稀疏激活技术,只激活部分专家权重)设计,在保持 30 亿参数模型表达能力的同时,实现了约 5 亿参数模型的推理效率。DeepEncoder 巧妙地整合了 SAM-base 和 CLIP-large 结构,并通过内置的 16×卷积压缩器在保证高分辨率输入处理能力的前提下,严格控制了激活内存开销。得益于 3000 万页多语言 PDF 数据和精细标注数据的训练,DeepSeek-OCR 不仅能够执行基础的文字识别,还具备深度解析能力,能将金融图表、化学结构式等专业内容转换为结构化数据。此外,DeepSeek 团队,包括第一作者 Haoran Wei,还提出一个前瞻性概念:利用光学压缩来模拟人类的“遗忘机制”。该想法旨在将旧的历史对话上下文渲染成尺寸递减、越来越模糊的图像,实现近期高保真、久远低资源占用的效果,为实现处理无限上下文(Infinite Context,模型能够处理的上下文长度没有限制)提供了新的思路,尽管目前仍处于早期研究方向。
-OCR
阅读更多:
https://github.com/deepseek-ai/DeepSeek-OCR/blob/main/DeepSeek\_OCR\_paper.pdf
AI 驱动科学
大语言模型也会“脑腐”,持续接触垃圾网络文本会导致其认知能力下降
大语言模型是否会像人类一样因接触过多网络垃圾信息而出现“脑腐烂”?来自德州农工大学、德克萨斯大学奥斯汀分校和普渡大学的Shuo Xing、Junyuan Hong、Yifan Wang及同事们进行了一项受控实验。研究首次证实,持续用低质量网络文本训练LLM,会导致其产生持久性的认知能力衰退,甚至催生“黑暗特质”。
研究团队提出了“LLM脑腐烂假说”,并通过在真实的Twitter/X社交媒体数据上进行的受控实验来验证。他们依据两种不同指标定义了“垃圾数据”:M1标准选择了短小但极受欢迎的帖子,M2标准则侧重于吸引眼球的内容风格。随后,研究者们让四个大语言模型在这些垃圾数据和高质量的对照数据上进行持续预训练。
结果清晰地表明,接触垃圾数据会对LLM的认知能力造成显著损害。随着垃圾数据在训练语料中的比例从0%增加到100%,模型在多项基准测试中的表现持续下滑。例如,在M1标准下,一项需要复杂推理的任务(ARC-Challenge with Chain Of Thoughts)得分从74.9分骤降至57.2分。更令人担忧的是,模型不仅在推理和长上下文理解等任务上表现变差,其安全对齐也被削弱,并表现出更高程度的精神病态、自恋等“黑暗特质”。深入分析发现,这种衰退的主要原因是模型出现了“思维跳跃”(thought-skipping),即在推理过程中倾向于截断或直接跳过关键步骤。研究还发现,这种认知损伤是持久性的,后续的指令微调等补救措施虽有一定效果,但无法让模型完全恢复。
阅读更多:
Xing, Shuo, et al. “LLMs Can Get ‘Brain Rot’!” Version 1, arXiv:2510.13928, arXiv, 15 Oct. 2025. arXiv.org, https://doi.org/10.48550/arXiv.2510.13928
记忆即行动:为长程任务打造自主上下文管理框架
大型语言模型在处理需要长期推理的复杂任务时,常因有限的记忆窗口被无关信息淹没而性能下降。为解决此问题,来自北京交通大学、同花顺研究院和华为诺亚方舟实验室的 Yuxiang Zhang、Jiangming Shu、Ye Ma、Xueyuan Lin、Shangxi Wu 与 Jitao Sang 提出“记忆即行动”(Memory-as-Action)框架,让智能体通过强化学习自主管理记忆,从而提升任务表现和效率。
研究团队提出了“记忆即行动”框架,将工作记忆管理重塑为智能体自身的一种可学习能力。在该框架下,智能体不再被动地积累信息,而是通过执行明确的编辑操作(如保留、压缩或删除历史信息)来主动管理上下文。这些记忆操作被整合进一个统一的策略中,通过强化学习进行端到端训练,使智能体能够在完成长期任务目标和节约计算资源之间取得平衡。然而,这种灵活的记忆编辑打破了传统语言模型交互中上下文持续增长的假设,导致了研究者所称的“轨迹断裂”(trajectory fractures),即历史记录的因果连续性被破坏。这种非线性的变化使得标准的策略梯度算法失效。为解决这一难题,团队设计了一种名为动态上下文策略优化的新算法。DCPO通过在记忆编辑点动态地分割执行轨迹,并对产生的片段计算优势函数,从而实现了稳定的策略优化。实验结果表明,该方法不仅显著降低了计算成本,还提升了任务性能,使其表现能与远大于自身的模型相媲美。
阅读更多:
Zhang, Yuxiang, et al. “Memory as Action: Autonomous Context Curation for Long-Horizon Agentic Tasks.” Version 1, arXiv:2510.12635, arXiv, 14 Oct. 2025. arXiv.org, https://doi.org/10.48550/arXiv.2510.12635
AI眼中的实验室:结合XR与视觉大模型,LabOS革新科研协作模式
为解决实验操作依赖人力、易出错的科研瓶颈,斯坦福大学的 Le Cong 和普林斯顿大学的 Mengdi Wang 团队开发了AI协作科学家LabOS。该系统融合人工智能与扩展现实,让AI能“看见”并实时指导人类科学家的实验操作,将计算推理与真实世界的物理实验无缝连接。
研究团队开发了名为LabOS的AI-XR协作科学家平台。其核心是一个多智能体AI系统,能够自主完成从假设生成到数据分析的完整科研流程。为了让AI“看见”并参与到真实的“湿实验”中,研究人员佩戴扩展现实眼镜,将第一视角视频实时传输给AI。团队为此专门构建了包含超过200个真实实验视频的LabSuperVision(LSV)基准,并训练出一个专业的视觉语言模型,使其在识别实验步骤错误(如无菌操作失误)时的准确率超过90%。AI通过XR眼镜的屏幕实时提供步骤指导和错误警报,并允许用户通过语音和手势进行无菌交互。该系统在三大生物医学场景中得到验证:它不仅成功挖掘出新的癌症免疫治疗靶点,还在指导诱导性多能干细胞(iPSC)基因编辑等复杂实验中,展现了作为“AI导师”的巨大潜力,显著提升了操作的精确性和可重复性。
阅读更多:
Cong, Le, et al. “LabOS: The AI-XR Co-Scientist That Sees and Works With Humans.” arXiv:2510.14861, arXiv, 16 Oct. 2025. arXiv.org, https://doi.org/10.48550/arXiv.2510.14861
Meta耗费40万GPU小时,揭示大模型强化学习的Scaling Law
大型语言模型的强化学习训练缺乏可预测的扩展规律(Scaling Law),导致研究成本高昂。为解决此问题,来自Meta、德克萨斯大学奥斯汀分校等机构的 Devvrit Khatri、Lovish Madaan 等研究者通过超过40万GPU小时的大规模实验,建立了一个预测性框架,并提出了一套名为ScaleRL的最佳实践方案,让RL训练效果变得可预测。
研究团队首先提出了一个预测性框架,通过一个类S型饱和曲线来精确描述强化学习性能与所投入的计算资源之间的关系,从而能够从早期训练数据中外推出模型的最终性能上限。为了验证该框架并寻找最佳的RL训练策略,团队开展了超过40万GPU小时的系统性实验,全面评估了包括损失函数类型、优势归一化(advantage normalization)、数据课程策略等在内的多种设计选择。研究发现,不同RL方法有截然不同的性能天花板,且许多被普遍认为能提升性能的技巧,实际上主要影响的是达到性能上限的速度(即计算效率),而非上限本身。基于这些洞察,团队整合出现有方法的最佳实践,提出了一套名为ScaleRL的训练方案。它结合了异步的PipelineRL结构、截断重要性采样损失(CISPO)和零方差过滤等技术。在一项耗时10万GPU小时的验证实验中,ScaleRL不仅表现出卓越的性能,其扩展轨迹也与框架的早期预测高度吻合,证明了其稳定性和可预测性。
Law
阅读更多:
Khatri, Devvrit, et al. “The Art of Scaling Reinforcement Learning Compute for LLMs.” arXiv:2510.13786, arXiv, 15 Oct. 2025. arXiv.org, https://doi.org/10.48550/arXiv.2510.13786
用于无监督多变量时间模式分类和多通道脉冲排序的节俭脉冲神经网络
如何实时、低功耗地解析大脑植入设备产生海量神经信号,是神经科学和神经工程领域的关键挑战。Sai Deepesh Pokala、Marie Bernert、Takuya Nanami 等研究人员设计了一种极其精简的脉冲神经网络,能够以完全无监督的方式自动分类多通道数据中的复杂时间模式,为开发新一代智能神经植入物提供了高效算法。
该研究针对传统深度神经网络功耗高、依赖监督学习的局限,提出了一种仅有单层的节俭脉冲神经网络(Spiking Neural Network, SNN,一种模仿生物神经元信息处理方式的计算模型)。该网络的核心是低阈值脉冲神经元(Low-Threshold Spiking neurons, LTS),这种神经元的独特动力学特性使其能够自动适应不同长度的输入信号模式,无需复杂的结构。网络学习过程完全无监督,依赖于脉冲时间依赖可塑性(Spike-Timing-Dependent Plasticity, STDP,一种根据神经元脉冲发放时间先后关系调整连接强度的生物学习规则)等局部学习法则,使其能自主地从连续数据流中发现并分类隐藏的模式。研究团队在模拟数据、语音信号和多通道神经记录上验证了其性能,并成功将其应用于脉冲排序(spike sorting,从混合信号中分离单个神经元放电活动的关键技术)任务。结果表明,该网络不仅高效,且兼容在线实时处理,展现了其作为未来超低功耗神经植入物核心处理单元的巨大潜力。研究发表在 Nature Communications 上。
阅读更多:
Pokala, Sai Deepesh, et al. “A Frugal Spiking Neural Network for Unsupervised Multivariate Temporal Pattern Classification and Multichannel Spike Sorting.” Nature Communications, vol. 16, no. 1, Oct. 2025, p. 9218. www.nature.com, https://doi.org/10.1038/s41467-025-64231-2
Emoface:通过面部生物标志物区分重度抑郁症和躁郁症的人工智能辅助诊断模型
重度抑郁症与双相情感障碍因症状相似极易混淆,导致高达50%的误诊率和长达十年的治疗延误。Jiahui Yu, Jingkai Chen, Yutong Zhang, Hailong Lyu, Tianyu Ma, Huimin Huang, Zhong Wang, Xin Xu, Shaohua Hu 和 Yingke Xu 提出并开发了一款名为Emoface的人工智能辅助诊断模型。该模型通过精准解读患者的面部情绪活动,成功识别出区分两种疾病的数字生物标志物,为精神健康诊断提供了创新方案。
研究团队首先建立了包含353名受试者在情绪刺激下面部反应视频的大型数据集。基于此,他们训练了深度学习模型Emoface,该模型能精细分析面部的动态变化,包括68个面部关键点、16个面部区域和9个面部器官的活动。研究发现,重度抑郁症和双相情感障碍患者在面对相同情绪刺激时,面部会表现出独特且可量化的差异,这些差异构成了区分二者的数字生物标志物。在对347名患者进行的临床验证中,Emoface展现出卓越的诊断性能,识别双相情感障碍的准确率高达95.29%,识别重度抑郁症的准确率为87.05%。这项研究不仅提供了一个快速、无创的辅助诊断工具,还首次创建了标准化的情感障碍数字面部图谱,有望革新临床实践与医学教育。研究发表在 npj Mental Health Research 上。
阅读更多:
Yu, Jiahui, et al. “Emoface: AI-Assisted Diagnostic Model for Differentiating Major Depressive Disorder and Bipolar Disorder via Facial Biomarkers.” Npj Mental Health Research, vol. 4, no. 1, Oct. 2025, p. 52. www.nature.com, https://doi.org/10.1038/s44184-025-00164-4
整理|ChatGPT
编辑|丹雀、存源
![]()
关于追问nextquestion
天桥脑科学研究院旗下科学媒体,旨在以科学追问为纽带,深入探究人工智能与人类智能相互融合与促进,不断探索科学的边界。如果您有进一步想要讨论的内容,欢迎评论区留言,或后台留言“社群”即可加入社群与我们互动。
关于天桥脑科学研究院
天桥脑科学研究院(Tianqiao and Chrissy Chen Institute)是由陈天桥、雒芊芊夫妇出资10亿美元创建的世界最大私人脑科学研究机构之一,围绕全球化、跨学科和青年科学家三大重点,支持脑科学研究,造福人类。
Chen Institute与华山医院、上海市精神卫生中心设立了应用神经技术前沿实验室、人工智能与精神健康前沿实验室;与加州理工学院合作成立了加州理工天桥神经科学研究院。
Chen Institute建成了支持脑科学和人工智能领域研究的生态系统,项目遍布欧美、亚洲和大洋洲,包括、、、科研型临床医生奖励计划、、等。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.