在刚刚过去的2026年首周,顶级期刊《Nature》刊登了一项足以重塑我们对“记忆”认知的重磅研究: 《Distinct neuronal populations in the human brain combine content and context》 。
读完后的第一感受是: 大模型(LLM)长期以来的“幻觉”难题,或许在生物学里找到了终极药方。
大脑是如何“缝合”记忆的?
想象一下,你在街角的咖啡馆偶遇了老同学。你的大脑不仅记住了“老同学”这张脸,还记住了“咖啡馆”这个背景。
这项研究通过对人类海马体(Hippocampus)和内嗅皮层(Entorhinal Cortex)的神经元进行高精度记录,发现了一个精妙的“三元组”结构:
内容神经元(Content Neurons): 它们只关心“是什么”。无论是在办公室还是在海边,看到“咖啡”它们就会放电。
背景神经元(Context Neurons): 它们只关心“在哪/什么时候”。它们定义了当前的环境坐标,是记忆的蓝图。
结合神经元(Conjunctive Neurons): 关键点来了!研究发现存在第三群神经元,它们负责将特定的“内容”缝合进特定的“背景”。
结论是:人类大脑并不是把信息像浆糊一样搅在一起,而是采取了极其高明的“解耦——再重组”策略。
AI 为什么会“一本正经地胡说八道”?
目前的 LLM 处理信息的方式更像是“稠密编码”。虽然我们有 Attention(注意力机制),但在高维向量空间里,内容(Content)和背景(Context)往往是纠缠在一起的。
大脑: 像是一个活页本。内容是一张张照片,背景是一个个框架。我可以随时把“林黛玉”的照片从《红楼梦》里取出来,放进《三体》的背景里,但我清楚地知道这只是在做“跨界重组”。
大模型: 更像是一幅复杂的油画。所有的信息都被涂抹在参数权重(Weights)里。当它提到“林黛玉”时,周围的背景像素是模糊且概率性的。
这就是为什么 AI 会产生幻觉(Hallucination)。因为它在底层逻辑上,没有建立起像人类那样独立且严密的“内容 vs 背景”隔离墙,导致它在提取信息时,经常把甲的背景嫁接到乙的内容上。
3. 对未来人工智能的三个启示
从“全连接”到“解耦表征”:未来的模型设计可能会引入更明确的“解耦架构”。如果 AI 能够拥有专门处理事实(Fact)和专门处理语境(Situation)的模块,它的推理精度将产生质的飞跃。
像人类一样进行“少样本学习”:为什么人类看一遍就能记住?因为我们不需要重新学习“背景”,只需要把新的“内容”插进现有的“背景”框架里。如果 AI 模仿这种结合机制,训练成本和能耗(Energy Efficiency)可能会大幅下降。
解决长文本记忆的疲劳:现在的 AI 处理超长文本时容易“断片”,是因为背景信息太多淹没了内容。借鉴大脑的这种三元神经元分布,我们或许可以开发出一种“稀疏关联”的记忆检索算法。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.