网易首页 > 网易号 > 正文 申请入驻

解决Transformer根本缺陷,CoPE论文爆火:大模型都能巨大改进

0
分享至

机器之心报道

机器之心编辑部

即使最强大的 LLM 也难以通过 token 索引来关注句子等概念,现在有办法了。

最近两天,马斯克和 LeCun 的口水战妥妥成为大家的看点。这两位 AI 圈的名人你来我往,在推特(现为 X)上相互拆对方台。

LeCun 在宣传自家最新论文时,也不忘手动 @ 一把马斯克,并意味深长地嘱咐道:「马斯克,我们这项研究用来改善你家的 Grok 也没问题。」

LeCun 宣传的这篇论文题目为《 Contextual Position Encoding: Learning to Count What’s Important 》,来自 Meta 的 FAIR。

骂战归骂战,这篇论文的重要性不言而喻。短短 24 小时之内就成为了 AI 领域最热门的论文之一。它有望解决如今大模型(LLM)最让人头疼的问题。

论文地址:https://arxiv.org/pdf/2405.18719

总的来说,该研究提出了一种新的用于 transformer 的位置编码方法 CoPE(全称 Contextual Position Encoding),解决了标准 transformer 无法解决的计数和复制任务。传统的位置编码方法通常基于 token 位置,而 CoPE 允许模型根据内容和上下文来选择性地编码位置。CoPE 使得模型能更好地处理需要对输入数据结构和语义内容进行精细理解的任务。文章通过多个实验展示了 CoPE 在处理选择性复制、计数任务以及语言和编码任务中相对于传统方法的优越性,尤其是在处理分布外数据和需要高泛化能力的任务上表现出更强的性能。

CoPE 为大型语言模型提供了一种更为高效和灵活的位置编码方式,拓宽了模型在自然语言处理领域的应用范围。

有网友表示,CoPE 的出现改变了在 LLM 中进行位置编码的游戏规则,此后,研究者能够在一个句子中精确定位特定的单词、名词或句子,这一研究非常令人兴奋。

这篇论文主要讲了什么,我们接着看。

许多常见的数据源(例如文本、音频、代码)都是顺序序列(ordered sequences)。在处理此类序列时,顺序(ordering)信息至关重要。对于文本,位置信息不仅对于解码单词之间的含义至关重要,而且在其他尺度(例如句子和段落级别)上都是必需的。

作为当前大型语言模型 (LLM) 的主要支柱 Transformer 架构,依赖于注意力机制,而这种机制本身就缺乏顺序信息,因此,需要一种额外的机制来编码数据的位置信息。

先前有研究者提出了位置编码(PE,Position encoding),该方法通过为每个位置分配一个嵌入向量,并将其添加到相应的 token 表示中来实现这一点。然而,当前的位置编码方法使用 token 计数来确定位置,因此无法推广到更高层次如句子。

为了将位置与更具有语义的单元(如单词或句子)联系起来,需要考虑上下文。然而,使用当前的位置编码方法无法实现这一点,因为位置寻址是独立于上下文计算的,然后再与上下文寻址合并。

Meta 认为,位置与上下文寻址的这种分离是问题的根本所在,因此他们提出了一种新的 PE 方法,即上下文位置编码( CoPE ),将上下文和位置寻址结合在一起。

方法介绍

CoPE 首先使用上下文向量确定要计数的 token。具体来说,给定当前 token 作为查询向量,接着使用先前 token 的键向量计算一个门值(gate value)。然后汇总这些门值,以确定每个 token 相对于当前 token 的相对位置,如图 1 所示。

与 token 位置不同,上下文位置可以取分数值,因而不能具有指定的嵌入。相反,该研究插入赋值为整数值的嵌入来计算位置嵌入。与其他 PE 方法一样,这些位置嵌入随后被添加到键向量中,因此查询向量可以在注意力操作中使用它们。由于上下文位置可能因查询和层而异,因此该模型可以同时测量多个单元的距离。

在 CoPE 中,位置是通过上下文相关的方式来测量的,而不是简单的 token 计数。该方法的工作原理是首先决定在使用上下文向量测量距离时应包含哪些 token。因此,对每个查询 q_i 和键 k_j 对计算门值

其中 j < i 且 σ 是 sigmoid 函数。门值为 1 表示该键将被计入位置测量中,而 0 表示将被忽略。例如,要计算 token i 和 j 之间的句子,仅对于诸如 “.” 之类的句子分隔 token,门值应为 1。门以查询为条件,如果需要,每个查询可以有不同的位置测量。软门控函数(soft gating function)允许微分,以便可以通过反向传播来训练系统。

然后,该研究通过添加当前 token 和目标 token 之间的门值来计算位置值。

值得注意的是,如果门值始终为 1,则 p_ij = i − j + 1 ,并且恢复基于 token 的相对位置。因此,CoPE 可以被视为相对 PE 的泛化。然而,一般来说,p_ij 可以是特定单词或单词类型(如名词或数字)的计数、句子的数量或 Transformer 认为在训练期间有用的其他概念。

与 token 位置不同,位置值 p_ij 不限于整数,并且因为 sigmoid 函数的原因可以采用小数值。这意味着不能像相对 PE 中那样使用嵌入层将位置值转换为向量。

首先,该研究为每个整数位置 p ∈ [0, T] 分配一个可学习的嵌入向量 e [p],那么位置 p_ij 的嵌入将是两个最接近的整数嵌入的简单插值。

最后,计算类似于如下等式的注意力权重。

然而,在实践中,计算和存储向量 e [p_ij ] 需要使用额外的计算和内存。该研究通过首先计算所有整数位置 p 的乘法,再对结果值进行插值来提高效率:

如下方程 (4) 所示,p_ij 的最大值是上下文大小 T,这意味着需要 T + 1 个位置嵌入(包括位置 0)。然而,如果门被稀疏激活(例如计算句子),则可以用更少的位置覆盖整个上下文 T。因此,该研究通过设置,使得最大可能位置 p_max < T。

CoPE 的多头扩展非常简单,因为每个头都会独立执行自己的 CoPE。头之间的键和查询向量是不同的,这意味着它们可以实现不同的位置测量。

实验结果

Flip-Flop 任务

Liu 等人 [2024] 提出了 Flip-Flop 语言建模任务,以揭示 Transformer 模型无法在长距离输入序列上进行稳健推理。

结果如表 2(左)所示。结果表明,CoPE 优于现有方法,使模型不仅可以学习分布内任务,还可以推广到 OOD 序列 —— 这是现有 PE 方法无法提供的属性。

选择性复制任务

Gu 和 Dao [2023] 提出的选择性复制任务需要上下文感知推理才能进行选择性记忆。

表 2(右)中给出的结果显示,在分布内测试集上,新方法 CoPE 可以解决该任务,而其他方法则无法解决。同样的,CoPE 在密集和稀疏 OOD 测试集上都具有更好的泛化能力。空白 token 的存在使得找到下一个要复制的 token 变得更加困难,但 CoPE 只能计算非空白 token,因此更加稳定。在每个步骤中,它可以简单地复制距离为 256(非空白)的非空白 token。重复此操作 256 次将复制整个非空白序列。

计数任务

计数比简单地回忆上一个实例更具挑战性,因为它需要在一定范围内更均匀的注意力。

结果见表 3 和图 2。具有相对 PE 的基线模型很难学习此任务,尤其是当有多个变量需要跟踪时。绝对 PE 的表现更差。最佳表现来自 CoPE,在 1 个变量的情况下获得满分。对于 OOD 泛化,相对 PE 表现出较差的泛化能力,而 CoPE 的泛化能力非常好,如表 4 所示。有关这些实验的标准差,请参见附录表 9。

语言建模

为了在语言建模任务上测试新方法,研究人员使用了 Wikitext-103 数据集,该数据集包含从 Wikipedia 中提取的 1 亿个 token。

表 5(左)中比较了不同的 PE 方法:绝对 PE 表现最差,CoPE 优于相对 PE,与相对 PE 结合使用时效果更佳。这表明,即使在一般语言建模中,CoPE 也能带来改进。

接下来,作者测试了 CoPE 推广到比训练上下文更长的上下文的效果。

结果如图 3 所示。相对 PE 推广到更长的上下文效果不佳。相比之下,相对上限版本的表现要好得多。然而 CoPE 的表现仍然优于它,当测试上下文比训练上下文长得多时,差距会扩大(见图 3 右)。

如图 4 所示,作者展示了使用 sep-keys 训练的模型的注意力图示例(gate 是用分离的键计算的)。注意力图仅根据位置构建(它们必须与上下文注意力相乘才能得到最终的注意力),这能让我们更好地了解 CoPE 正在做什么。作者还进行了归一化,以便每个查询的最大注意力权重始终为 1。首先,我们可以看到位置明显具有上下文相关性,因为无论它们的相对位置如何,注意力都倾向于落在特定的 token 上。

仔细观察这些 token 会发现,注意力主要集中在最后一段(左)或部分(右)上。为清楚起见,实际的段落和部分边界用黑色加号标记。在 CoPE 中,这是可能的,因为一个注意力头可以计数段落,而另一个注意力头计数部分,然后它可以只关注位置 0。

代码建模

作者通过对代码数据进行评估来进一步测试 CoPE 的能力。与自然语言相比,代码数据具有更多的结构,并且可能对上下文学习更敏感。

结果总结在表 5(右)中。CoPE 嵌入的困惑度比绝对 PE 和 RoPE 分别提高了 17% 和 5%。将 RoPE 和 CoPE 嵌入结合在一起可以改善 RoPE,但不会比所提出的嵌入方法带来任何改进。

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
赖清德罪证确凿!1.25兆军购竟贪污9000亿?台岛万千民众成提款机

赖清德罪证确凿!1.25兆军购竟贪污9000亿?台岛万千民众成提款机

现代小青青慕慕
2026-01-18 14:04:42
2-1,47岁兰帕德神了:率队逆转英超前冠军,狂揽55分排名第一

2-1,47岁兰帕德神了:率队逆转英超前冠军,狂揽55分排名第一

侧身凌空斩
2026-01-17 22:37:15
中国公民尽快撤离!外交部、中使馆再发提醒;陈丽君、李云霄,破格晋升;央视春晚完成首次彩排|早安,你好

中国公民尽快撤离!外交部、中使馆再发提醒;陈丽君、李云霄,破格晋升;央视春晚完成首次彩排|早安,你好

全国妇联女性之声
2026-01-18 07:20:16
重庆一公司表演式涨薪,37年涨了工资20块,曝光后迅速道歉,扎心

重庆一公司表演式涨薪,37年涨了工资20块,曝光后迅速道歉,扎心

你食不食油饼
2026-01-17 21:25:02
彻底凉了!李湘全平台封禁原因曝光,大S丈夫具俊晔“难辞其咎”

彻底凉了!李湘全平台封禁原因曝光,大S丈夫具俊晔“难辞其咎”

手工制作阿歼
2026-01-17 16:02:40
萨莉亚的中国对手来了,人均不到80元的比萨店冲刺港股,老板计划三年新开600家店

萨莉亚的中国对手来了,人均不到80元的比萨店冲刺港股,老板计划三年新开600家店

时代财经
2026-01-18 09:19:13
陈毅元帅正在全神贯注地与聂卫平下棋,在天赋面前,第一局就输了

陈毅元帅正在全神贯注地与聂卫平下棋,在天赋面前,第一局就输了

大江
2026-01-17 15:04:58
阿维塔通报“南宁15辆车连撞事故”:辅助驾驶功能未激活,事故因驾驶员导致

阿维塔通报“南宁15辆车连撞事故”:辅助驾驶功能未激活,事故因驾驶员导致

红星资本局
2026-01-18 14:18:04
神仙对决!文班轰39+9报准绝杀之仇 华子抡55分满眼不甘怒爆粗口

神仙对决!文班轰39+9报准绝杀之仇 华子抡55分满眼不甘怒爆粗口

锅子篮球
2026-01-18 14:00:32
票房86.8亿亏损4亿,詹姆斯卡梅隆跌落神坛,《阿凡达4》不会再有

票房86.8亿亏损4亿,詹姆斯卡梅隆跌落神坛,《阿凡达4》不会再有

影视高原说
2026-01-17 08:57:31
轻信“为准备打仗向俄罗斯买坦克”,龙某被骗42万元

轻信“为准备打仗向俄罗斯买坦克”,龙某被骗42万元

都市快报橙柿互动
2026-01-17 22:34:08
重庆谈判时,蒋介石看毛主席照片,不禁问:他衣服故意做旧了么?

重庆谈判时,蒋介石看毛主席照片,不禁问:他衣服故意做旧了么?

杜榈手工制作
2026-01-18 12:48:27
男生考上北大被父亲暴打,走投无路报警,才知父亲真实身份

男生考上北大被父亲暴打,走投无路报警,才知父亲真实身份

纸鸢奇谭
2024-10-02 19:26:12
尴尬到抠脚!加外长在北京被反复追问:当年骂中国的话还算数吗?

尴尬到抠脚!加外长在北京被反复追问:当年骂中国的话还算数吗?

我心纵横天地间
2026-01-17 19:10:31
重庆谈判时,蒋介石提出让毛泽东当省长,毛主席问:去哪个省?

重庆谈判时,蒋介石提出让毛泽东当省长,毛主席问:去哪个省?

老范谈史
2025-11-28 10:34:33
最新消息!大雪暴雪将抵山西!半个山西地图都灰了...

最新消息!大雪暴雪将抵山西!半个山西地图都灰了...

太原全接触
2026-01-18 09:47:24
生意做到这份上,也真服了贾老板!

生意做到这份上,也真服了贾老板!

ICT解读者
2026-01-17 09:06:47
在接下来的日子里,属蛇人的日子有滋有味,全家人跟着享福沾光!

在接下来的日子里,属蛇人的日子有滋有味,全家人跟着享福沾光!

爱下厨的阿酾
2026-01-18 00:43:45
郭晶晶没想到,被国家队开除的田亮,如今以这种方式让人刮目相看

郭晶晶没想到,被国家队开除的田亮,如今以这种方式让人刮目相看

无心小姐姐
2026-01-09 17:46:24
咸鱼还是太全面了,怪不得人称国内黑市

咸鱼还是太全面了,怪不得人称国内黑市

另子维爱读史
2025-12-20 17:07:20
2026-01-18 14:56:49
机器之心Pro incentive-icons
机器之心Pro
专业的人工智能媒体
12134文章数 142544关注度
往期回顾 全部

科技要闻

AI大事!马斯克:索赔9300亿元

头条要闻

一天两枚火箭发射失利 中国航天科技集团发文回应

头条要闻

一天两枚火箭发射失利 中国航天科技集团发文回应

体育要闻

越南媒体:李昊将成为越南U23面临的巨大挑战

娱乐要闻

43岁贾玲退出春晚、解散公司

财经要闻

BBA,势败如山倒

汽车要闻

林肯贾鸣镝:稳中求进,将精细化运营进行到底

态度原创

房产
健康
教育
时尚
家居

房产要闻

真四代来了!这次,海口楼市将彻底颠覆!

血常规3项异常,是身体警报!

教育要闻

孩子不够聪明,大多是家长踩了这些坑

伊姐周六热推:电视剧《寻雪迷踪》;电视剧《秋雪漫过的冬天》......

家居要闻

岁月柔情 现代品质轻奢

无障碍浏览 进入关怀版