网易首页 > 网易号 > 正文 申请入驻

Transformer 架构逐层功能介绍和详细解释

0
分享至

多年来,深度学习一直在不断发展。深度学习实践高度强调使用大量参数来提取有关我们正在处理的数据集的有用信息。通过拥有大量参数,我们可以更容易地分类/检测某些东西,因为我们有更多的可以清楚地识别的数据。

目前为止深度学习中,特别是在自然语言处理领域的一个显着里程碑是语言模型的引入,它极大地提高了执行各种 NLP 任务的准确性和效率。

seq2seq模型是一种基于编码器-解码器机制的模型,它接收输入序列并返回输出序列作为结果。例如图像描述任务,输入给定的图像,输出则是为图像创建一个合理的描述。在这种情况下seq2seq 模型将图像像素向量(序列)作为输入,并逐字返回描述(序列)作为输出。

一些促进此类模型训练的重要 DL 算法包括RNN,LSTM,GRU。但随着时间的推移这些算法的使用逐渐消失,因为复杂性和一些缺点会随着数据集大小的增加而严重影响性能。这其中的重要的缺点包括较长的训练时间、梯度消失问题(当我们为大型数据集进一步训练模型时会丢失有关旧数据的信息)、算法的复杂性等。

在语言模型训练方面取代上述所有算法的爆发性概念之一是基于多头注意力的Transformer 架构。 Transformer 架构最早是由谷歌在 2017 年的论文《Attention is all you need》中引入的。它受欢迎的主要原因是其架构引入了并行化。Transformer 利用了强大的 TPU 和并行训练,从而减少了训练时间。

Transformer 架构小时候看起来是这样的。

开个玩笑,以下是被传播最广泛的Transformer架构的可视化。

即使抽象了很多的细节,整个架构看起来还是非常庞大。 这张图中每一层种仍然隐藏着很多细节东西。 我们在这篇文章中会介绍每一层以及它在整个架构中的作用。

Transformer 是一个用于 seq2seq 模型的编码器-解码器模型,左侧是输入,右侧是输出。在 它内部使用的注意机制已成为语言模型的首要算法。

现在我们开始详细介绍每一层的作用。我们将使用带有简单句子“I am a student”及其法语翻译形式“Je suis étudiant”的语言翻译任务示例。

输入嵌入是Transformer 编码器和解码器的第一步。 机器无法理解任何语言的单词,它只能识别数字。 所以我们通过这一层得到了输入/输出中每个单词的嵌入,这些嵌入使用 GloVe 等方法很容易获得。 对于这个嵌入值,我们在句子中添加该词的位置信息(基于奇数或偶数位置出现的不同值)以提供上下文信息。

多头注意力层由组合在一起的多个自注意力层组成。注意力层的主要目的是收集有关句子中每个单词与其他单词的相关性的信息,这样可以获得其在句子中的含义。上图描述了我们句子中的每个单词如何依赖其他单词来提供含义。但要让机器理解这种依赖性和相关性并不是那么容易。

在我们的注意力层中,我们采用三个输入向量,即查询(Q)、键(K)和值(V)。简单的说:查询就像在浏览器上搜索的内容,浏览器会返回一组要匹配的页面它们就是是键,而我们得到真正需要的结果是值。对于句子中的给定词(Q),对于它中的其他词(K),我们得到它(V)对另一个词的相关性和依赖性。这种自我注意过程使用 Q、K 和 V 的不同权重矩阵进行了多次激素按。因此就是多头注意层,作为多头注意力层的结果,我们得到了多个注意力矩阵。

在架构中,我们可以看到解码器中还有另外两个注意力层。

这是我们解码器端的第一层注意力。 但为什么它是Masked attention?

在输出的情况下,如果当前单词可以访问它之后的所有单词,那么它不会学到任何东西。 它会直接继续并建议输出这个词。 但是通过掩蔽我们可以隐藏当前单词之后的单词,它将有空间来预测到目前为止对给定单词和句子来说什么单词是有意义的。 它已经有了当前单词的嵌入和位置信息,所以我们使用它之前使用 Q、K 和 V 向量看到的所有单词让它变得有意义并找出最可能的下一个单词。

解码器端的下一个多头注意力层从编码器端获取两个输入(K,V),从解码器的前一个注意力层获取另一个(Q),它可以访问来自输入和输出的注意力值。 基于来自输入和输出的当前注意力信息,它在两种语言之间进行交互并学习输入句子中每个单词与输出句子之间的关系。

这些注意力层将返回一组注意力矩阵,这些矩阵将与实际输入进行合并,并且将执行层/批量标准化。 这种归一化有助于平滑损失,因此在使用更大的学习率时很容易优化

在编码器块中前馈网络是一个简单的模块,它取出平均的注意力值并将它们转换为下一层更容易处理的形式。 它可以是顶部的另一个编码器层,也可以传递到解码器端的编码器-解码器注意力层。

在解码器块中,我们还有另一个前馈网络,它执行相同的工作并将转换后的注意力值传递到顶部的下一个解码器层或线性层。

Transformer 的一个主要的特征就发生在这一层, 与传统的RNN不同,由于每个单词都可以通过其注意力值独立地通过神经网络,因此这一层是并行化激素按的。我们可以同时传递输入句子中的所有单词,编码器可以并行处理所有单词并给出编码器输出。

在所有解码器端处理完成后,数据就被传送到带有线性层和 softmax 层的输出处理层。 线性层用于将来自神经网络的注意力值扁平化,然后应用 softmax 来找到所有单词的概率,从中我们得到最可能的单词, 模型其实就是预测下一个可能的单词作为解码器层输出的概率。

现在让我们快速浏览一下整个过程。

编码器Encoder

将输入句子中的每个单词并行传递。 采用词嵌入并添加位置信息以提供上下文。 然后有多头注意力层它学习与其他单词的相关性,从而产生多个注意力向量。 然后将这些向量平均化并应用归一化层以简化优化。 这些向量又被传递到前馈网络,该网络将值转换为下一个编码器或编码器-解码器注意力层可读的维度。

解码器Decoder

首先是一个类似的词嵌入和添加上下文的预处理步骤。 然后通过一个带有掩蔽的注意力层,它可以学习输出句子的当前单词和它之前看到的所有单词之间的注意力并且不允许即将出现的单词。 然后通过残差连接的加和归一化层进行归一化操作,将编码器层的输出作为键、值向量到下一个注意层,解码器下一层将使用的注意力的值(V)作为查询(Q)。 输入和输出语言之间的在这里进行了实际交互,这样使得算法更好地理解语言翻译。

最后是另一个前馈网络,它将转换后的输出传递到一个线性层,使注意力值变扁平,然后通过softmax层来获取输出语言中所有单词下一次出现的概率。 概率最高的单词将成为输出。

堆叠编码器和解码器也很有效,因为它可以更好地学习任务并提高算法的预测能力。 在实际论文中,Google 堆叠了 6 个编码器和解码器。 但也要确保它不会过度拟合并使训练过程变得昂贵。

自从 Google 推出 Transformers 以来,它在 NLP 领域就一直是革命性的。 它被用于开发各种语言模型,包括备受赞誉的 BERT、GPT2 和 GPT3,在所有语言任务中都优于以前的模型。 了解基础架构肯定会让你在游戏中处于领先地位。

感谢您阅读本文! 我希望这篇文章能让你对 Transformer 的整体架构有所了解。

原文地址: https://www.overfit.cn/post/a895d880dab245609c177db7598446d4

作者:Logeshvar L

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
骑士119-122活塞遭3坏消息!波特+施罗德卧龙凤雏,教练糟糕战术

骑士119-122活塞遭3坏消息!波特+施罗德卧龙凤雏,教练糟糕战术

篮球资讯达人
2026-02-28 12:16:07
伊朗正准备毁灭性报复行动

伊朗正准备毁灭性报复行动

界面新闻
2026-02-28 15:28:39
富贵命家中见不到燕子,如果在家中发现燕子搭窝在暗示你这三件事

富贵命家中见不到燕子,如果在家中发现燕子搭窝在暗示你这三件事

古怪奇谈录
2026-02-26 15:58:10
默茨在北京抱走百亿大单,转身德国就翻脸:中国不守规矩?

默茨在北京抱走百亿大单,转身德国就翻脸:中国不守规矩?

小鱼爱鱼乐
2026-02-27 22:03:08
在俄华人也要参军?中方紧急提醒中国公民,当心普京签署的总统令

在俄华人也要参军?中方紧急提醒中国公民,当心普京签署的总统令

陌生的你我
2026-02-28 17:37:09
中东炸了! 伊朗陆军总司令身亡 美以联手突袭伊朗 真正目的是什么?

中东炸了! 伊朗陆军总司令身亡 美以联手突袭伊朗 真正目的是什么?

每日经济新闻
2026-02-28 18:15:26
大利空来袭!科技巨头、中国资产等跳水大跌,下周A股要凉凉了吗

大利空来袭!科技巨头、中国资产等跳水大跌,下周A股要凉凉了吗

虎哥闲聊
2026-02-28 11:58:05
抱头鼠窜塔利班求助安理会,川普力挺巴基斯坦再狠一点!

抱头鼠窜塔利班求助安理会,川普力挺巴基斯坦再狠一点!

移光幻影
2026-02-28 13:25:17
欧冠1/8决赛对阵:皇马连续5年遇曼城!巴黎VS切尔西,马竞战热刺

欧冠1/8决赛对阵:皇马连续5年遇曼城!巴黎VS切尔西,马竞战热刺

我爱英超
2026-02-27 19:19:50
承认错判!国际篮联亲自道歉,日媒:若公正吹罚,日本将是惨败!

承认错判!国际篮联亲自道歉,日媒:若公正吹罚,日本将是惨败!

运动探索
2026-02-28 17:26:55
美国空袭伊朗

美国空袭伊朗

第一财经资讯
2026-02-28 16:07:57
中国正加速抛售美债,美专家:中国用了新抛售方式,完全无法干预

中国正加速抛售美债,美专家:中国用了新抛售方式,完全无法干预

似水流年忘我
2026-01-29 01:24:08
斯大林死在地上10小时,满身屎尿没人管:那个让世界害怕的人。

斯大林死在地上10小时,满身屎尿没人管:那个让世界害怕的人。

房产衫哥
2026-02-13 17:22:30
斯洛特:我们卖了值3.5亿的球员&TAA卖1000万,但只被说花4.5亿

斯洛特:我们卖了值3.5亿的球员&TAA卖1000万,但只被说花4.5亿

懂球帝
2026-02-28 17:29:07
阿布扎比、科威特、多哈发生爆炸!

阿布扎比、科威特、多哈发生爆炸!

占豪
2026-02-28 18:25:52
小米上架米家燃气灶3猛火版,到手价899元

小米上架米家燃气灶3猛火版,到手价899元

ZAEKE知客
2026-02-27 12:41:13
比中钨高新还猛?4元低价+70亿市值+22万吨钨矿 主力底部抢筹4亿元

比中钨高新还猛?4元低价+70亿市值+22万吨钨矿 主力底部抢筹4亿元

白浅娱乐聊
2026-02-28 07:03:42
殡仪馆工作人员红衣、黄发主持九旬老人告别仪式,馆方致歉并承诺整改

殡仪馆工作人员红衣、黄发主持九旬老人告别仪式,馆方致歉并承诺整改

极目新闻
2026-02-27 21:17:24
做艺人没有艺德!在上海被抓捕的 4 位明星,你们知道都有谁吗?

做艺人没有艺德!在上海被抓捕的 4 位明星,你们知道都有谁吗?

她时尚丫
2026-02-17 21:56:13
伊朗退了,叙利亚退了,巴勒斯坦退了,黎巴嫩退了,塞尔维亚退了

伊朗退了,叙利亚退了,巴勒斯坦退了,黎巴嫩退了,塞尔维亚退了

南权先生
2026-01-29 15:57:27
2026-02-28 18:55:00
deephub incentive-icons
deephub
CV NLP和数据挖掘知识
1933文章数 1456关注度
往期回顾 全部

科技要闻

狂揽1100亿美元!OpenAI再创融资神话

头条要闻

以色列先发制人 8个月后伊美以再次引燃中东

头条要闻

以色列先发制人 8个月后伊美以再次引燃中东

体育要闻

球队主力全报销?顶风摆烂演都不演了

娱乐要闻

疑似王一博被爆私密聊天记录

财经要闻

沈明高提共富建议 百姓持科技股国家兜底

汽车要闻

岚图泰山黑武士版3月上市 搭载华为四激光智驾方案

态度原创

房产
健康
时尚
数码
军事航空

房产要闻

滨江九小也来了!集齐海侨北+哈罗、寰岛...江东教育要炸了!

转头就晕的耳石症,能开车上班吗?

被章若楠、秦岚带火的鞋子竟然是它?春天这样穿又美又气质!

数码要闻

“冠军严选”:Pulsar派世预告第二代《CS》选手ZywOo联名鼠标

军事要闻

美国以色列联合袭击伊朗 实时战况

无障碍浏览 进入关怀版