关于人工智能:图解transformer中的自注意力机制

35次阅读

共计 7697 个字符,预计需要花费 20 分钟才能阅读完成。

本文将将介绍注意力的概念从何而来,它是如何工作的以及它的简略的实现。

注意力机制

在整个注意力过程中,模型会学习了三个权重: 查问、键和值。查问、键和值的思维来源于信息检索零碎。所以咱们先了解数据库查问的思维。

假如有一个数据库,外面有所有一些作家和他们的书籍信息。当初我想读一些 Rabindranath 写的书:

在数据库中,作者名字相似于键,图书相似于值。查问的关键词 Rabindranath 是这个问题的键。所以须要计算查问和数据库的键 (数据库中的所有作者) 之间的类似度,而后返回最类似作者的值(书籍)。

同样,注意力有三个矩阵,别离是查问矩阵 (Q)、键矩阵(K) 和值矩阵(V)。它们中的每一个都具备与输出嵌入雷同的维数。模型在训练中学习这些度量的值。

咱们能够假如咱们从每个单词中创立一个向量,这样咱们就能够解决信息。对于每个单词,生成一个 512 维的向量。所有 3 个矩阵都是 512×512(因为单词嵌入的维度是 512)。对于每个标记嵌入,咱们将其与所有三个矩阵 (Q, K, V) 相乘,每个标记将有 3 个长度为 512 的两头向量。

接下来计算分数,它是查问和键向量之间的点积。分数决定了当咱们在某个地位编码单词时,对输出句子的其余局部的关注水平。

而后将点积除以要害向量维数的平方根。这种缩放是为了避免点积变得太大或太小(取决于正值或负值),因为这可能导致训练期间的数值不稳固。抉择比例因子是为了确保点积的方差近似等于 1。

而后通过 softmax 操作传递后果。这将分数标准化:它们都是正的,并且加起来等于 1。softmax 输入决定了咱们应该从不同的单词中获取多少信息或特色(值),也就是在计算权重。

这里须要留神的一点是,为什么须要其余单词的信息 / 特色?因为咱们的语言是有上下文含意的,一个雷同的单词呈现在不同的语境,含意也不一样。

最初一步就是计算 softmax 与这些值的乘积,并将它们相加。

可视化图解

下面逻辑都是文字内容,看起来有一些干燥,上面咱们可视化它的矢量化实现。这样能够更加深刻的了解。

查询键和矩阵的计算方法如下

同样的办法能够计算键向量和值向量。

最初计算得分和注意力输入。

简略代码实现

 importtorch
 importtorch.nnasnn
 fromtypingimportList
 
 defget_input_embeddings(words: List[str], embeddings_dim: int):
     # we are creating random vector of embeddings_dim size for each words
     # normally we train a tokenizer to get the embeddings.
     # check the blog on tokenizer to learn about this part
     embeddings= [torch.randn(embeddings_dim) forwordinwords]
     returnembeddings
 
 
 text="I should sleep now"
 words=text.split(" ")
 len(words) # 4
 
 
 embeddings_dim=512# 512 dim because the original paper uses it. we can use other dim also
 embeddings=get_input_embeddings(words, embeddings_dim=embeddings_dim)
 embeddings[0].shape# torch.Size([512])
 
 
 # initialize the query, key and value metrices 
 query_matrix=nn.Linear(embeddings_dim, embeddings_dim)
 key_matrix=nn.Linear(embeddings_dim, embeddings_dim)
 value_matrix=nn.Linear(embeddings_dim, embeddings_dim)
 query_matrix.weight.shape, key_matrix.weight.shape, value_matrix.weight.shape# torch.Size([512, 512]), torch.Size([512, 512]), torch.Size([512, 512])
 
 
 # query, key and value vectors computation for each words embeddings
 query_vectors=torch.stack([query_matrix(embedding) forembeddinginembeddings])
 key_vectors=torch.stack([key_matrix(embedding) forembeddinginembeddings])
 value_vectors=torch.stack([value_matrix(embedding) forembeddinginembeddings])
 query_vectors.shape, key_vectors.shape, value_vectors.shape# torch.Size([4, 512]), torch.Size([4, 512]), torch.Size([4, 512])
 
 
 # compute the score
 scores=torch.matmul(query_vectors, key_vectors.transpose(-2, -1)) /torch.sqrt(torch.tensor(embeddings_dim, dtype=torch.float32))
 scores.shape# torch.Size([4, 4])
 
 
 # compute the attention weights for each of the words with the other words
 softmax=nn.Softmax(dim=-1)
 attention_weights=softmax(scores)
 attention_weights.shape# torch.Size([4, 4])
 
 
 # attention output
 output=torch.matmul(attention_weights, value_vectors)
 output.shape# torch.Size([4, 512])

以上代码只是为了展现注意力机制的实现,并未优化。

多头注意力

下面提到的注意力是单头注意力,在原论文中有 8 个头。对于多头和单多头注意力计算雷同,只是查问 (q0-q3),键(k0-k3),值(v0-v3) 两头向量会有一些区别。

之后将查问向量分成相等的局部(有多少头就分成多少)。在上图中有 8 个头,查问,键和值向量的维度为 512。所以就变为了 8 个 64 维的向量。

把前 64 个向量放到第一个头,第二组向量放到第二个头,以此类推。在下面的图片中,我只展现了第一个头的计算。

这里须要留神的是:不同的框架有不同的实现办法,pytorch 官网的实现是下面这种,然而 tf 和一些第三方的代码中是将每个头离开计算了,比方 8 个头会应用 8 个 linear(tf 的 dense)而不是一个大 linear 再拆解。还记得 Pytorch 的 transformer 外面要求 emb_dim 能被 num_heads 整除吗,就是因为这个

应用哪种形式都能够,因为最终的后果都相似影响不大。

当咱们在一个 head 中有了小查问、键和值 (64 dim 的) 之后,计算剩下的逻辑与单个 head 留神雷同。最初失去的 64 维的向量来自每个头。

咱们将每个头的 64 个输入组合起来,失去最初的 512 个 dim 输入向量。

多头注意力能够示意数据中的简单关系。每个头都能学习不同的模式。多个头还提供了同时解决输出示意的不同子空间 (本例:64 个向量示意 512 个原始向量) 的能力。

多头留神代码实现

 num_heads=8
 # batch dim is 1 since we are processing one text.
 batch_size=1
 
 text="I should sleep now"
 words=text.split(" ")
 len(words) # 4
 
 
 embeddings_dim=512
 embeddings=get_input_embeddings(words, embeddings_dim=embeddings_dim)
 embeddings[0].shape# torch.Size([512])
 
 
 # initialize the query, key and value metrices 
 query_matrix=nn.Linear(embeddings_dim, embeddings_dim)
 key_matrix=nn.Linear(embeddings_dim, embeddings_dim)
 value_matrix=nn.Linear(embeddings_dim, embeddings_dim)
 query_matrix.weight.shape, key_matrix.weight.shape, value_matrix.weight.shape# torch.Size([512, 512]), torch.Size([512, 512]), torch.Size([512, 512])
 
 
 # query, key and value vectors computation for each words embeddings
 query_vectors=torch.stack([query_matrix(embedding) forembeddinginembeddings])
 key_vectors=torch.stack([key_matrix(embedding) forembeddinginembeddings])
 value_vectors=torch.stack([value_matrix(embedding) forembeddinginembeddings])
 query_vectors.shape, key_vectors.shape, value_vectors.shape# torch.Size([4, 512]), torch.Size([4, 512]), torch.Size([4, 512])
 
 
 # (batch_size, num_heads, seq_len, embeddings_dim)
 query_vectors_view=query_vectors.view(batch_size, -1, num_heads, embeddings_dim//num_heads).transpose(1, 2) 
 key_vectors_view=key_vectors.view(batch_size, -1, num_heads, embeddings_dim//num_heads).transpose(1, 2) 
 value_vectors_view=value_vectors.view(batch_size, -1, num_heads, embeddings_dim//num_heads).transpose(1, 2) 
 query_vectors_view.shape, key_vectors_view.shape, value_vectors_view.shape
 # torch.Size([1, 8, 4, 64]),
 #  torch.Size([1, 8, 4, 64]),
 #  torch.Size([1, 8, 4, 64])
 
 
 # We are splitting the each vectors into 8 heads. 
 # Assuming we have one text (batch size of 1), So we split 
 # the embedding vectors also into 8 parts. Each head will 
 # take these parts. If we do this one head at a time.
 head1_query_vector=query_vectors_view[0, 0, ...]
 head1_key_vector=key_vectors_view[0, 0, ...]
 head1_value_vector=value_vectors_view[0, 0, ...]
 head1_query_vector.shape, head1_key_vector.shape, head1_value_vector.shape
 
 
 # The above vectors are of same size as before only the feature dim is changed from 512 to 64
 # compute the score
 scores_head1=torch.matmul(head1_query_vector, head1_key_vector.permute(1, 0)) /torch.sqrt(torch.tensor(embeddings_dim//num_heads, dtype=torch.float32))
 scores_head1.shape# torch.Size([4, 4])
 
 
 # compute the attention weights for each of the words with the other words
 softmax=nn.Softmax(dim=-1)
 attention_weights_head1=softmax(scores_head1)
 attention_weights_head1.shape# torch.Size([4, 4])
 
 output_head1=torch.matmul(attention_weights_head1, head1_value_vector)
 output_head1.shape# torch.Size([4, 512])
 
 
 # we can compute the output for all the heads
 outputs= []
 forhead_idxinrange(num_heads):
     head_idx_query_vector=query_vectors_view[0, head_idx, ...]
     head_idx_key_vector=key_vectors_view[0, head_idx, ...]
     head_idx_value_vector=value_vectors_view[0, head_idx, ...]
     scores_head_idx=torch.matmul(head_idx_query_vector, head_idx_key_vector.permute(1, 0)) /torch.sqrt(torch.tensor(embeddings_dim//num_heads, dtype=torch.float32))
 
     softmax=nn.Softmax(dim=-1)
     attention_weights_idx=softmax(scores_head_idx)
     output=torch.matmul(attention_weights_idx, head_idx_value_vector)
     outputs.append(output)
 
 [out.shapeforoutinoutputs]
 # [torch.Size([4, 64]),
 #  torch.Size([4, 64]),
 #  torch.Size([4, 64]),
 #  torch.Size([4, 64]),
 #  torch.Size([4, 64]),
 #  torch.Size([4, 64]),
 #  torch.Size([4, 64]),
 #  torch.Size([4, 64])]
 
 # stack the result from each heads for the corresponding words
 word0_outputs=torch.cat([out[0] foroutinoutputs])
 word0_outputs.shape
 
 # lets do it for all the words
 attn_outputs= []
 foriinrange(len(words)):
     attn_output=torch.cat([out[i] foroutinoutputs])
     attn_outputs.append(attn_output)
 [attn_output.shapeforattn_outputinattn_outputs] # [torch.Size([512]), torch.Size([512]), torch.Size([512]), torch.Size([512])]
 
 
 # Now lets do it in vectorize way. 
 # We can not permute the last two dimension of the key vector.
 key_vectors_view.permute(0, 1, 3, 2).shape# torch.Size([1, 8, 64, 4])
 
 
 # Transpose the key vector on the last dim
 score=torch.matmul(query_vectors_view, key_vectors_view.permute(0, 1, 3, 2)) # Q*k
 score=torch.softmax(score, dim=-1)
 
 
 # reshape the results 
 attention_results=torch.matmul(score, value_vectors_view)
 attention_results.shape# [1, 8, 4, 64]
 
 # merge the results
 attention_results=attention_results.permute(0, 2, 1, 3).contiguous().view(batch_size, -1, embeddings_dim)
 attention_results.shape# torch.Size([1, 4, 512])

总结

注意力机制(attention mechanism)是 Transformer 模型中的重要组成部分。Transformer 是一种基于自注意力机制(self-attention)的神经网络模型,广泛应用于自然语言解决工作,如机器翻译、文本生成和语言模型等。本文介绍的自注意力机制是 Transformer 模型的根底,在此基础之上衍生倒退出了各种不同的更加高效的注意力机制,所以深刻理解自注意力机制,将可能更好地了解 Transformer 模型的设计原理和工作机制,以及如何在具体的各种工作中利用和调整模型。这将有助于你更无效地应用 Transformer 模型并进行相干钻研和开发。

最初有趣味的能够看看这个,它外面蕴含了 pytorch 的 transformer 的残缺实现:

https://avoid.overfit.cn/post/c3f0da0fd4bd4151a8f79741ebc09937

作者:Souvik Mandal

正文完
 0