torch.nn.Embedding(num_embeddings, embedding_dim)的理解
生活随笔
收集整理的這篇文章主要介紹了
torch.nn.Embedding(num_embeddings, embedding_dim)的理解
小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.
torch.nn.Embedding(num_embeddings, embedding_dim)
這個語句是創(chuàng)建一個詞嵌入模型,num_embeddings代表一共有多少個詞,embedding_dim代表你想要為每個詞創(chuàng)建一個多少維的向量來表示它,直接上例子:
import torch from torch import nnembedding = nn.Embedding(5, 4) # 假定字典中只有5個詞,詞向量維度為4 word = [[1, 2, 3],[2, 3, 4]] # 每個數(shù)字代表一個詞,例如 {'!':0,'how':1, 'are':2, 'you':3, 'ok':4}#而且這些數(shù)字的范圍只能在0~4之間,因為上面定義了只有5個詞 embed = embedding(torch.LongTensor(word)) print(embed) print(embed.size())輸出:
tensor([[[-0.4093, -1.0110, 0.6731, 0.0790],[-0.6557, -0.9846, -0.1647, 2.2633],[-0.5706, -1.1936, -0.2704, 0.0708]],[[-0.6557, -0.9846, -0.1647, 2.2633],[-0.5706, -1.1936, -0.2704, 0.0708],[ 0.2242, -0.5989, 0.4237, 2.2405]]], grad_fn=<EmbeddingBackward>) torch.Size([2, 3, 4])embed輸出的維度是[2, 3, 4],這就代表對于輸入的[2,3]維的詞,每一個詞都被映射成了一個4維的向量。
總結(jié)
以上是生活随笔為你收集整理的torch.nn.Embedding(num_embeddings, embedding_dim)的理解的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 双显示器设置鼠标上下移动
- 下一篇: Python-.item()的理解与使用