对于LSTM,我们要处理的数据是一个序列数据,对于图片而言,我们如何将其转换成序列数据呢?图片的大小是28x28,所以我们可以将其看成长度为28的序列,序列中的每个数据的维度是28,这样我们就可以将其变成一个序列数据了。
model
class Rnn(nn.Module): def __init__(self, in_dim, hidden_dim, n_layer, n_class): super(Rnn, self).__init__() self.n_layer = n_layer self.hidden_dim = hidden_dim self.lstm = nn.LSTM(in_dim, hidden_dim, n_layer, batch_first=True) self.classifier = nn.Linear(hidden_dim, n_class) def forward(self, x): # h0 = Variable(torch.zeros(self.n_layer, x.size(1), # self.hidden_dim)).cuda() # c0 = Variable(torch.zeros(self.n_layer, x.size(1), # self.hidden_dim)).cuda() out, _ = self.lstm(x) out = out[:, -1, :] out = self.classifier(out) return outmodel = Rnn(28, 128, 2, 10) # 图片大小是28x28use_gpu = torch.cuda.is_available() # 判断是否有GPU加速if use_gpu: model = model.cuda()# 定义loss和optimizercriterion = nn.CrossEntropyLoss()optimizer = optim.Adam(model.parameters(), lr=learning_rate)
这里我们定义了一个LSTM
模型,我们需要传入的参数是输入数据的维数28,LSTM
输出的维数128,LSTM
网络层数2层以及输出的类数10。
在网络定义里面首先需要定义LSTM
,而长度为28的序列传入LSTM之后输出的也是长度为28,而输入的维数是28,输出的维数由我们定义为128,最后我们只取输出的最后一个部分传入分类器求出分类概率。
out = out[:, -1, :]
通过这种方式,out
中的三个维度分别表示batch_size
,序列长度和数据维度,所以中间的序列长度取-1,表示取序列中的最后一个数据,这个数据维度为128,再通过分类器,输出10个结果表示每种结果的概率。
另外上面注释掉的部分就是初始的h_0和c_0,这里可以自己定义,如果不定义,默认传入0,也可以根据自己的要求传入自己定义的h_0和c_0。
开始训练
把训练过程的batch_size
设置为100,learning_rate
设置为0.01,训练20次,最后得到的结果如下
可以发现对于简单的图像分类RNN
也能得到一个较好的结果,虽然CNN
更多的用在图像领域而RNN
更多的用在自然语言处理中。RNN
和CNN
彼此优缺点可以自行百度。
在这里,我整理发布了Pytorch中文文档,方便大家查询使用,同时也准备了中文论坛,欢迎大家学习交流!
Pytorch中文文档已经发布,完美翻译,更加方便大家浏览:
Pytorch中文网:https://ptorch.com/
Pytorch中文文档:https://ptorch.com/docs/1/