Neural networks with PyTorch 使用Pytorch实现神经网络
深度学习网络就是有成百上千的神经层构成了,因为有很多很多层,所以才称之为<深度>。你能够像上文一样,只用一个权重矩阵就能够实现构建网络,但是在现实中,这么做非常的困难。在Pytorch中,nn
模块提供了一个高效构建网络的接口。
1 | # 下载必要数据 |
1 | # 导入必要的模块 |
现在我们来构建一个大型网络来解决手写输入的识别问题。这里我们使用的MNIST数据库,里面的图片为28x28灰度手写数字,如下图所示。
我们的目标就是构建一个神经网络,进而完成手写的识别。
第一,我们需要下载数据,下面的代码可能有点复杂,我们后续会相应的解释,请不要放弃。
1 | ### 先下载数据 |
我们先将训练数据加载到trainloader
,并设置一个迭代器iter(trainloader)
,随后我们用这个迭代器来遍历训练数据,这个过程有点类似于,
1 | for image, label in trainloader: |
注意,trainloader
的batch(批量)大小为64且shuffle=True
。
batch
大小:每次循环我们加载图片的数目。每次循环(运行一次网络)被称为一个batch。shuffle=True
:每次加载数据,都会对数据进行打乱操作,这样有助于增加鲁棒性。
这里为了演示方便,我们先知进行一次迭代,我们可以看到images
张量的size为(64, 1, 28, 28)
,其中
64:每batch的加载64images。
1: 一个颜色通道(灰度)。
28x28:图像大小。
1 | dataiter = iter(trainloader) |
我们加载一副图像看一看他的样子。
1 | plt.imshow(images[1].numpy().squeeze(), cmap='Greys_r'); # squeeze()函数将表示向量的数组转换为秩为1的数组 |
我们先尝试使用权重矩阵和矩阵乘法构建一个简单的神经网路。在本文中,我们使用方便且强大的nn
模块。
到现在为止,我们构建的网络都是全链接网络或称之为稠密网路。也就是说,每个神经元(单元)都和下一层的每一个神经元都连接(有权非0)。在全连接网络中,每层输入必需是一维向量(因为会迭代多次,所以输入可以拼接成一个2D矩阵)。但是,因为我们的图像是一个28x28
二维张量,所以我们需要将他转化为一个一维向量。考虑到尺寸问题,我们将一个batch的图像由(64, 1, 28, 28)
转换为(64, 784)
(注:784= 28 * 28)。截止到目前为止我们完成了展平操作。
现在我们已经有了一个完整的学习网络,这里我们要区分10个数字,所以网络输出为一个 1*
10的向量,每个元素的值为每个数字的概率。拥有最高概率的数字就是我们预测的数字。
练习:
展平一批图像images
。然后使用随机权重和偏移量来构建一个神经网络。它是一个具有784个输入单元,256个隐藏单元和10个输出单元的多层网络。对于隐藏层,我们使用sigmoid激活。为了让输出层输出概率值,我们不对输出进行激活操作。
1 | ## 解 |
Now 现在我们网络有了一个10个输入。每个输入网络的图像都能得到一个概率分布来告诉我们图像里的数字是什么。我们来举个例子:
这里我们会发现每个类别的概率似乎差的不多,这是因为我们的网络还没有训练,而且起始的参数是随机的分布值。这里计算概率我们用的是softmax
function数学表达式为:
$$
\Large
\sigma(x_i) = \cfrac{e^{x_i}}{\sum_k^K{e^{x_k}}}
$$
这里,
$x_i$取值范围为0到1,这个公式其实还完成了归一化的操作,使所有概率的和为一。
练习:
实现一个softmax
函数,来算并返回批处理中每个例子的概率分布。你需要注意,执行此操作时张量的大小变化。如果你有一个张量a
大小为(64, 10)
,还有一个张量b
大小为(64,)
,那么当你执行a/b
时,就会报错,因为你的张量大小不匹配。您只想将a
值除以一个值,你需要确保b
的大小为(64,1)
。
这样PyTorch会将a
每行中的10个值除以’b每行中的一个值。 你还需要为
torch.sum中
dim关键字赋值。 设置
dim =
0取整行的总和,而'dim = 1
取整列的总和。
1 | ## 解 |
采用PyTorch构建网路
我们已经知道如何构建输出的分布了,现在我们使用PyTorch的nn
模块来构建一个简单的网络。这里我们的网路有 784
个输入, 256 个隐藏单元, 10 个输出单元和 1 个 softmax 输出。
1 | from torch import nn |
1 | class Network(nn.Module): |
现在我们来对每一步进行一下讲解:
1 | class Network(nn.Module): |
我们构建一个网路Network,它的父类为nn.Module
。使用super().__init__()
来对父类进行初始化,这里包含了很多有用的参量(我们后续会讲)。当然这个网络你叫什么名字都可以。
1 | self.hidden = nn.Linear(784, 256) |
定义了一个线性传递函数,$x\mathbf{W} + b$
其中,$W$ 和 $b$
的张量由函数自动创建,你只需要定义一个输入和输出的大小就行了。如果你想访问其中的权重和方差,你可以使用net.hidden.weight
和net.hidden.bias
。
1 | self.output = nn.Linear(256, 10) |
同样,我们设置一个256输入,10输出的线性传递函数。
Similarly, this creates another linear
transformation with 256 inputs and 10 outputs.
1 | self.sigmoid = |
我们定义一下sigmoid
激活函数和softmax输出函数,并设置dim=1
来对tensor每一列求和。
1 | def forward(self, x): |
nn.Module
有一个前向的函数函数,张量 x
会顺次执行__init__
的中定义的操作。
1 | x = |
每一步的顺序要和你构建的网络相匹配,至于变量x
的命名无关紧要。注意,网络的顺序以forward为准而不是以softmax为准,现在我们可以创建一个Network
对象。
1 | # 现在我们来定义一下这个网络 |
您可以使用torch.nn.functional
模块更简洁明了地定义网络。为了简便,我们通常将此模块命名为F
。
1 | import torch.nn.functional as F |
激活函数
到目前为止,我们只关注softmax激活,但从理论上来讲,我们可以使用任意非线性函数来作为激活函数。常见的激活函数为:
Tanh(双曲正切函数)和ReLU(整流线性函数)。
在实践中,ReLU用的最为普遍。
构建你的网络
练习:
构建一个更复杂的网络,如上图所示,它经过,784个单元的输入层,128个单元的隐藏层,一个ReLU激活,64个单元的隐藏层,一个ReLU激活和一个带softmax激活的输出层。
‘fc’表示完全连接的图层。 在编写解决方案时,使用fc1
,fc2
和fc3
作为图层名称。
1 | ## 解 |
初始化权重和偏移量
权重和偏移量的初始化是自动完成的,当然你也可以对他进行订制化,可通过model.fc1.weight
来进行取值。
1 | print(model.fc1.weight) |
现在我们来举几个例子。
1 | # 将偏移量全部赋为0 |
1 | # 设为方差为1,均值为0的正态随机数 |
前相传递
我们来看一下,一幅图像通过网络有什么变化。
1 | # 加载数据 |
截止到目前为止,网络还是不好用,因为所有权重都是随机地!
使用 nn.Sequential
PyTorch提供了一种方便的方法来构建网络,它叫做`nn.Sequential``
(documentation)。我们来看一下例子:
1 | # 网络的超变量 |
如果你想进行一次线性运算并查看权重,你可以使用model[0]
。
1 | print(model[0]) |
你甚至还可以使用一个字典OrderedDict
来存储这些变量,这样的好处就是保证你的变量不会重名。
1 | from collections import OrderedDict |
你可以使用每层的序号或者名字来快速访问他们。
1 | print(model[0]) |
下一篇文章我们来讲一下如何训练这个网络。