简介
记录一下学习Tensorflow的过程,包括代码和教程。
学习资料包括http://wiki.jikexueyuan.com/project/tensorflow-zh/tutorials
https://www.tensorflow.org/get_started/
代码见https://github.com/fengh16/TensorFlow-Learning
一些公式使用$$标记,如果显示不出请使用typora并且复制进去读取。
环境
Windows 10,Ubuntu18.04 GTX 950M; (Ubuntu安装过程见https://www.jianshu.com/p/a4d72364a7ee 相关部分)
腾讯云辣鸡学生机(ubuntu 1U2G)……反正只放了一个公众号后台,跑跑tensorflow也无妨,大不了跑个几天几夜
安装
安装python3, pip等,之后ubuntu系统直接pip install tensorflow
,win10下面……一定要下载64位的python 3.5/3.6(我也不知道为啥原来下载的是32位的)!之后直接pip install tensorflow
。如果有报错,试试pip install --upgrade --ignore-installed tensorflow
(记得换源加速,见https://www.jianshu.com/p/a8b84ac0e609)
如果安装gpu版本:
因为官方的是基于cuda 9.0版本的,所以就直接安装cuda9.0版本,之后安装cudnn并且复制文件就行。
- 复制一堆文件
- Copy \cuda\bin\cudnn64_7.dll to C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v9.0\bin.
- Copy \cuda\ include\cudnn.h to C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v9.0\include.
- Copy \cuda\lib\x64\cudnn.lib to C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v9.0\lib\x64.
- 复制一堆文件
如果想用9.1版本的……那就折腾吧……(原始教程:https://blog.csdn.net/vcvycy/article/details/79298703)
- 安装cuda 9.1+VS2017
- 安装cudnn7.0
- 复制一堆文件
- Copy \cuda\bin\cudnn64_7.dll to C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v9.0\bin.
- Copy \cuda\ include\cudnn.h to C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v9.0\include.
- Copy \cuda\lib\x64\cudnn.lib to C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v9.0\lib\x64.
- 到https://github.com/fo40225/tensorflow-windows-wheel下载Cuda9.1版本的tensorflow
检测TensorFlow安装
代码见https://github.com/fengh16/TensorFlow-Learning/blob/master/001-FirstTry-180419/test.py
1 | from __future__ import absolute_import, division, print_function |
第一个程序
代码见https://github.com/fengh16/TensorFlow-Learning/blob/master/001-FirstTry-180419/try.py
1 | # 生成三维数据之后用平面拟合 |
运行后会输出结果。
MNIST机器学习入门
MNIST是一个入门级的计算机视觉数据集,包含各种手写图片以及标签。
下载数据集
或者下载运行https://github.com/fengh16/TensorFlow-Learning/tree/master/002-MNIST-180420/download.py
数据集介绍
下载下来的数据集被分成两部分:60000行的训练数据集(mnist.train
)和10000行的测试数据集(mnist.test
)。
每一个MNIST数据单元有两部分组成:一张包含手写数字的图片和一个对应的标签。我们把这些图片设为“xs”,把这些标签设为“ys”。训练数据集和测试数据集都包含xs和ys,比如训练数据集的图片是 mnist.train.images
,训练数据集的标签是 mnist.train.labels
。
每一张图片包含28X28个像素点。我们可以用一个数字数组来表示这张图片。我们把这个数组展开成一个向量,长度是 28x28 = 784。如何展开这个数组(数字间的顺序)不重要,只要保持各个图片采用相同的方式展开。从这个角度来看,MNIST数据集的图片就是在784维向量空间里面的点。因此,在MNIST训练数据集中,mnist.train.images
是一个形状为 [60000, 784] 的张量,第一个维度数字用来索引图片,第二个维度数字用来索引每张图片中的像素点。在此张量里的每一个元素,都表示某张图片里的某个像素的强度值,值介于0和1之间。相对应的MNIST数据集的标签是介于0到9的数字,用来描述给定图片里表示的数字。我们使标签数据是”one-hot vectors
“。 一个one-hot
向量除了某一位的数字是1以外其余各维度数字都是0。所以在此教程中,数字n将表示成一个只有在第n维度(从0开始)数字为1的10维向量。比如,标签0将表示成([1,0,0,0,0,0,0,0,0,0,0])。因此, mnist.train.labels
是一个 [60000, 10] 的数字矩阵。
Softmax回归介绍
softmax模型
可以用来给不同的对象分配概率。即使在之后,我们训练更加精细的模型时,最后一步也需要用softmax
来分配概率。
softmax回归
(softmax regression
):
- 为了得到一张给定图片属于某个特定数字类的证据(
evidence
),我们对图片像素值进行加权求和。如果这个像素具有很强的证据说明这张图片不属于该类,那么相应的权值为负数,相反如果这个像素拥有有利的证据支持这张图片属于这个类,那么权值是正数。 - 下面的图片显示了一个模型学习到的图片上每个像素对于特定数字类的权值。红色代表负数权值,蓝色代表正数权值。
- 我们也需要加入一个额外的偏置量(bias),因为输入往往会带有一些无关的干扰量。因此对于给定的输入图片 x 它代表的是数字 i 的证据可以表示为:$evidence_i = \sum\limits_j W_{i, j}x_j + b_j$ ,其中$W_{i,j}$表示输入图片像素位置为$j$的地方是$i$的权重,$b_i$表示数字i的偏置量,$j$代表给定图片x的像素引用于像素求和。之后用softmax函数可以把这些证据转换成概率 y:$y=softmax(evidence)$
- 这里的softmax可以看成是一个激励(activation)函数或者链接(link)函数,把我们定义的线性函数的输出转换成我们想要的格式,也就是关于10个数字类的概率分布。因此,给定一张图片,它对于每一个数字的吻合度可以被softmax函数转换成为一个概率值。softmax函数可以使用正态分布的方法$normalize(exp(x))$
- 这个回归模型可以用以下图解释:
python实现
为了用python实现高效的数值计算,我们通常会使用函数库,比如NumPy,会把类似矩阵乘法这样的复杂运算使用其他外部语言实现。不幸的是,从外部计算切换回Python的每一个操作,仍然是一个很大的开销。如果你用GPU来进行外部计算,这样的开销会更大。用分布式的计算方式,也会花费更多的资源用来传输数据。
TensorFlow也把复杂的计算放在python之外完成,但是为了避免前面说的那些开销,它做了进一步完善。Tensorflow不单独地运行单一的复杂计算,而是让我们可以先用图描述一系列可交互的计算操作,然后全部一起在Python之外运行。(这样类似的运行方式,可以在不少的机器学习库中看到。)
使用TensorFlow之前,首先导入它:
1 | import tensorflow as tf |
我们通过操作符号变量来描述这些可交互的操作单元,可以用下面的方式创建一个:
1 | x = tf.placeholder(tf.float32, [None, 784]) |
x
不是一个特定的值,而是一个占位符placeholder
,我们在TensorFlow运行计算时输入这个值。我们希望能够输入任意数量的MNIST图像,每一张图展平成784维的向量。我们用2维的浮点数张量来表示这些图,这个张量的形状是[None,784 ]
。(这里的None
表示此张量的第一个维度可以是任何长度的。)
我们的模型也需要权重值和偏置量,当然我们可以把它们当做是另外的输入(使用占位符),但TensorFlow有一个更好的方法来表示它们:Variable
。 一个Variable
代表一个可修改的张量,存在在TensorFlow的用于描述交互性操作的图中。它们可以用于计算输入值,也可以在计算中被修改。对于各种机器学习应用,一般都会有模型参数,可以用Variable
表示。
1 | W = tf.Variable(tf.zeros([784,10])) |
我们赋予tf.Variable
不同的初值来创建不同的Variable
:在这里,我们都用全为零的张量来初始化W
和b
。因为我们要学习W
和b
的值,它们的初值可以随意设置。
注意,W
的维度是[784,10],因为我们想要用784维的图片向量乘以它以得到一个10维的证据值向量,每一位对应不同数字类。b
的形状是[10],所以我们可以直接把它加到输出上面。
现在,我们可以实现我们的模型啦。只需要一行代码!
1 | y = tf.nn.softmax(tf.matmul(x,W) + b) |
首先,我们用tf.matmul(X,W)
表示x
乘以W
,对应之前等式里面的
,这里x
是一个2维张量拥有多个输入。然后再加上b
,把和输入到tf.nn.softmax
函数里面。
至此,我们先用了几行简短的代码来设置变量,然后只用了一行代码来定义我们的模型。TensorFlow不仅仅可以使softmax回归模型计算变得特别简单,它也用这种非常灵活的方式来描述其他各种数值计算,从机器学习模型对物理学模拟仿真模型。一旦被定义好之后,我们的模型就可以在不同的设备上运行:计算机的CPU,GPU,甚至是手机!
训练模型
为了训练我们的模型,我们首先需要定义一个指标来评估这个模型是好的。其实,在机器学习,我们通常定义指标来表示一个模型是坏的,这个指标称为成本(cost)或损失(loss),然后尽量最小化这个指标。但是,这两种方式是相同的。
一个非常常见的,非常漂亮的成本函数是“交叉熵”(cross-entropy)。交叉熵产生于信息论里面的信息压缩编码技术,但是它后来演变成为从博弈论到机器学习等其他领域里的重要技术手段。它的定义如下:
y 是我们预测的概率分布, y’ 是实际的分布(我们输入的one-hot vector
)。比较粗糙的理解是,交叉熵是用来衡量我们的预测用于描述真相的低效性。更详细的关于交叉熵的解释超出本教程的范畴,但是你很有必要好好理解它。
为了计算交叉熵,我们首先需要添加一个新的占位符用于输入正确值:
1 | y_ = tf.placeholder("float", [None,10]) |
然后我们可以用
计算交叉熵:
1 | cross_entropy = -tf.reduce_sum(y_*tf.log(y)) |
首先,用 tf.log
计算 y
的每个元素的对数。接下来,我们把 y_
的每一个元素和 tf.log(y)
的对应元素相乘。最后,用 tf.reduce_sum
计算张量的所有元素的总和。(注意,这里的交叉熵不仅仅用来衡量单一的一对预测和真实值,而是所有100幅图片的交叉熵的总和。对于100个数据点的预测表现比单一数据点的表现能更好地描述我们的模型的性能。
现在我们知道我们需要我们的模型做什么啦,用TensorFlow来训练它是非常容易的。因为TensorFlow拥有一张描述你各个计算单元的图,它可以自动地使用反向传播算法(backpropagation algorithm)来有效地确定你的变量是如何影响你想要最小化的那个成本值的。然后,TensorFlow会用你选择的优化算法来不断地修改变量以降低成本。
1 | train_step = tf.train.GradientDescentOptimizer(0.01).minimize(cross_entropy) |
在这里,我们要求TensorFlow用梯度下降算法(gradient descent algorithm)以0.01的学习速率最小化交叉熵。梯度下降算法(gradient descent algorithm)是一个简单的学习过程,TensorFlow只需将每个变量一点点地往使成本不断降低的方向移动。当然TensorFlow也提供了其他许多优化算法:只要简单地调整一行代码就可以使用其他的算法。
TensorFlow在这里实际上所做的是,它会在后台给描述你的计算的那张图里面增加一系列新的计算操作单元用于实现反向传播算法和梯度下降算法。然后,它返回给你的只是一个单一的操作,当运行这个操作时,它用梯度下降算法训练你的模型,微调你的变量,不断减少成本。
现在,我们已经设置好了我们的模型。在运行计算之前,我们需要添加一个操作来初始化我们创建的变量:
1 | init = tf.initialize_all_variables() |
现在我们可以在一个Session
里面启动我们的模型,并且初始化变量:
1 | sess = tf.Session() |
然后开始训练模型,这里我们让模型循环训练1000次!
1 | for i in range(1000): |
该循环的每个步骤中,我们都会随机抓取训练数据中的100个批处理数据点,然后我们用这些数据点作为参数替换之前的占位符来运行train_step
。
使用一小部分的随机数据来进行训练被称为随机训练(stochastic training)- 在这里更确切的说是随机梯度下降训练。在理想情况下,我们希望用我们所有的数据来进行每一步的训练,因为这能给我们更好的训练结果,但显然这需要很大的计算开销。所以,每一次训练我们可以使用不同的数据子集,这样做既可以减少计算开销,又可以最大化地学习到数据集的总体特性。
评估我们的模型
那么我们的模型性能如何呢?
首先让我们找出那些预测正确的标签。tf.argmax
是一个非常有用的函数,它能给出某个tensor对象在某一维上的其数据最大值所在的索引值。由于标签向量是由0,1组成,因此最大值1所在的索引位置就是类别标签,比如tf.argmax(y,1)
返回的是模型对于任一输入x预测到的标签值,而 tf.argmax(y_,1)
代表正确的标签,我们可以用 tf.equal
来检测我们的预测是否真实标签匹配(索引位置一样表示匹配)。
1 | correct_prediction = tf.equal(tf.argmax(y,1), tf.argmax(y_,1)) |
这行代码会给我们一组布尔值。为了确定正确预测项的比例,我们可以把布尔值转换成浮点数,然后取平均值。例如,[True, False, True, True]
会变成 [1,0,1,1]
,取平均值后得到 0.75
.
1 | accuracy = tf.reduce_mean(tf.cast(correct_prediction, "float")) |
最后,我们计算所学习到的模型在测试数据集上面的正确率。
1 | print sess.run(accuracy, feed_dict={x: mnist.test.images, y_: mnist.test.labels}) |
这个最终结果值应该大约是91%。
MNIST优化
代码见Github
权重初始化:
为了创建这个模型,我们需要创建大量的权重和偏置项。这个模型中的权重在初始化时应该加入少量的噪声来打破对称性以及避免0梯度。由于我们使用的是ReLU神经元,因此比较好的做法是用一个较小的正数来初始化偏置项,以避免神经元节点输出恒为0的问题(dead neurons)。为了不在建立模型的时候反复做初始化操作,我们定义两个函数用于初始化。
1 | def weight_variable(shape): |
卷积和池化
TensorFlow在卷积和池化上有很强的灵活性。我们怎么处理边界?步长应该设多大?在这个实例里,我们会一直使用vanilla版本。我们的卷积使用1步长(stride size),0边距(padding size)的模板,保证输出和输入是同一个大小。我们的池化用简单传统的2x2大小的模板做max pooling。为了代码更简洁,我们把这部分抽象成一个函数。
1 | def conv2d(x, W): |
第一层卷积
现在我们可以开始实现第一层了。它由一个卷积接一个max pooling完成。卷积在每个5x5的patch中算出32个特征。卷积的权重张量形状是[5, 5, 1, 32]
,前两个维度是patch的大小,接着是输入的通道数目,最后是输出的通道数目。 而对于每一个输出通道都有一个对应的偏置量。
1 | W_conv1 = weight_variable([5, 5, 1, 32]) |
为了用这一层,我们把x
变成一个4d向量,其第2、第3维对应图片的宽、高,最后一维代表图片的颜色通道数(因为是灰度图所以这里的通道数为1,如果是rgb彩色图,则为3)。
1 | x_image = tf.reshape(x, [-1,28,28,1]) |
We then convolve x_image
with the weight tensor, add the bias, apply the ReLU function, and finally max pool. 我们把x_image
和权值向量进行卷积,加上偏置项,然后应用ReLU激活函数,最后进行max pooling。
1 | h_conv1 = tf.nn.relu(conv2d(x_image, W_conv1) + b_conv1) |
第二层卷积
为了构建一个更深的网络,我们会把几个类似的层堆叠起来。第二层中,每个5x5的patch会得到64个特征。
1 | W_conv2 = weight_variable([5, 5, 32, 64]) |
密集连接层
现在,图片尺寸减小到7x7,我们加入一个有1024个神经元的全连接层,用于处理整个图片。我们把池化层输出的张量reshape成一些向量,乘上权重矩阵,加上偏置,然后对其使用ReLU。
1 | W_fc1 = weight_variable([7 * 7 * 64, 1024]) |
Dropout
为了减少过拟合,我们在输出层之前加入dropout。我们用一个placeholder
来代表一个神经元的输出在dropout中保持不变的概率。这样我们可以在训练过程中启用dropout,在测试过程中关闭dropout。 TensorFlow的tf.nn.dropout
操作除了可以屏蔽神经元的输出外,还会自动处理神经元输出值的scale。所以用dropout的时候可以不用考虑scale。
1 | keep_prob = tf.placeholder("float") |
输出层
最后,我们添加一个softmax层,就像前面的单层softmax regression一样。
1 | W_fc2 = weight_variable([1024, 10]) |
训练和评估模型
这个模型的效果如何呢?
为了进行训练和评估,我们使用与之前简单的单层SoftMax神经网络模型几乎相同的一套代码,只是我们会用更加复杂的ADAM优化器来做梯度最速下降,在feed_dict
中加入额外的参数keep_prob
来控制dropout比例。然后每100次迭代输出一次日志。
1 | cross_entropy = -tf.reduce_sum(y_*tf.log(y_conv)) |
以上代码,在最终测试集上的准确率大概是99.2%。
公众号推荐
推荐一波自己的公众号:五道口的程序狐
里面有一个聊天机器人,抚慰你的心灵
如有需要,联系contact@fhao.top