第一点 | 第二点 | 第三点 | 第四点 |
---|---|---|---|
进一步了解 CNN 网络 |
初步了解 LeNet 和 AlexNet |
对常用的深度学习框架进行对比 |
使用 Keras 这个深度学习框架编写代码 |
43丨深度学习(下):如何用Keras搭建深度学习网络做手写数字识别?
- 卷积层
- 池化层
- 全连接层
假设有下面的一张图
- 翻转矩阵180度
至于为什么,客官请看社区的这篇文章: 链接1
- 卷积运算
- 重复第二步骤 得到结果
使用代码进行总结
# coding=utf-8
import pylab
import numpy as np
from scipy import signal
# 设置原图像
img = np.array([[10, 10, 10, 10, 10],
[10, 5, 5, 5, 10],
[10, 5, 5, 5, 10],
[10, 5, 5, 5, 10],
[10, 10, 10, 10, 10]])
# 设置卷积核
fil = np.array([[-1, -1, 0],
[-1, 0, 1],
[0, 1, 1]])
# 对原图像进行卷积操作
res = signal.convolve2d(img, fil, mode='valid')
# 输出卷积后的结果
print(res)
- 图像卷积
# coding=utf-8
import matplotlib
matplotlib.use('Qt4Agg')
import matplotlib.pyplot as plt
import pylab
import cv2
import numpy as np
from scipy import signal
# 读取灰度图像
img = cv2.imread("haibao.jpeg", 0)
# 显示灰度图像
plt.imshow(img, cmap="gray")
pylab.show()
# 设置卷积核
fil = np.array(
[
[-1, -1, 0],
[-1, 0, 1],
[0, 1, 1]
]
)
# 卷积操作
res = signal.convolve2d(img, fil, mode='valid')
print(res)
# 显示卷积后的图片
plt.imshow(res, cmap="gray")
pylab.show()
效果:
实际上每个卷积都是一种滤波器 筛选符合条件的部分 类似特征提取
卷积层可以有多个卷积核 例如第一层含有6个可以提取6个特征 得到6个特征图
卷积操作的下一步, 回归函数 Sigmoid
在机器学习中有广泛的应用
tanh
、ReLU
都是常用的激活函数。
- 位置: 通常位于两个卷积层之间
- 作用: 对神经元的数据做降维处理
- 目的: 降低整体计算量
tanh、ReLU 都是常用的激活函数。
将前面一层的输出结果与当前层的每个神经元都进行了连接
计算出来的特征 -> 分类器
比如 Softmax
分类器。在深度学习中,Softmax
比较实用
通常我们可以使用多个卷积层和池化层,最后再连接一个或者多个全... LeNet 提出于 1986 年,是最早用于数字识别的 CN...
AlexNet 在 LeNet 的基础上做了改进,提出了更深...
使用 Keras
之前,我们需要安装相应的工具包
Keras
需要用 tensorflow
或者 theano
作为后端
from keras.models import Sequential
model = Sequential()
使用 Conv2D(filters, kernel_size,activation=None)
进行创建
filters
代表卷积核的数量
kernel_size
代表卷积核的宽度和长度
activation
代表激活函数
是第一个卷积层,我们还需要提供 input_shape
参数
MaxPooling2D(pool_size=(2, 2))...
pool_size
代表下采样因子
使用 Flatten()
创建
使用 Dense(units, activation=Non...
model.compile(loss, optimizer=‘adam’, metrics=[‘accuracy’]) 来完成损失函数和优化器的
# coding=utf-8
# 使用 LeNet 模型对 Mnist 手写数字进行识别
import keras
from keras.datasets import mnist
from keras.layers import Conv2D, MaxPooling2D
from keras.layers import Dense, Flatten
from keras.models import Sequential
# 数据加载
(train_x, train_y), (test_x, test_y) = mnist.load_data()
# 输入数据为 mnist 数据集
train_x = train_x.reshape(train_x.shape[0], 28, 28, 1)
test_x = test_x.reshape(test_x.shape[0], 28, 28, 1)
train_x = train_x / 255
test_x = test_x / 255
train_y = keras.utils.to_categorical(train_y, 10)
test_y = keras.utils.to_categorical(test_y, 10)
# 创建序贯模型
model = Sequential()
# 第一层卷积层:6 个卷积核,大小为 5∗5, relu 激活函数
model.add(Conv2D(6, kernel_size=(5, 5), activation='relu', input_shape=(28, 28, 1)))
# 第二层池化层:最大池化
model.add(MaxPooling2D(pool_size=(2, 2)))
# 第三层卷积层:16 个卷积核,大小为 5*5,relu 激活函数
model.add(Conv2D(16, kernel_size=(5, 5), activation='relu'))
# 第二层池化层:最大池化
model.add(MaxPooling2D(pool_size=(2, 2)))
# 将参数进行扁平化,在 LeNet5 中称之为卷积层,实际上这一层是一维向量,和全连接层一样
model.add(Flatten())
model.add(Dense(120, activation='relu'))
# 全连接层,输出节点个数为 84 个
model.add(Dense(84, activation='relu'))
# 输出层 用 softmax 激活函数计算分类概率
model.add(Dense(10, activation='softmax'))
# 设置损失函数和优化器配置
model.compile(loss=keras.metrics.categorical_crossentropy, optimizer=keras.optimizers.Adam(), metrics=['accuracy'])
# 传入训练数据进行训练
model.fit(train_x, train_y, batch_size=128, epochs=2, verbose=1, validation_data=(test_x, test_y))
# 对结果进行评估
score = model.evaluate(test_x, test_y)
print('误差:%0.4lf' % score[0])
print('准确率:', score[1])