当前位置:首页 > 工业技术
深度学习入门  基于Python的理论与实现
深度学习入门  基于Python的理论与实现

深度学习入门 基于Python的理论与实现PDF电子书下载

工业技术

  • 电子书积分:11 积分如何计算积分?
  • 作 者:(日)斋藤康毅著;陆宇杰译
  • 出 版 社:北京:人民邮电出版社
  • 出版年份:2018
  • ISBN:9787115485588
  • 页数:285 页
图书介绍:本书是深度学习真正意义上的入门书。书中对理解深度学习所需的技术,从最基础的开始逐个介绍。用浅显的语言解说什么是深度学习,深度学习具有什么特征、基于什么原理运行等。而为了让读者更“深”地理解深度学习,本书将使用Python语言,从零开始实现深度学习的相关技术。所谓“从零开始”,就是从读者能够理解的最基础的知识出发,尽量不依赖已有的库或工具,来逐步实现深度学习这一高端技术。
《深度学习入门 基于Python的理论与实现》目录

第1章 Python入门 1

1.1 Python是什么 1

1.2 Python的安装 2

1.2.1 Python版本 2

1.2.2 使用的外部库 2

1.2.3 Anaconda发行版 3

1.3 Python解释器 4

1.3.1 算术计算 4

1.3.2 数据类型 5

1.3.3 变量 5

1.3.4 列表 6

1.3.5 字典 7

1.3.6 布尔型 7

1.3.7 if语句 8

1.3.8 for语句 8

1.3.9 函数 9

1.4 Python脚本文件 9

1.4.1 保存为文件 9

1.4.2 类 10

1.5 NumPy 11

1.5.1 导入NumPy 11

1.5.2 生成NumPy数组 12

1.5.3 NumPy的算术运算 12

1.5.4 NumPy的N维数组 13

1.5.5 广播 14

1.5.6 访问元素 15

1.6 Matplotlib 16

1.6.1 绘制简单图形 16

1.6.2 pyplot的功能 17

1.6.3 显示图像 18

1.7 小结 19

第2章 感知机 21

2.1 感知机是什么 21

2.2 简单逻辑电路 23

2.2.1 与门 23

2.2.2 与非门和或门 23

2.3 感知机的实现 25

2.3.1 简单的实现 25

2.3.2 导入权重和偏置 26

2.3.3 使用权重和偏置的实现 26

2.4 感知机的局限性 28

2.4.1 异或门 28

2.4.2 线性和非线性 30

2.5 多层感知机 31

2.5.1 已有门电路的组合 31

2.5.2 异或门的实现 33

2.6 从与非门到计算机 35

2.7 小结 36

第3章 神经网络 37

3.1 从感知机到神经网络 37

3.1.1 神经网络的例子 37

3.1.2 复习感知机 38

3.1.3 激活函数登场 40

3.2 激活函数 42

3.2.1 sigmoid函数 42

3.2.2 阶跃函数的实现 43

3.2.3 阶跃函数的图形 44

3.2.4 sigmoid函数的实现 45

3.2.5 sigmoid函数和阶跃函数的比较 46

3.2.6 非线性函数 48

3.2.7 ReLU函数 49

3.3 多维数组的运算 50

3.3.1 多维数组 50

3.3.2 矩阵乘法 51

3.3.3 神经网络的内积 55

3.4 3层神经网络的实现 56

3.4.1 符号确认 57

3.4.2 各层间信号传递的实现 58

3.4.3 代码实现小结 62

3.5 输出层的设计 63

3.5.1 恒等函数和softmax函数 64

3.5.2 实现softmax函数时的注意事项 66

3.5.3 softmax函数的特征 67

3.5.4 输出层的神经元数量 68

3.6 手写数字识别 69

3.6.1 MNIST数据集 70

3.6.2 神经网络的推理处理 73

3.6.3 批处理 75

3.7 小结 79

第4章 神经网络的学习 81

4.1 从数据中学习 81

4.1.1 数据驱动 82

4.1.2 训练数据和测试数据 84

4.2 损失函数 85

4.2.1 均方误差 85

4.2.2 交叉熵误差 87

4.2.3 mini-batch学习 88

4.2.4 mini-batch版交叉熵误差的实现 91

4.2.5 为何要设定损失函数 92

4.3 数值微分 94

4.3.1 导数 94

4.3.2 数值微分的例子 96

4.3.3 偏导数 98

4.4 梯度 100

4.4.1 梯度法 102

4.4.2 神经网络的梯度 106

4.5 学习算法的实现 109

4.5.1 2层神经网络的类 110

4.5.2 mini-batch的实现 114

4.5.3 基于测试数据的评价 116

4.6 小结 118

第5章 误差反向传播法 121

5.1 计算图 121

5.1.1 用计算图求解 122

5.1.2 局部计算 124

5.1.3 为何用计算图解题 125

5.2 链式法则 126

5.2.1 计算图的反向传播 127

5.2.2 什么是链式法则 127

5.2.3 链式法则和计算图 129

5.3 反向传播 130

5.3.1 加法节点的反向传播 130

5.3.2 乘法节点的反向传播 132

5.3.3 苹果的例子 133

5.4 简单层的实现 135

5.4.1 乘法层的实现 135

5.4.2 加法层的实现 137

5.5 激活函数层的实现 139

5.5.1 ReLU层 139

5.5.2 Sigmoid层 141

5.6 Affine/Softmax层的实现 144

5.6.1 Affine层 144

5.6.2 批版本的Affine层 148

5.6.3 Softmax-with-Loss层 150

5.7 误差反向传播法的实现 154

5.7.1 神经网络学习的全貌图 154

5.7.2 对应误差反向传播法的神经网络的实现 155

5.7.3 误差反向传播法的梯度确认 158

5.7.4 使用误差反向传播法的学习 159

5.8 小结 161

第6章 与学习相关的技巧 163

6.1 参数的更新 163

6.1.1 探险家的故事 164

6.1.2 SGD 164

6.1.3 SGD的缺点 166

6.1.4 Momentum 168

6.1.5 AdaGrad 170

6.1.6 Adam 172

6.1.7 使用哪种更新方法呢 174

6.1.8 基于MNIST数据集的更新方法的比较 175

6.2 权重的初始值 176

6.2.1 可以将权重初始值设为0吗 176

6.2.2 隐藏层的激活值的分布 177

6.2.3 ReLU的权重初始值 181

6.2.4 基于MNIST数据集的权重初始值的比较 183

6.3 Batch Normalization 184

6.3.1 Batch Normalization的算法 184

6.3.2 Batch Normalization的评估 186

6.4 正则化 188

6.4.1 过拟合 189

6.4.2 权值衰减 191

6.4.3 Dropout 192

6.5 超参数的验证 195

6.5.1 验证数据 195

6.5.2 超参数的最优化 196

6.5.3 超参数最优化的实现 198

6.6 小结 200

第7章 卷积神经网络 201

7.1 整体结构 201

7.2 卷积层 202

7.2.1 全连接层存在的问题 203

7.2.2 卷积运算 203

7.2.3 填充 206

7.2.4 步幅 207

7.2.5 3维数据的卷积运算 209

7.2.6 结合方块思考 211

7.2.7 批处理 213

7.3 池化层 214

7.4 卷积层和池化层的实现 216

7.4.1 4维数组 216

7.4.2 基于im2col的展开 217

7.4.3 卷积层的实现 219

7.4.4 池化层的实现 222

7.5 CNN的实现 224

7.6 CNN的可视化 228

7.6.1 第1层权重的可视化 228

7.6.2 基于分层结构的信息提取 230

7.7 具有代表性的CNN 231

7.7.1 LeNet 231

7.7.2 AlexNet 232

7.8 小结 233

第8章 深度学习 235

8.1 加深网络 235

8.1.1 向更深的网络出发 235

8.1.2 进一步提高识别精度 238

8.1.3 加深层的动机 240

8.2 深度学习的小历史 242

8.2.1 ImageNet 243

8.2.2 VGG 244

8.2.3 GoogLeNet 245

8.2.4 ResNet 246

8.3 深度学习的高速化 248

8.3.1 需要努力解决的问题 248

8.3.2 基于GPU的高速化 249

8.3.3 分布式学习 250

8.3.4 运算精度的位数缩减 252

8.4 深度学习的应用案例 253

8.4.1 物体检测 253

8.4.2 图像分割 255

8.4.3 图像标题的生成 256

8.5 深度学习的未来 258

8.5.1 图像风格变换 258

8.5.2 图像的生成 259

8.5.3 自动驾驶 261

8.5.4 Deep Q-Network(强化学习) 262

8.6 小结 264

附录A Softmax-with-Loss层的计算图 267

A.1 正向传播 268

A.2 反向传播 270

A.3 小结 277

参考文献 279

相关图书
作者其它书籍
返回顶部