第1篇 深度学习与TensorFlow基础 2
第1章 快速了解人工智能与TensorFlow 2
1.1什么是深度学习 2
1.2 TensorFlow是做什么的 3
1.3 TensorFlow的特点 4
1.4其他深度学习框架特点及介绍 5
1.5如何通过本书学好深度学习 6
1.5.1深度学习怎么学 6
1.5.2如何学习本书 7
第2章 搭建开发环境 8
2.1下载及安装Anaconda开发工具 8
2.2在Windows平台下载及安装TensorFlow 11
2.3 GPU版本的安装方法 12
2.3.1安装CUDA软件包 12
2.3.2安装cuDNN库 13
2.3.3测试显卡 14
2.4熟悉Anaconda 3开发工具 15
2.4.1快速了解Spyder 16
2.4.2快速了解Jupyter Notebook 18
第3章 TensorFlow基本开发步骤——以逻辑回归拟合二维数据为例 19
3.1实例1:从一组看似混乱的数据中找出y?2x的规律 19
3.1.1准备数据 20
3.1.2搭建模型 21
3.1.3迭代训练模型 23
3.1.4使用模型 25
3.2模型是如何训练出来的 25
3.2.1模型里的内容及意义 25
3.2.2模型内部的数据流向 26
3.3了解TensorFlow开发的基本步骤 27
3.3.1定义输入节点的方法 27
3.3.2实例2:通过字典类型定义输入节点 28
3.3.3实例3:直接定义输入节点 28
3.3.4定义“学习参数”的变量 29
3.3.5实例4:通过字典类型定义“学习参数” 29
3.3.6定义“运算” 29
3.3.7优化函数,优化目标 30
3.3.8初始化所有变量 30
3.3.9迭代更新参数到最优解 31
3.3.10测试模型 31
3.3.11使用模型 31
第4章 TensorFlow编程基础 32
4.1编程模型 32
4.1.1了解模型的运行机制 33
4.1.2实例5:编写hello world程序演示session的使用 34
4.1.3实例6:演示with session的使用 35
4.1.4实例7:演示注入机制 35
4.1.5建立session的其他方法 36
4.1.6实例8:使用注入机制获取节点 36
4.1.7指定GPU运算 37
4.1.8设置GPU使用资源 37
4.1.9保存和载入模型的方法介绍 38
4.1.10实例9:保存/载入线性回归模型 38
4.1.11实例10:分析模型内容,演示模型的其他保存方法 40
4.1.12检查点(Checkpoint) 41
4.1.13实例11:为模型添加保存检查点 41
4.1.14实例12:更简便地保存检查点 44
4.1.15 模型操作常用函数总结 45
4.1.16 TensorB oard可视化介绍 45
4.1.17实例13:线性回归的TensorBoard可视化 46
4.2 TensorFlow基础类型定义及操作函数介绍 48
4.2.1张量及操作 49
4.2.2算术运算函数 55
4.2.3矩阵相关的运算 56
4.2.4复数操作函数 58
4.2.5规约计算 59
4.2.6分割 60
4.2.7序列比较与索引提取 61
4.2.8错误类 62
4.3共享变量 62
4.3.1共享变量用途 62
4.3.2使用get-variable获取变量 63
4.3.3实例14:演示get variable和Variable的区别 63
4.3.4实例15:在特定的作用域下获取变量 65
4.3.5实例16:共享变量功能的实现 66
4.3.6实例17:初始化共享变量的作用域 67
4.3.7实例18:演示作用域与操作符的受限范围 68
4.4实例19:图的基本操作 70
4.4.1建立图 70
4.4.2获取张量 71
4.4.3获取节点操作 72
4.4.4获取元素列表 73
4.4.5获取对象 73
4.4.6练习题 74
4.5配置分布式TensorFlow 74
4.5.1分布式TensorFlow的角色及原理 74
4.5.2分布部署TensorFlow的具体方法 75
4.5.3实例20:使用TensorFlow实现分布式部署训练 75
4.6动态图(Eager) 81
4.7数据集(tf.data) 82
第5章 识别图中模糊的手写数字(实例21) 83
5.1导入图片数据集 84
5.1.1 MNIST数据集介绍 84
5.1.2下载并安装MNIST数据集 85
5.2分析图片的特点,定义变量 87
5.3构建模型 87
5.3.1定义学习参数 87
5.3.2定义输出节点 88
5.3.3定义反向传播的结构 88
5.4训练模型并输出中间状态参数 89
5.5测试模型 90
5.6保存模型 91
5.7读取模型 92
第2篇 深度学习基础——神经网络 96
第6章 单个神经元 96
6.1神经元的拟合原理 96
6.1.1正向传播 98
6.1.2反向传播 98
6.2激活函数——加入非线性因素,解决线性模型缺陷 99
6.2.1 Sigmoid函数 99
6.2.2 Tanh函数 100
6.2.3 ReLU函数 101
6.2.4 Swish函数 103
6.2.5激活函数总结 103
6.3 softmax算法——处理分类问题 103
6.3.1什么是softmax 104
6.3.2 softmax原理 104
6.3.3常用的分类函数 105
6.4损失函数——用真实值与预测值的距离来指导模型的收敛方向 105
6.4.1损失函数介绍 105
6.4.2 TensorFlow中常见的loss函数 106
6.5 softmax算法与损失函数的综合应用 108
6.5.1实例22:交叉熵实验 108
6.5.2实例23: one hot实验 109
6.5.3实例24: sparse交叉熵的使用 110
6.5.4实例25:计算loss值 110
6.5.5练习题 111
6.6梯度下降——让模型逼近最小偏差 111
6.6.1梯度下降的作用及分类 111
6.6.2 TensorFlow中的梯度下降函数 112
6.6.3退化学习率——在训练的速度与精度之间找到平衡 113
6.6.4实例26:退化学习率的用法举例 114
6.7初始化学习参数 115
6.8单个神经元的扩展——Maxout网络 116
6.8.1 Maxout介绍 116
6.8.2实例27:用Maxout网络实现MNIST分类 117
6.9练习题 118
第7章 多层神经网络——解决非线性问题 119
7.1线性问题与非线性问题 119
7.1.1实例28:用线性单分逻辑回归分析肿瘤是良性还是恶性的 119
7.1.2实例29:用线性逻辑回归处理多分类问题 123
7.1.3认识非线性问题 129
7.2使用隐藏层解决非线性问题 130
7.2.1实例30:使用带隐藏层的神经网络拟合异或操作 130
7.2.2非线性网络的可视化及其意义 133
7.2.3练习题 135
7.3实例31:利用全连接网络将图片进行分类 136
7.4全连接网络训练中的优化技巧 137
7.4.1实例32:利用异或数据集演示过拟合问题 138
7.4.2正则化 143
7.4.3实例33:通过正则化改善过拟合情况 144
7.4.4实例34:通过增大数据集改善过拟合 145
7.4.5练习题 146
7.4.6 dropout——训练过程中,将部分神经单元暂时丢弃 146
7.4.7实例35:为异或数据集模型添加dropout 147
7.4.8实例36:基于退化学习率dropout技术来拟合异或数据集 149
7.4.9全连接网络的深浅关系 150
7.5练习题 150
第8章 卷积神经网络——解决参数太多问题 151
8.1全连接网络的局限性 151
8.2理解卷积神经网络 152
8.3网络结构 153
8.3.1网络结构描述 153
8.3.2卷积操作 155
8.3.3池化层 157
8.4卷积神经网络的相关函数 158
8.4.1卷积函数tf.nn.conv2d 158
8.4.2 padding规则介绍 159
8.4.3实例37:卷积函数的使用 160
8.4.4实例38:使用卷积提取图片的轮廓 165
8.4.5池化函数tf nn.max_pool (avg_pool) 167
8.4.6实例39:池化函数的使用 167
8.5使用卷积神经网络对图片分类 170
8.5.1 CIFAR介绍 171
8.5.2下载CIFAR数据 172
8.5.3实例40:导入并显示CIFAR数据集 173
8.5.4实例41:显示CIFAR数据集的原始图片 174
8.5.5 cifar10_nput的其他功能 176
8.5.6在TensorFlow中使用queue 176
8.5.7实例42:协调器的用法演示 178
8.5.8实例43:为session中的队列加上协调器 179
8.5.9实例44:建立一个带有全局平均池化层的卷积神经网络 180
8.5.10练习题 183
8.6反卷积神经网络 183
8.6.1反卷积神经网络的应用场景 184
8.6.2反卷积原理 184
8.6.3实例45:演示反卷积的操作 185
8.6.4反池化原理 188
8.6.5实例46:演示反池化的操作 189
8.6.6实例47:演示gradients基本用法 192
8.6.7实例48:使用gradients对多个式子求多变量偏导 192
8.6.8实例49:演示梯度停止的实现 193
8.7实例50:用反卷积技术复原卷积网络各层图像 195
8.8善用函数封装库 198
8.8.1实例51:使用函数封装库重写CIFAR卷积网络 198
8.8.2练习题 201
8.9深度学习的模型训练技巧 201
8.9.1实例52:优化卷积核技术的演示 201
8.9.2实例53:多通道卷积技术的演示 202
8.9.3批量归一化 204
8.9.4实例54:为CIFAR图片分类模型添加BN 207
8.9.5练习题 209
第9章 循环神经网络——具有记忆功能的网络 210
9.1了解RNN的工作原理 210
9.1.1了解人的记忆原理 210
9.1.2 RNN网络的应用领域 212
9.1.3正向传播过程 212
9.1.4随时间反向传播 213
9.2简单RNN 215
9.2.1实例55:简单循环神经网络实现——裸写一个退位减法器 215
9.2.2实例56:使用RNN网络拟合回声信号序列 220
9.3循环神经网络(RNN)的改进 225
9.3.1 LSTM网络介绍 225
9.3.2窥视孔连接(Peephole) 228
9.3.3带有映射输出的STMP 230
9.3.4基于梯度剪辑的cell 230
9.3.5 GRU网络介绍 230
9.3.6 Bi-RNN网络介绍 231
9.3.7基于神经网络的时序类分类CTC 232
9.4 TensorFlow实战RNN 233
9.4.1 TensorFlow中的cell类 233
9.4.2通过cell类构建RNN 234
9.4.3实例57:构建单层LSTM网络对MNIST数据集分类 239
9.4.4实例58:构建单层GRU网络对MNIST数据集分类 240
9.4.5实例59:创建动态单层RNN网络对MNIST数据集分类 240
9.4.6 实例60:静态多层LSTM对MNIST数据集分类 241
9.4.7实例61:静态多层RNN-LSTM连接GRU对MNIST数据集分类 242
9.4.8实例62:动态多层RNN对MNIST数据集分类 242
9.4.9练习题 243
9.4.10实例63:构建单层动态双向RNN对MNIST数据集分类 243
9.4.11实例64:构建单层静态双向RNN对MNIST数据集分类 244
9.4.12实例65:构建多层双向RNN对MNIST数据集分类 246
9.4.13实例66:构建动态多层双向RNN对MNIST数据集分类 247
9.4.14初始化RNN 247
9.4.15 优化RNN 248
9.4.16实例67:在GRUCell中实现LN 249
9.4.17 CTC网络的loss—— ctc loss 251
9.4.18 CTCdecoder 254
9.5实例68:利用BiRNN实现语音识别 255
9.5.1语音识别背景 255
9.5.2获取并整理样本 256
9.5.3训练模型 265
9.5.4练习题 272
9.6实例69:利用RNN训练语言模型 273
9.6.1准备样本 273
9.6.2构建模型 275
9.7语言模型的系统学习 279
9.7.1统计语言模型 279
9.7.2词向量 279
9.7.3 word2vec 281
9.7.4实例70:用CBOW模型训练自己的word2vec 283
9.7.5实例71:使用指定侯选采样本训练word2vec 293
9.7.6练习题 296
9.8处理Seq2Seq任务 296
9.8.1 Seq2Seq任务介绍 296
9.8.2 Encoder-Decoder框架 297
9.8.3实例72:使用basic_ rnn seq2seq拟合曲线 298
9.8.4实例73:预测当天的股票价格 306
9.8.5基于注意力的Seq2Seq 310
9.8.6实例74:基于Seq2Seq注意力模型实现中英文机器翻译 313
9.9实例75:制作一个简单的聊天机器人 339
9.9.1构建项目框架 340
9.9.2准备聊天样本 340
9.9.3预处理样本 340
9.9.4训练样本 341
9.9.5测试模型 342
9.10时间序列的高级接口TFTS 344
第10章 自编码网络——能够自学习样本特征的网络 346
10.1自编码网络介绍及应用 346
10.2最简单的自编码网络 347
10.3自编码网络的代码实现 347
10.3.1实例76:提取图片的特征,并利用特征还原图片 347
10.3.2线性解码器 351
10.3.3实例77:提取图片的二维特征,并利用二维特征还原图片 351
10.3.4实例78:实现卷积网络的自编码 356
10.3.5练习题 358
10.4去噪自编码 359
10.5去噪自编码网络的代码实现 359
10.5.1实例79:使用去噪自编码网络提取MNIST特征 359
10.5.2练习题 363
10.6栈式自编码 364
10.6.1栈式自编码介绍 364
10.6.2栈式自编码在深度学习中的意义 365
10.7深度学习中自编码的常用方法 366
10.7.1代替和级联 366
10.7.2自编码的应用场景 366
10.8去噪自编码与栈式自编码的综合实现 366
10.8.1实例80:实现去噪自编码 367
10.8.2实例81:添加模型存储支持分布训练 375
10.8.3小心分布训练中的“坑” 376
10.8.4练习题 377
10.9变分自编码 377
10.9.1什么是变分自编码 377
10.9.2实例82:使用变分自编码模拟生成MNIST数据 377
10.9.3练习题 384
10.10条件变分自编码 385
10.10.1什么是条件变分自编码 385
10.10.2实例83:使用标签指导变分自编码网络生成MNIST数据 385
第3篇 深度学习进阶 392
第11章 深度神经网络 392
11.1深度神经网络介绍 392
11.1.1深度神经网络起源 392
11.1.2经典模型的特点介绍 393
11.2 GoogLeNet模型介绍 394
11.2.1 MLP卷积层 394
11.2.2全局均值池化 395
11.2.3 Inception原始模型 396
11.2.4 Inception v1模型 396
11.2.5 Inception v2模型 397
11.2.6 Inception v3模型 397
11.2.7 Inception v4模型 399
11.3残差网络(ResNet) 399
11.3.1残差网络结构 399
11.3.2残差网络原理 400
11.4 Inception-ResNet-v2结构 400
11.5 TensorFlow中的图片分类模型库——slim 400
11.5.1获取models中的slim模块代码 401
11.5.2 models中的Slim目录结构 401
11.5.3 slim中的数据集处理 403
11.5.4实例84:利用slim读取TFRecord中的数据 405
11.5.5在slim中训练模型 407
11.6使用slim中的深度网络模型进行图像的识别与检测 410
11.6.1实例85:调用Inception ResNet v2模型进行图像识别 410
11.6.2实例86:调用VGG模型进行图像检测 413
11.7实物检测模型库——Object Detection API 417
11.7.1准备工作 418
11.7.2实例87:调用Object Detection API进行实物检测 421
11.8实物检测领域的相关模型 425
11.8.1 RCNN基于卷积神经网络特征的区域方法 426
11.8.2 SPP-Net:基于空间金字塔池化的优化RCNN方法 426
11.8.3 Fast-R-CNN快速的RCNN模型 426
11.8.4 YOLO:能够一次性预测多个位置和类别的模型 427
11.8.5 SSD:比YOLO更快更准的模型 428
11.8.6 YOLO2: YOLO的升级版模型 428
11.9机器自己设计的模型(NASNet) 428
第12章 对抗神经网络(GAN) 430
12.1 GAN的理论知识 430
12.1.1生成式模型的应用 431
12.1.2 GAN的训练方法 431
12.2 DCGAN——基于深度卷积的GAN 432
12.3 InfoGAN和ACGAN:指定类别生成模拟样本的GAN 432
12.3.1 InfoGAN:带有隐含信息的GAN 432
12.3.2 AC-GAN:带有辅助分类信息的GAN 433
12.3.3实例88:构建InfoGAN生成MNIST模拟数据 434
12.3.4练习题 440
12.4 AEGAN:基于自编码器的GAN 441
12.4.1 AEGAN原理及用途介绍 441
12.4.2实例89:使用AEGAN对MNIST数据集压缩特征及重建 442
12.5 WGAN-GP:更容易训练的GAN 447
12.5.1 WGAN:基于推土机距离原理的GAN 448
12.5.2 WGAN-GP:带梯度惩罚项的WGAN 449
12.5.3实例90:构建WGAN-GP生成MNIST数据集 451
12.5.4练习题 455
12.6 LSGAN(最小乘二GAN):具有WGAN同样效果的GAN 455
12.6.1 LSGAN介绍 455
12.6.2实例91:构建LSGAN生成MNIST模拟数据 456
12.7 GAN-cls:具有匹配感知的判别器 457
12.7.1 GAN-cls的具体实现 458
12.7.2实例92:使用GAN-cls技术实现生成标签匹配的模拟数据 458
12.8 SRGAN——适用于超分辨率重建的GAN 461
12.8.1超分辨率技术 461
12.8.2实例93: ESPCN实现MNIST数据集的超分辨率重建 463
12.8.3实例94: ESPCN实现flowers数据集的超分辨率重建 466
12.8.4实例95:使用残差网络的ESPCN 472
12.8.5 SRGAN的原理 477
12.8.6实例96:使用SRGAN实现 flowers数据集的超分辨率修复 477
12.9 GAN网络的高级接口TFGAN 485
12.10总结 486