《TENSORFLOW 2.0深度学习从零开始学》PDF下载

  • 购买积分:20 如何计算积分?
  • 作  者:王晓华著
  • 出 版 社:
  • 出版年份:2020
  • ISBN:
  • 页数:0 页
图书介绍:

第1章 TensorFlow 2.0的安装 1

1.1 Python基本安装和用法 1

1.1.1 Anaconda的下载与安装 1

1.1.2 Python编译器PyCharm的安装 4

1.1.3 使用Python计算softmax函数 7

1.2 TensorFlow 2.0 GPU版本的安装 8

1.2.1 检测Anaconda中的TensorFlow版本 8

1.2.2 TensorFlow 2.0 GPU版本基础显卡推荐和前置软件安装 9

1.3 Hello TensorFlow 2.0 12

1.4 本章小结 13

第2章 TensorFlow 2.0令人期待的变化 14

2.1 新的架构、新的运行、新的开始 14

2.1.1 API精简 15

2.1.2 EagerExecution 15

2.1.3 取消全局变量 15

2.1.4 使用函数而不是会话 15

2.1.5 弃用collection 16

2.2 配角转成主角:从TensorFlow Eager Execution转正谈起 16

2.2.1 Eager简介与调用 17

2.2.2 读取数据 18

2.3 使用TensorFlow 2.0模式进行线性回归的一个简单例子 20

2.3.1 模型的工具与数据的生成 20

2.3.2 模型的定义 20

2.3.3 损失函数的定义 21

2.3.4 梯度函数的更新计算 21

2.4 TensorFlow 2.0进阶——AutoGraph和tf.function 23

2.5 本章小结 26

第3章 TensorFlow和Keras 27

3.1 模型!模型!模型!还是模型 27

3.2 使用Keras API实现鸢尾花分类的例子(顺序模式) 28

3.2.1 数据的准备 29

3.2.2 数据的处理 30

3.2.3 梯度更新函数的写法 31

3.2.4 使用Keras函数式编程实现鸢尾花分类的例子(重点) 32

3.2.5 使用保存的Keras模式对模型进行复用 35

3.2.6 使用TensorFlow 2.0标准化编译对iris模型进行拟合 35

3.3 多输入单一输出TensorFlow 2.0编译方法(选学) 40

3.3.1 数据的获取与处理 40

3.3.2 模型的建立 41

3.3.3 数据的组合 41

3.4 多输入多输出TensorFlow 2.0编译方法(选学) 44

3.5 全连接层详解 46

3.5.1 全连接层的定义与实现 46

3.5.2 使用TensorFlow 2.0自带的API实现全连接层 47

3.5.3 打印显示TensorFlow 2.0设计的模型结构和参数 51

3.6 本章小结 53

第4章 TensorFlow 2.0语法基础 54

4.1 BP神经网络简介 54

4.2 BP神经网络的两个基础算法 58

4.2.1 最小二乘法(LS算法) 58

4.2.2 道士下山的故事——梯度下降算法 61

4.3 反馈神经网络反向传播算法 63

4.3.1 深度学习基础 63

4.3.2 链式求导法则 64

4.3.3 反馈神经网络原理与公式推导 66

4.3.4 反馈神经网络原理的激活函数 72

4.3.5 反馈神经网络原理的Python实现 73

4.4 本章小结 78

第5章 卷积层与MNIST实战 79

5.1 卷积运算 79

5.1.1 卷积运算的基本概念 80

5.1.2 TensorFlow 2.0中卷积函数的实现 81

5.1.3 池化运算 83

5.1.4 softmax激活函数 84

5.1.5 卷积神经网络原理 86

5.2 TensorFlow 2.0编程实战:MNIST手写体识别 89

5.2.1 MNIST数据集 89

5.2.2 MNIST数据集特征和标注 91

5.2.3 TensorFlow 2.0编程实战:MNIST数据集 93

5.2.4 使用自定义的卷积层实现MNIST识别 97

5.3 本章小结 101

第6章 TensorFlow 2.0 Dataset使用详解 102

6.1 Dataset API基本结构和内容 102

6.1.1 Dataset API数据种类 103

6.1.2 Dataset API基础使用 104

6.2 Dataset API高级用法 105

6.2.1 Dataset API数据转换方法 107

6.2.2 读取图片数据集的例子 110

6.3 使用TFRecord API创建和使用数据集 111

6.3.1 TFRecord的基本概念 112

6.3.2 TFRecord的创建 113

6.3.3 TFRecord的读取 118

6.4 TFRecord实战:带有处理模型的完整例子 124

6.4.1 创建数据集 125

6.4.2 创建解析函数 125

6.4.3 创建数据模型 126

6.4.4 创建读取函数 126

6.5 本章小结 128

第7章 TersorFlow Datasets和TensorBoard详解 129

7.1 TensorFlow Datasets简介 129

7.1.1 Datasets数据集的安装 131

7.1.2 Datasets数据集的使用 131

7.2 Datasets数据集的使用——FashionMNIST 133

7.2.1 FashionMNIST数据集下载与显示 134

7.2.2 模型的建立与训练 136

7.3 使用Keras对FashionMNIST数据集进行处理 138

7.3.1 获取数据集 138

7.3.2 数据集的调整 139

7.3.3 使用Python类函数建立模型 139

7.3.4 模型的查看和参数的打印 141

7.3.5 模型的训练和评估 142

7.4 使用TensorBoard可视化训练过程 144

7.4.1 TensorBoard的文件夹设置 145

7.4.2 显式地调用TensorBoard 146

7.4.3 使用TensorBoard 148

7.5 本章小结 152

第8章 从冠军开始:ResNet 153

8.1 ResNet基础原理与程序设计基础 153

8.1.1 ResNet诞生的背景 154

8.1.2 模块工具的TensorFlow实现——不要重复发明轮子 157

8.1.3 TensorFlow高级模块layers的用法 157

8.2 ResNet实战:CIFAR-100数据集分类 165

8.2.1 CIFAR-100数据集 165

8.2.2 ResNet残差模块的实现 168

8.2.3 ResNet网络的实现 170

8.2.4 使用ResNet对CIFAR-100数据集进行分类 173

8.3 ResNet的兄弟——ResNeXt 175

8.3.1 ResNeXt诞生的背景 175

8.3.2 ResNeXt残差模块的实现 177

8.3.3 ResNeXt网络的实现 178

8.3.4 ResNeXt和ResNet的比较 180

8.4 本章小结 180

第9章 注意力机制 181

9.1 何为“注意力” 181

9.2 注意力机制的两种常见形式 182

9.2.1 Hard Attention(硬性注意力) 183

9.2.2 Soft Attention(软性注意力) 183

9.3 注意力机制的两种实现形式 183

9.3.1 Spatial Attention(空间注意力) 184

9.3.2 Channel Attention(通道注意力) 185

9.4 注意力机制的两种经典模型 186

9.4.1 最后的冠军——SENet 186

9.4.2 结合Spatial和Channel的CBAM模型 189

9.4.3 注意力的前沿研究——基于细粒度的图像注意力机制 194

9.5 本章小结 196

第10章 卷积神经网络实战:识文断字也可以 197

10.1 文本数据处理 198

10.1.1 数据集介绍和数据清洗 198

10.1.2 停用词的使用 201

10.1.3 词向量训练模型word2vec的使用 203

10.1.4 文本主题的提取:基于TF-IDF(选学) 207

10.1.5 文本主题的提取:基于TextRank(选学) 211

10.2 针对文本的卷积神经网络模型——字符卷积 214

10.2.1 字符(非单词)文本的处理 214

10.2.2 卷积神经网络文本分类模型的实现——Conv1D(一维卷积) 222

10.3 针对文本的卷积神经网络模型——词卷积 224

10.3.1 单词的文本处理 224

10.3.2 卷积神经网络文本分类模型的实现——Conv2D(二维卷积) 227

10.4 使用卷积对文本分类的补充内容 230

10.4.1 汉字的文本处理 230

10.4.2 其他的细节 233

10.5 本章小结 233