《深度学习图解》PDF下载

  • 购买积分:11 如何计算积分?
  • 作  者:(美)安德鲁·特拉斯克(Andrew W. Trask)著;王晓雷
  • 出 版 社:北京:清华大学出版社
  • 出版年份:2020
  • ISBN:9787302540991
  • 页数:270 页
图书介绍:

第1章 深度学习简介:为什么应该学习深度学习 1

1.1欢迎阅读《深度学习图解》 1

1.2为什么要学习深度学习 2

1.3这很难学吗? 3

1.4为什么要阅读本书 3

1.5准备工作 4

1.6你可能需要掌握一部分Python知识 5

1.7本章小结 6

第2章 基本概念:机器该如何学习? 7

2.1什么是深度学习? 7

2.2什么是机器学习? 8

2.3监督机器学习 9

2.4无监督机器学习 10

2.5参数学习和非参数学习 10

2.6监督参数学习 11

2.7无监督参数学习 13

2.8非参数学习 14

2.9本章小结 15

第3章 神经网络预测导论:前向传播 17

3.1什么是预测 17

3.2能够进行预测的简单神经网络 19

3.3什么是神经网络? 20

3.4这个神经网络做了什么? 21

3.5使用多个输入进行预测 23

3.6多个输入:这个神经网络做了什么? 24

3.7多个输入:完整的可运行代码 29

3.8预测多个输出 30

3.9使用多个输入和输出进行预测 32

3.10多输入多输出神经网络的工作原理 33

3.11用预测结果进一步预测 35

3.12 NumPy快速入门 37

3.13本章小结 40

第4章 神经网络学习导论:梯度下降 41

4.1预测、比较和学习 41

4.2什么是比较 42

4.3学习 42

4.4比较:你的神经网络是否做出了好的预测? 43

4.5为什么需要测量误差? 44

4.6最简单的神经学习形式是什么? 45

4.7冷热学习 46

4.8冷热学习的特点 47

4.9基于误差调节权重 48

4.10梯度下降的一次迭代 50

4.11学习就是减少误差 52

4.12回顾学习的步骤 54

4.13权重增量到底是什么? 55

4.14狭隘的观点 57

4.15 插着小棍的盒子 58

4.16导数:两种方式 59

4.17你真正需要知道的 60

4.18你不需要知道的 60

4.19如何使用导数来学习 61

4.20看起来熟悉吗? 62

4.21破坏梯度下降 63

4.22过度修正的可视化 64

4.23发散 65

4.24引入α 66

4.25在代码中实现α 66

4.26记忆背诵 67

第5章 通用梯度下降:一次学习多个权重 69

5.1多输入梯度下降学习 69

5.2多输入梯度下降详解 71

5.3回顾学习的步骤 75

5.4单项权重冻结:它有什么作用? 77

5.5具有多个输出的梯度下降学习 79

5.6具有多个输入和输出的梯度下降 81

5.7这些权重学到了什么? 83

5.8权重可视化 85

5.9点积(加权和)可视化 86

5.10本章小结 87

第6章 建立你的第一个深度神经网络:反向传播 89

6.1交通信号灯问题 89

6.2准备数据 91

6.3矩阵和矩阵关系 92

6.4使用Python创建矩阵 95

6.5建立神经网络 96

6.6学习整个数据集 97

6.7完全、批量和随机梯度下降 97

6.8神经网络对相关性的学习 98

6.9向上与向下的压力 99

6.10边界情况:过拟合 101

6.11边界情况:压力冲突 101

6.12学习间接相关性 103

6.13创建关联 104

6.14堆叠神经网络:回顾 105

6.15 反向传播:远程错误归因 106

6.16反向传播:为什么有效? 107

6.17线性与非线性 107

6.18为什么神经网络仍然不起作用 109

6.19选择性相关的秘密 110

6.20快速冲刺 111

6.21你的第一个深度神经网络 111

6.22反向传播的代码 112

6.23反向传播的一次迭代 114

6.24整合代码 116

6.25为什么深度网络这么重要? 117

第7章 如何描绘神经网络:在脑海里,在白纸上 119

7.1到了简化的时候了 119

7.2关联抽象 120

7.3旧的可视化方法过于复杂 121

7.4简化版可视化 122

7.5进一步简化 123

7.6观察神经网络是如何进行预测的 124

7.7用字母而不是图片来进行可视化 125

7.8连接变量 126

7.9信息整合 127

7.10可视化工具的重要性 127

第8章 学习信号,忽略噪声:正则化和批处理介绍 129

8.1用在MNIST上的三层网络 129

8.2好吧,这很简单 131

8.3记忆与泛化 132

8.4神经网络中的过拟合 133

8.5过拟合从何而来 134

8.6最简单的正则化:提前停止 135

8.7行业标准正则化:dropout 136

8.8为什么dropout有效:整合是有效的 137

8.9 dropout的代码 137

8.10在MNIST数据集上对dropout进行测试 139

8.11批量梯度下降 140

8.12本章小结 143

第9章 概率和非线性建模:激活函数 145

9.1什么是激活函数? 145

9.2标准隐藏层激活函数 148

9.3标准输出层激活函数 149

9.4核心问题:输入具有相似性 151

9.5计算softmax 152

9.6激活函数使用说明 153

9.7将增量与斜率相乘 156

9.8将输出转换为斜率(导数) 157

9.9升级MNIST网络 157

第10章 卷积神经网络概论:关于边与角的神经学习 161

10.1在多个位置复用权重 161

10.2卷积层 162

10.3基于NumPy的简单实现 164

10.4本章小结 167

第11章 能够理解自然语言的神经网络:国王-男人+女人=? 169

11.1理解语言究竟是指什么? 170

11.2自然语言处理(NLP) 170

11.3监督NLP学习 171

11.4 IMDB电影评论数据集 172

11.5在输入数据中提取单词相关性 173

11.6对影评进行预测 174

11.7引入嵌入层 175

11.8解释输出 177

11.9神经网络结构 178

11.10单词嵌入表达的对比 180

11.11神经元是什么意思? 181

11.12完形填空 182

11.13损失函数的意义 183

11.14国王-男人+女人~=女王 186

11.15单词类比 187

11.16本章小结 188

第12章 像莎士比亚一样写作的神经网络:变长数据的递归层 189

12.1任意长度的挑战 189

12.2做比较真的重要吗? 190

12.3平均词向量的神奇力量 191

12.4信息是如何存储在这些向量嵌入中的? 192

12.5神经网络是如何使用嵌入的? 193

12.6词袋向量的局限 194

12.7用单位向量求词嵌入之和 195

12.8不改变任何东西的矩阵 196

12.9学习转移矩阵 197

12.10学习创建有用的句子向量 198

12.11 Python下的前向传播 199

12.12如何反向传播? 200

12.13让我们训练它! 201

12.14进行设置 201

12.15 任意长度的前向传播 202

12.16任意长度的反向传播 203

12.17任意长度的权重更新 204

12.18运行代码,并分析输出 205

12.19本章小结 207

第13章 介绍自动优化:搭建深度学习框架 209

13.1深度学习框架是什么? 209

13.2张量介绍 210

13.3自动梯度计算(autograd)介绍 211

13.4快速检查 213

13.5多次使用的张量 214

13.6升级autograd以支持多次使用的张量 215

13.7加法的反向传播如何工作? 217

13.8增加取负值操作的支持 218

13.9添加更多函数的支持 219

13.10使用autograd 训练神经网络 222

13.11增加自动优化 224

13.12添加神经元层类型的支持 225

13.13包含神经元层的神经元层 226

13.14损失函数层 227

13.15 如何学习一个框架 228

13.16非线性层 228

13.17嵌入层 230

13.18将下标操作添加到autograd 231

13.19再看嵌入层 232

13.20交叉熵层 233

13.21递归神经网络层 235

13.22本章小结 238

第14章 像莎士比亚一样写作:长短期记忆网络 239

14.1字符语言建模 239

14.2截断式反向传播的必要性 240

14.3截断式反向传播 241

14.4输出样例 244

14.5梯度消失与梯度激增 245

14.6 RNN反向传播的小例子 246

14.7长短期记忆(LSTM)元胞 247

14.8关于LSTM门限的直观理解 248

14.9长短期记忆层 249

14.10升级字符语言模型 250

14.11 训练LSTM字符语言模型 251

14.12调优LSTM字符语言模型 252

14.13本章小结 253

第15章 在看不见的数据上做深度学习:联邦学习导论 255

15.1深度学习的隐私问题 255

15.2联邦学习 256

15.3学习检测垃圾邮件 257

15.4让我们把它联邦化 259

15.5深入联邦学习 260

15.6安全聚合 261

15.7同态加密 262

15.8同态加密联邦学习 263

15.9本章小结 264

第16章 往哪里去:简要指引 265