第1章 一个简单的机器学习任务 1
1.1 训练集和分类器 2
1.2 一点题外话:爬山搜索 5
1.3 机器学习中的爬山法 9
1.4 分类器的性能 12
1.5 可用数据的困难 14
1.6 总结和历史简评 16
1.7 巩固你的知识 17
第2章 概率:贝叶斯分类器 21
2.1 单属性的情况 22
2.2 离散属性值的向量 26
2.3 稀少事件的概率:利用专家的直觉 30
2.4 如何处理连续属性 32
2.5 高斯钟形函数:一个标准的概率密度函数 36
2.6 用高斯函数的集合近似概率密度函数 37
2.7 总结和历史简评 42
2.8 巩固你的知识 43
第3章 相似性:最近邻分类器 47
3.1 k近邻法则 48
3.2 度量相似性 51
3.3 不相关属性与尺度缩放问题 54
3.4 性能方面的考虑 57
3.5 加权最近邻 60
3.6 移除危险的样例 62
3.7 移除多余的样例 64
3.8 总结和历史简评 66
3.9 巩固你的知识 67
第4章 类间边界:线性和多项式分类器 71
4.1 本质 72
4.2 加法规则:感知机学习 75
4.3 乘法规则:WINNOW 81
4.4 多于两个类的域 84
4.5 多项式分类器 86
4.6 多项式分类器的特殊方面 89
4.7 数值域和支持向量机 91
4.8 总结和历史简评 94
4.9 巩固你的知识 95
第5章 人工神经网络 99
5.1 作为分类器的多层感知机 100
5.2 神经网络的误差 103
5.3 误差的反向传播 105
5.4 多层感知机的特殊方面 110
5.5 结构问题 113
5.6 径向基函数网络 115
5.7 总结和历史简评 117
5.8 巩固你的知识 119
第6章 决策树 121
6.1 作为分类器的决策树 122
6.2 决策树的归纳学习 126
6.3 一个属性承载了多少信息 129
6.4 数值属性的二元划分 133
6.5 剪枝 135
6.6 将决策树转换为规则 140
6.7 总结和历史简评 143
6.8 巩固你的知识 144
第7章 计算学习理论 147
7.1 PAC学习 148
7.2 PAC可学习性的实例 151
7.3 一些实践和理论结果 154
7.4 VC维与可学习性 156
7.5 总结和历史简评 159
7.6 巩固你的知识 160
第8章 几个有帮助的案例 163
8.1 字符识别 164
8.2 溢油检测 168
8.3 睡眠分类 172
8.4 脑机界面 175
8.5 医疗诊断 178
8.6 文本分类 181
8.7 总结和历史简评 183
8.8 巩固你的知识 184
第9章 投票组合简介 187
9.1 “装袋”方法(Bagging) 188
9.2 夏皮尔提升(Schapire's Boosting) 190
9.3 Adaboost——Boosting的实用版本 194
9.4 Boosting方法的变种 198
9.5 Boosting方法的计算优势 200
9.6 总结和历史简评 202
9.7 巩固你的知识 203
第10章 了解一些实践知识 207
10.1 学习器的偏好 208
10.2 不平衡训练集 211
10.3 语境相关域 215
10.4 未知属性值 219
10.5 属性选择 221
10.6 杂项 223
10.7 总结和历史简评 226
10.8 巩固你的知识 227
第11章 性能评估 231
11.1 基本性能标准 232
11.2 精度和查全率 235
11.3 测量性能的其他方法 240
11.4 多标签域内的性能 243
11.5 学习曲线和计算开销 244
11.6 实验评估的方法 246
11.7 总结和历史简评 249
11.8 巩固你的知识 250
第12章 统计显著性 253
12.1 总体抽样 254
12.2 从正态分布中获益 258
12.3 置信区间 261
12.4 一个分类器的统计评价 264
12.5 另外一种统计评价 266
12.6 机器学习技术的比较 268
12.7 总结和历史简评 270
12.8 巩固你的知识 271
第13章 遗传算法 273
13.1 基本遗传算法 274
13.2 单个模块的实现 276
13.3 为什么能起作用 279
13.4 过早退化的危险 282
13.5 其他遗传算子 284
13.6 高级版本 286
13.7 k-NN分类器的选择 289
13.8 总结和历史简评 292
13.9 巩固你的知识 292
第14章 增强学习 295
14.1 如何选出最高奖励的动作 296
14.2 游戏的状态和动作 299
14.3 SARSA方法 302
14.4 总结和历史简评 303
14.5 巩固你的知识 303
参考文献 305