第一部分 人工智能的历史渊源及研究范围 3
第1章 人工智能的历史及应用 3
1.1从伊甸园到第一台电子计算机:对智能、知识和人类技能的态度 3
1.1.1人工智能基础的简要历史 4
1.1.2理性主义和经验主义学派对人工智能的影响 6
1.1.3形式逻辑的发展 7
1.1.4图灵测试 9
1.1.5智能的生物和社会模型:主体理论 11
1.2人工智能应用领域概述 14
1.2.1博弈 15
1.2.2自动推理和定理证明 15
1.2.3专家系统 16
1.2.4自然语言理解和语义学 17
1.2.5对人类表现建模 18
1.2.6规划和机器人学 18
1.2.7人工智能的语言和环境 19
1.2.8机器学习 20
1.2.9其他表示:神经网络和遗传算法 20
1.2.10 AI和哲学 21
1.3人工智能小结 22
1.4结语和参考文献 22
1.5习题 23
第二部分 作为表示和搜索的人工智能 32
第2章 谓词演算 32
2.0简介 32
2.1命题演算(选读) 32
2.1.1符号和语句 32
2.1.2命题演算的语义 33
2.2.谓词演算 35
2.2.1谓词的语法和语句 35
2.2.2谓词演算的语义 39
2.2.3语义含义的积木世界例子 42
2.3使用推理规则产生谓词演算表达式 43
2.3.1推理规则 43
2.3.2合一算法 45
2.3.3合一的例子 48
2.4应用:一个基于逻辑的财务顾问 50
2.5结语和参考文献 53
2.6习题 54
第3章 状态空间搜索的结构和策略 56
3.0简介 56
3.1状态空间搜索的结构 58
3.1.1图论(选读) 58
3.1.2有限状态自动机(选读) 60
3.1.3问题的状态空间表示 61
3.2用于状态空间搜索的策略 65
3.2.1数据驱动搜索和目标驱动搜索 65
3.2.2图搜索的实现 67
3.2.3深度优先搜索和宽度优先搜索 69
3.2.4迭代加深的深度优先搜索 74
3.3利用状态空间来表示命题演算和谓词演算的推理 75
3.3.1逻辑系统的状态空间描述 75
3.3.2与或图 76
3.3.3进一步的例子和应用 77
3.4结语和参考文献 84
3.5习题 85
第4章 启发式搜索 86
4.0简介 86
4.1爬山法和动态规划法 89
4.1.1爬山 89
4.1.2动态规划 90
4.2最佳优先搜索算法 92
4.2.1实现最佳优先搜索 92
4.2.2实现启发评估函数 95
4.2.3启发式搜索和专家系统 100
4.3可采纳性、单调性和信息度 101
4.3.1可采纳性度量 101
4.3.2单调性 102
4.3.3信息度更高的启发是更好的启发 103
4.4在博弈中使用启发 104
4.4.1在可穷举搜索图上的极小极大过程 104
4.4.2固定层深的极小极大过程 106
4.4.3 α-β过程 108
4.5复杂度问题 111
4.6结语和参考文献 113
4.7习题 113
第5章 随机方法 116
5.0简介 116
5.1计数基础(选读) 117
5.1.1加法和乘法规则 117
5.1.2排列与组合 118
5.2概率论基础 119
5.2.1样本空间、概率和独立性 120
5.2.2概率推理:一个道路/交通例子 122
5.2.3随机变量 123
5.2.4条件概率 125
5.3贝叶斯定理 127
5.4随机方法学的应用 130
5.4.1 “tomato”是如何发音的 130
5.4.2道路/交通例子的扩展 132
5.5结语和参考文献 133
5.6习题 134
第6章 为状态空间搜索建立控制算法 136
6.0简介 136
6.1基于递归的搜索(选读) 137
6.1.1递归 137
6.1.2一个递归搜索的例子:模式驱动推理 138
6.2产生式系统 141
6.2.1定义和历史 141
6.2.2产生式系统的例子 143
6.2.3产生式系统中的搜索控制 148
6.2.4 AI产生式系统的优点 152
6.3用于问题求解的黑板结构 153
6.4结语和参考文献 155
6.5习题 155
第三部分 捕获智能:AI中的挑战 160
第7章 知识表示 160
7.0知识表示问题 160
7.1 AI表示模式的简要历史 161
7.1.1语义关联理论 161
7.1.2语义网的早期研究 163
7.1.3网络关系的标准化 165
7.1.4脚本 169
7.1.5框架 172
7.2概念图:网络语言 175
7.2.1概念图简介 175
7.2.2类型、个体和名字 176
7.2.3类型层次 178
7.2.4泛化和特化 178
7.2.5命题结点 181
7.2.6概念图和逻辑 181
7.3其他表示方法和本体 182
7.3.1 Brooks的包容结构 183
7.3.2 Copycat结构 184
7.3.3多种表示、本体和知识服务 186
7.4基于主体的和分布式的问题求解方法 187
7.4.1基于主体的定义 187
7.4.2基于主体的应用 189
7.5结语和参考文献 190
7.6习题 192
第8章 求解问题的强方法 195
8.0简介 195
8.1专家系统技术概览 196
8.1.1基于规则的专家系统设计 196
8.1.2问题选择和知识工程的步骤 197
8.1.3概念模型及其在知识获取中的作用 199
8.2基于规则的专家系统 201
8.2.1产生式系统和目标驱动问题求解 201
8.2.2目标驱动推理中的解释和透明性 204
8.2.3利用产生式系统进行数据驱动推理 205
8.2.4专家系统的启发和控制 207
8.3基于模型系统、基于案例系统和混合系统 209
8.3.1基于模型推理简介 209
8.3.2基于模型推理:来自NASA的例子 211
8.3.3基于案例推理介绍 213
8.3.4混合设计:强方法系统的优势和不足 217
8.4规划 219
8.4.1规划简介:机器人学 219
8.4.2使用规划宏:STRIPS 223
8.4.3 teleo-reactive规划 226
8.4.4规划:来自NASA的例子 227
8.5结语和参考文献 230
8.6习题 231
第9章 不确定条件下的推理 233
9.0简介 233
9.1基于逻辑的反绎推理 234
9.1.1非单调推理逻辑 234
9.1.2真值维护系统 237
9.1.3基于最小模型的逻辑 241
9.1.4集合覆盖和基于逻辑的反绎 242
9.2反绎:逻辑之外的办法 244
9.2.1 Stanford确信度代数 244
9.2.2模糊集推理 246
9.2.3 Dempster-Shafer证据理论 249
9.3处理不确定性的随机方法 253
9.3.1有向图模型:贝叶斯信念网络 254
9.3.2有向图模型:d-可分 255
9.3.3有向图模型:一个推理算法 256
9.3.4有向图模型:动态贝叶斯网络 258
9.3.5马尔可夫模型:离散马尔可夫过程 259
9.3.6马尔可夫模型:变形 261
9.3.7 BBN概率建模的一阶替代方案 262
9.4结语和参考文献 263
9.5习题 265
第四部分 机器学习 269
第10章 基于符号的机器学习 269
10.0简介 269
10.1基于符号学习的框架 271
10.2变形空间搜索 275
10.2.1泛化操作符和概念空间 275
10.2.2候选解排除算法 276
10.2.3 LEX:启发式归纳搜索 281
10.2.4评估候选解排除算法 283
10.3 ID3决策树归纳算法 284
10.3.1自顶向下决策树归纳 286
10.3.2测试选择的信息论方法 287
10.3.3评价ID3 289
10.3.4决策树数据问题:打包、推进 290
10.4归纳偏置和学习能力 290
10.4.1归纳偏置 290
10.4.2可学习性理论 292
10.5知识和学习 293
10.5.1 Meta-DENDRAL 294
10.5.2基于解释的学习 295
10.5.3 EBL和知识层学习 298
10.5.4类比推理 298
10.6无监督学习 300
10.6.1发现和无监督学习 301
10.6.2概念聚类 302
10.6.3 COBWEB和分类知识的结构 303
10.7强化学习 307
10.7.1强化学习的组成部分 307
10.7.2一个例子:九宫游戏 308
10.7.3强化学习的推理算法和应用 310
10.8结语和参考文献 312
10.9习题 313
第11章 机器学习:连接机制 315
11.0简介 315
11.1连接网络的基础 316
11.2感知机学习 318
11.2.1感知机训练算法 318
11.2.2例子:用感知机网络进行分类 319
11.2.3通用delta规则 322
11.3反传学习 324
11.3.1反传算法的起源 324
11.3.2反传算法实例1: NETtalk 327
11.3.3反传算法实例2:异或 328
11.4竞争学习 329
11.4.1对于分类的“胜者全拿”学习 329
11.4.2学习原型的Kohonen网络 330
11.4.3 outstar网络和逆传 332
11.4.4支持向量机 334
11.5 Hebbian一致性学习 336
11.5.1概述 336
11.5.2无监督Hebbian学习的例子 336
11.5.3有监督Hebbian学习 339
11.5.4联想记忆和线性联想器 340
11.6吸引子网络或“记忆” 342
11.6.1概述 342
11.6.2双向联想记忆 343
11.6.3 BAM处理的例子 345
11.6.4自相关记忆和Hopfield网络 347
11.7结语和参考文献 350
11.8习题 350
第12章 机器学习:遗传性和涌现性 352
12.0社会性和涌现性的学习模型 352
12.1遗传算法 353
12.1.1两个例子:CNF可满足性问题和巡回推销员问题 355
12.1.2遗传算法的评估 357
12.2分类器系统和遗传程序设计 360
12.2.1分类器系统 360
12.2.2用遗传算子进行程序设计 364
12.3人工生命和基于社会的学习 367
12.3.1生命游戏 368
12.3.2进化规划 370
12.3.3涌现的实例研究 371
12.4结语和参考文献 374
12.5习题 375
第13章 机器学习:概率理论 377
13.0学习中的随机模型和动态模型 377
13.1隐马尔可夫模型(HMM) 377
13.1.1隐马尔可夫模型的介绍和定义 377
13.1.2隐马尔可夫模型的重要变形 379
13.1.3使用HMM和Viterbi解码音素串 382
13.2动态贝叶斯网络和学习 384
13.2.1动态贝叶斯网络 385
13.2.2学习贝叶斯网络 385
13.2.3期望最大化:一个例子 388
13.3强化学习的随机扩展 390
13.3.1马尔可夫决策过程 391
13.3.2部分可观测的马尔可夫决策过程 392
13.3.3马尔可夫决策过程实现的例子 392
13.4结语和参考文献 394
13.5习题 395
第五部分 人工智能问题求解的高级课题 398
第14章 自动推理 398
14.0定理证明中的弱方法 398
14.1通用问题求解器和差别表 399
14.2归结定理证明 403
14.2.1概述 403
14.2.2为归结反驳生成子句形式 405
14.2.3二元归结证明过程 408
14.2.4归结策略和简化技术 412
14.2.5从归结反驳中抽取解答 415
14.3 Prolog和自动推理 417
14.3.1概述 417
14.3.2逻辑程序设计和Prolog 418
14.4自动推理进一步的问题 422
14.4.1弱方法求解的统一表示法 422
14.4.2可选推理规则 424
14.4.3归结反驳支持下的问答机制 426
14.4.4搜索策略及其使用 426
14.5结语和参考文献 427
14.6习题 427
第15章 自然语言理解 429
15.0自然语言理解问题 429
15.1解构语言:分析 431
15.2语法 433
15.2.1使用上下文无关文法说明和解析 433
15.2.2 Earley解析器:动态规划二次访问 434
15.3转移网络解析器及语义学 438
15.3.1转移网络解析器 439
15.3.2乔姆斯基层次和上下文相关文法 442
15.3.3 ATN解析器的语义 444
15.3.4结合句法和语义知识的ATN 447
15.4语言理解的随机工具 451
15.4.1概述:语言分析中的统计技术 451
15.4.2马尔可夫模型方法 452
15.4.3决策树方法 453
15.4.4解析的概率方法 454
15.4.5概率上下文无关解析器 456
15.5自然语言应用 457
15.5.1故事理解和问题解答 457
15.5.2数据库前端 458
15.5.3 Web信息抽取和摘要系统 460
15.5.4用学习算法来泛化抽取的信息 462
15.6结语和参考文献 463
15.7习题 464
第六部分 后记 469
第16章 人工智能是经验式的学科 469
16.0简介 469
16.1人工智能:修订的定义 470
16.1.1人工智能和物理符号系统假设 470
16.1.2连接或者“神经”计算 474
16.1.3主体、涌现和智能 476
16.1.4概率模型和随机技术 478
16.2智能系统科学 480
16.2.1心理学约束 480
16.2.2认识论问题 481
16.3人工智能:当前的挑战和未来的方向 487
16.4结语和参考文献 490