第一部分 世界中的Agent:什么是Agent及如何创建它们 2
第1章 人工智能与Agent 2
1.1 什么是人工智能 2
1.2 人工智能简史 4
1.3 环境中的Agent 6
1.4 知识表示 7
1.4.1 定义解 8
1.4.2 表示 9
1.4.3 推理与行为 10
1.5 复杂性维度 12
1.5.1 模块性 12
1.5.2 表示方案 13
1.5.3 规划期 14
1.5.4 不确定性 15
1.5.5 偏好 15
1.5.6 Agent数量 16
1.5.7 学习 16
1.5.8 计算限制 17
1.5.9 多维交互 18
1.6 原型应用 19
1.6.1 自主传送机器人 19
1.6.2 诊断助手 21
1.6.3 智能指导系统 23
1.6.4 交易Agent 24
1.7 本书概述 25
1.8 本章小结 26
1.9 参考文献及进一步阅读 26
1.10 习题 27
第2章 Agent体系结构和分层控制 28
2.1 Agent 28
2.2 Agent系统 29
2.3 分层控制 32
2.4 嵌入式和仿真Agent 37
2.5 通过推理来行动 38
2.5.1 设计时间与离线计算 39
2.5.2 在线计算 40
2.6 本章小结 41
2.7 参考文献及进一步阅读 42
2.8 习题 42
第二部分 表达和推理 46
第3章 状态和搜索 46
3.1 用搜索进行问题求解 46
3.2 状态空间 47
3.3 图搜索 48
3.4 一个通用搜索算法 50
3.5 无信息搜索策略 51
3.5.1 深度优先搜索 51
3.5.2 宽度优先搜索 55
3.5.3 最低花费优先搜索 56
3.6 启发式搜索 56
3.6.1 A搜索 58
3.6.2 搜索策略总结 59
3.7 更复杂的搜索方法 60
3.7.1 环检查 60
3.7.2 多路径剪枝 60
3.7.3 迭代深化 62
3.7.4 分支界限法 63
3.7.5 搜索方向 65
3.7.6 动态规划法 66
3.8 本章小结 68
3.9 参考文献及进一步阅读 68
3.10 习题 69
第4章 特征和约束 71
4.1 特征和状态 71
4.2 可能世界、变量和约束 72
4.2.1 约束 74
4.2.2 约束满足问题 75
4.3 生成-测试算法 76
4.4 使用搜索求解CSP 76
4.5 一致性算法 78
4.6 域分割 81
4.7 变量消除 83
4.8 局部搜索 85
4.8.1 迭代最佳改进 86
4.8.2 随机算法 87
4.8.3 评估随机算法 90
4.8.4 局部搜索中利用命题结构 92
4.9 基于种群的方法 92
4.10 最优化 94
4.10.1 最优化的系统方法 96
4.10.2 局部搜索最优化 98
4.11 本章小结 99
4.12 参考文献及进一步阅读 100
4.13 习题 100
第5章 命题和推理 103
5.1 命题 103
5.1.1 命题演算的语法 103
5.1.2 命题演算的语义 104
5.2 命题确定子句 107
5.2.1 问题与解答 109
5.2.2 验证 110
5.3 知识表示问题 115
5.3.1 背景知识与观察 115
5.3.2 询问用户 116
5.3.3 知识层的解释 117
5.3.4 知识层的调试 119
5.4 反证法验证 122
5.4.1 Horn子句 122
5.4.2 假说与冲突 123
5.4.3 基于一致性的诊断 124
5.4.4 通过假设和Horn子句推理 126
5.5 完备知识假设 127
5.5.1 非单调推理 130
5.5.2 完备知识的验证程序 130
5.6 溯因推理 132
5.7 因果模型 135
5.8 本章小结 137
5.9 参考文献及进一步阅读 137
5.10 习题 138
第6章 不确定推理 145
6.1 概率 145
6.1.1 概率的语义 146
6.1.2 概率公理 147
6.1.3 条件概率 149
6.1.4 期望值 152
6.1.5 信息理论 153
6.2 独立性 153
6.3 信念网络 155
6.4 概率推理 164
6.4.1 信念网络中的变量消除 164
6.4.2 通过随机模拟进行近似推理 169
6.5 概率和时间 176
6.5.1 马尔可夫链 176
6.5.2 隐马尔可夫模型 176
6.5.3 监听和平滑算法 179
6.5.4 动态信念网络 180
6.5.5 时间粒度 181
6.6 本章小结 181
6.7 参考文献及进一步阅读 181
6.8 习题 182
第三部分 学习与规划 186
第7章 学习概述与有监督学习 186
7.1 学习问题 186
7.2 有监督学习 189
7.2.1 评估预测 190
7.2.2 无输入特征的点估计 193
7.2.3 概率学习 195
7.3 有监督学习的基本模型 196
7.3.1 决策树学习 196
7.3.2 线性回归与分类 200
7.3.3 贝叶斯分类器 203
7.4 组合模型 206
7.4.1 神经网络 207
7.4.2 集成学习 210
7.5 避免过拟合 210
7.5.1 最大后验概率和最小描述长度 211
7.5.2 交叉验证 213
7.6 基于案例的推理 213
7.7 改进假设空间的学习 215
7.7.1 变型空间学习 216
7.7.2 可能近似正确学习 218
7.8 贝叶斯学习 220
7.9 本章小结 224
7.10 参考文献及进一步阅读 225
7.11 习题 225
第8章 确定性规划 229
8.1 状态、动作以及目标的表示 229
8.1.1 显式状态空间表示法 230
8.1.2 基于特征的动作表示 231
8.1.3 STRIPS表示法 232
8.1.4 初始状态和目标 233
8.2 前向规划 233
8.3 回归规划 235
8.4 CSP规划 236
8.5 偏序规划 238
8.6 本章小结 241
8.7 参考文献及进一步阅读 241
8.8 习题 241
第9章 不确定性规划 244
9.1 偏好和效用 245
9.2 一次性的决策 252
9.3 序贯决策 255
9.3.1 决策网络 256
9.3.2 策略 258
9.3.3 决策网络的变量消除 259
9.4 信息与控制的价值 262
9.5 决策过程 264
9.5.1 策略值 267
9.5.2 最优策略值 267
9.5.3 值迭代 268
9.5.4 策略迭代 270
9.5.5 动态决策网络 271
9.5.6 部分可观察决策过程 273
9.6 本章小结 273
9.7 参考文献及进一步阅读 274
9.8 习题 274
第10章 多Agent系统 280
10.1 多Agent框架 280
10.2 博弈的表示 281
10.2.1 博弈的标准形式 281
10.2.2 博弈的扩展形式 282
10.2.3 多Agent决策网络 283
10.3 完全信息的计算策略 284
10.4 部分可观察的多Agent推理 286
10.4.1 纳什均衡计算 290
10.4.2 学习协调 292
10.5 群体决策 294
10.6 机制设计 294
10.7 本章小结 296
10.8 参考文献及进一步阅读 297
10.9 习题 297
第11章 有监督之外的其他学习模型 298
11.1 聚类 298
11.1.1 期望最大化 298
11.1.2 k-均值 299
11.1.3 用于软聚类的期望最大化 300
11.2 信念网络学习 303
11.2.1 概率学习 303
11.2.2 未观察到的变量 304
11.2.3 缺失数据 304
11.2.4 结构学习 305
11.2.5 信念网络学习的一般情形 306
11.3 增强学习 306
11.3.1 演化算法 308
11.3.2 时间差 308
11.3.3 Q-学习 309
11.3.4 探索与利用 312
11.3.5 增强学习算法的评估 313
11.3.6 在策略学习 314
11.3.7 为路径分配信用和责任 315
11.3.8 基于模型的方法 317
11.3.9 基于特征的增强学习 319
11.4 本章小结 320
11.5 参考文献及进一步阅读 321
11.6 习题 321
第四部分 个体与关系的推理 324
第12章 个体与关系 324
12.1 在特征之外利用结构 324
12.2 符号与语义 325
12.3 Datalog:一个关联规则语言 326
12.3.1 基Datalog的语义 328
12.3.2 解释变量 329
12.3.3 带变量的查询 333
12.4 证明与替换 334
12.4.1 带变量的自底向上过程 335
12.4.2 带变量的确定性归结 337
12.5 函数符号 339
12.6 在自然语言处理中的应用 344
12.6.1 在上下文无关文法中使用限定子句 345
12.6.2 增强文法 347
12.6.3 为非终结符号建立结构 348
12.6.4 封装的文本输出 348
12.6.5 强制约束 349
12.6.6 建立自然语言与数据库的接口 350
12.6.7 局限 351
12.7 相等 352
12.7.1 允许相等断言 352
12.7.2 唯一名字假设 353
12.8 完备知识假设 355
12.9 本章小结 358
12.10 参考文献及进一步阅读 358
12.11 习题 359
第13章 本体和基于知识的系统 363
13.1 知识共享 363
13.2 灵活的表示 363
13.2.1 选择个体和关系 364
13.2.2 图形化表示 366
13.2.3 原始关系与导出关系 369
13.3 本体与知识共享 373
13.3.1 描述逻辑 376
13.3.2 顶层本体 380
13.4 查询用户和其他知识来源 382
13.4.1 函数化关系 383
13.4.2 更普遍的问题 383
13.5 实现基于知识的系统 384
13.5.1 基语言和元语言 385
13.5.2 普通的元解释器 386
13.5.3 扩展基语言 387
13.5.4 深度有限搜索 388
13.5.5 元解释器构建证明树 389
13.5.6 可询问用户的元解释器 390
13.5.7 推迟目标 391
13.6 本章小结 391
13.7 参考文献及进一步阅读 392
13.8 习题 392
第14章 关系规划、学习和概率推理 396
14.1 规划个体与关系 396
14.1.1 情景演算 396
14.1.2 事件演算 401
14.2 个体与关系的学习 402
14.3 概率关系模型 406
14.4 本章小结 410
14.5 参考文献及进一步阅读 411
14.6 习题 411
第五部分 宏观图景 416
第15章 回顾与展望 416
15.1 复杂性维度回顾 416
15.2 社会与道德后果 418
15.3 参考文献及进一步阅读 420
附录A 数学基础与记号 421
参考文献 425
索引 439