当前位置:首页 > 工业技术
神经网络原理
神经网络原理

神经网络原理PDF电子书下载

工业技术

  • 电子书积分:18 积分如何计算积分?
  • 作 者:(美)Simon Haykin著;叶世伟,史忠植译
  • 出 版 社:北京:机械工业出版社
  • 出版年份:2004
  • ISBN:7111127595
  • 页数:633 页
图书介绍:本书介绍神经网络的基本概念和理论。
《神经网络原理》目录

第1章 导言 1

1.1什么是神经网络 1

1.2人脑 4

1.3神经元模型 7

1.4看作有向图的神经网络 10

1.5反馈 12

1.6网络结构 13

1.7知识表示 15

1.8人工智能和神经网络 22

1.9历史注释 24

注释和参考文献 29

习题 30

第2章 学习过程 33

2.1简介 33

2.2误差修正学习 34

2.3基于记忆的学习 35

2.4 Hebb学习 36

2.5竞争学习 39

2.6 Boltzmann学习 40

2.7信任赋值问题 41

2.8有教师学习 42

2.9无教师学习 43

2.10学习任务 44

2.11记忆 50

2.12自适应 56

2.13学习过程的统计性质 57

2.14统计学习理论 60

2.15 可能近似正确的学习模型 69

2.16小结和讨论 72

注释和参考文献 73

习题 77

第3章 单层感知器 81

3.1简介 81

3.2自适应滤波问题 82

3.3无约束最优化技术 83

3.4线性最小二乘滤波器 87

3.5最小均方算法 89

3.6学习曲线 92

3.7学习率退火进度 93

3.8感知器 94

3.9感知器收敛定理 94

3.10 Gauss环境下感知器与Bayes分类器的关系 99

3.11小结和讨论 102

注释和参考文献 103

习题 105

第4章 多层感知器 109

4.1简介 109

4.2预备知识 111

4.3反向传播算法 112

4.4反向传播算法小结 121

4.5异或问题 123

4.6改善反向传播算法性能的试探法 125

4.7输出表示和决策规则 129

4.8计算机实验 131

4.9特征检测 140

4.10反向传播和微分 142

4.11 Hessian矩阵 143

4.12泛化 144

4.13函数逼近 146

4.14交叉确认 150

4.15 网络修剪技术 154

4.16反向传播学习的优点和局限 160

4.17反向传播学习的加速收敛 165

4.18作为最优化问题看待的有监督学习 165

4.19卷积网络 173

4.20小结和讨论 175

注释和参考文献 176

习题 178

第5章 径向基函数网络 183

5.1简介 183

5.2模式可分性的Cover定理 184

5.3插值问题 187

5.4作为不适定超曲面重建问题的监督学习 189

5.5正则化理论 191

5.6正则化网络 198

5.7广义径向基函数网络 199

5.8 XOR问题(再讨论) 202

5.9正则化参数估计 203

5.10 RBF网络的逼近性质 207

5.11 RBF网络与多层感知器的比较 209

5.12核回归及其与RBF网络的关系 210

5.13学习策略 213

5.14计算机实验:模式分类 218

5.15 小结和讨论 220

注释和参考文献 221

习题 224

第6章 支持向量机 229

6.1简介 229

6.2线性可分模式的最优超平面 230

6.3不可分模式的最优超平面 234

6.4怎样建立用于模式识别的支持向量机 237

6.5例子:XOR问题(再讨论) 241

6.6计算机实验 243

6.7ε-不敏感损失函数 245

6.8用于非线性回归的支持向量机 245

6.9小结和讨论 247

注释和参考文献 249

习题 250

第7章 委员会机器 253

7.1简介 253

7.2总体平均 254

7.3计算机实验Ⅰ 256

7.4推举 257

7.5计算机实验Ⅱ 262

7.6联想Gauss混合模型 264

7.7分层混合专家模型 268

7.8使用标准决策树的模型选择 269

7.9先验和后验概率 272

7.10最大似然估计 273

7.11 HME模型的学习策略 274

7.12 EM算法 275

7.13 EM算法在HME模型中的应用 276

7.14小结和讨论 278

注释和参考文献 279

习题 281

第8章 主分量分析 285

8.1简介 285

8.2自组织的一些直观原则 285

8.3主分量分析 287

8.4基于Hebb的最大特征滤波器 293

8.5基于Hebb的主分量分析 299

8.6计算机实验:图像编码 303

8.7使用侧向抑制的自适应主分量分析 305

8.8两类PCA算法 311

8.9计算的集中式方法和自适应方法 312

8.10核主分量分析 313

8.11小结和讨论 316

注释和参考文献 318

习题 319

第9章 自组织映射 321

9.1简介 321

9.2两个基本的特征映射模型 322

9.3自组织映射 323

9.4 SOM算法小结 328

9.5特征映射的性质 329

9.6计算机仿真 334

9.7学习向量量化 337

9.8计算机实验:自适应模式分类 338

9.9分层向量量化 340

9.10上下文映射 342

9.11小结和讨论 344

注释和参考文献 345

习题 347

第10章 信息论模型 351

10.1简介 351

10.2熵 352

10.3最大熵原则 355

10.4互信息 357

10.5 Kullback-L eibler散度 359

10.6互信息作为最优化的目标函数 361

10.7最大互信息原则 362

10.8最大互信息和冗余减少 365

10.9空间相干特征 367

10.10空间非相干特征 368

10.11独立分量分析 371

10.12计算机实验 380

10.13最大似然估计 381

10.14最大熵方法 384

10.15 小结和讨论 387

注释和参考文献 388

习题 393

第11章 植根于统计力学的随机机器和它们的逼近 397

11.1简介 397

11.2统计力学 398

11.3 Markov链 399

11.4 Metropolis算法 404

11.5模拟退火 406

11.6 Gibbs抽样 408

11.7 Boltzmann机 409

11.8 sigmoid信度网络 413

11.9 Helmholtz机 417

11.10平均场理论 418

11.11确定性的Boltzmann机 419

11.12确定性的sigmoid信度网络 420

11.13确定性退火 425

11.14小结和讨论 429

注释和参考文献 431

习题 433

第12章 神经动态规划 439

12.1简介 439

12.2 Markov决策过程 440

12.3 Bellman最优准则 442

12.4策略迭代 445

12.5值迭代 446

12.6神经动态规划 449

12.7逼近策略迭代 451

12.8 Q-学习 453

12.9计算机实验 456

12.10小结和讨论 458

注释和参考文献 460

习题 461

第13章 使用前馈网络的时序处理 463

13.1简介 463

13.2短期记忆结构 464

13.3用于时序处理的网络体系结构 467

13.4集中式时滞前馈网络 469

13.5计算机实验 471

13.6通用短视映射定理 472

13.7神经元的时空模型 473

13.8分布式时滞前馈网络 476

13.9时序反向传播算法 476

13.10小结和讨论 481

注释和参考文献 482

习题 482

第14章 神经动力学 485

14.1简介 485

14.2动态系统 486

14.3平衡状态的稳定性 489

14.4吸引子 492

14.5神经动态模型 493

14.6作为递归网络范例的吸引子操作 496

14.7 Hopfield模型 497

14.8计算机实验Ⅰ 509

14.9 Cohen-Grossberg定理 513

14.10盒中脑状态模型 514

14.11计算机实验Ⅱ 518

14.12奇异吸引子和混沌 519

14.13动态重构 523

14.14计算机实验Ⅲ 525

14.15 小结和讨论 528

注释和参考文献 530

习题 532

第15章 动态驱动的递归网络 537

15.1简介 537

15.2递归网络体系结构 538

15.3状态空间模型 542

15.4有外部输入的非线性自回归模型 547

15.5递归网络的计算能力 548

15.6学习算法 549

15.7通过时间的反向传播 551

15.8实时递归学习 554

15.9 Kalman滤波器 558

15.10解藕扩展的Kalman滤波器 561

15.11计算机实验 565

15.12递归网络的消失梯度 567

15.13系统辨识 569

15.14模型参考自适应控制 571

15.15 小结和讨论 573

注释和参考文献 574

习题 576

后记 581

参考文献 585

索引 623

返回顶部