第1章 引论 1
1.1 背景 1
1.2 研究目的和意义 2
1.3 特征抽取方法概述 3
1.3.1 线性特征抽取方法 3
1.3.2 非线性特征抽取方法 6
1.3.3 基于增量学习的特征抽取 9
1.3.4 基于表示理论的特征抽取 10
1.4 实验常用数据集 10
第2章 扩展主成分分析 14
2.1 引言 14
2.2 PCA简介 18
2.3 相似子空间学习框架 19
2.3.1 相似子空间框架的基本思想 19
2.3.2 相似子空间模型 22
2.3.3 基于特征选择的子空间集成 25
2.4 实验 29
2.4.1 人脸库AR上的实验 30
2.4.2 人脸库CMU PIE上的实验 32
2.4.3 特征选择 33
2.4.4 聚类 34
2.4.5 人脸重建 35
2.4.6 相似子空间在分类中的作用 36
2.5 本章小结 38
第3章 基于样本近邻的局部线性鉴别分析框架 39
3.1 引言 39
3.2 局部鉴别分析框架的基本思想 41
3.3 基于向量形式的LDA(VLDA)和基于矩阵形式的LDA(MLDA) 43
3.3.1 基于向量形式的LDA(VLDA) 43
3.3.2 基于矩阵形式的LDA(MLDA) 43
3.4 LLDA框架 44
3.4.1 基于向量的LLDA(VLLDA)算法 44
3.4.2 基于矩阵的LLDA(MLLDA)算法 45
3.4.3 LLDA算法框架 46
3.4.4 LLDA框架分析 47
3.4.5 近邻个数的选择 48
3.4.6 计算复杂度分析 49
3.5 实验结果 49
3.5.1 在二维模拟数据集上的实验 50
3.5.2 在ORL人脸库上的实验 52
3.5.3 在Yale人脸库上的实验 55
3.5.4 在AR人脸库上的实验 57
3.6 本章小结 59
第4章 基于局部最小均方误差的分类算法 60
4.1 引言 60
4.2 最小均方误差算法简介 62
4.2.1 MSE的二分类模型 62
4.2.2 MSE的多类分类模型 63
4.3 LMSE的提出 63
4.4 局部最小均方误差模型 65
4.4.1 二元分类的LMSE 65
4.4.2 多元分类的LMSE 66
4.4.3 LMSE算法复杂度及相关讨论 67
4.5 实验 69
4.5.1 AR数据集上的实验 69
4.5.2 在CMU PIE数据集上的实验 71
4.5.3 在MNIST数据集上的实验 72
4.5.4 在两类数据集上的实验 74
4.6 本章小结 77
第5章 基于个性化学习的核线性鉴别分析 78
5.1 引言 78
5.2 一般个性化学习的主要思想 81
5.3 个性化KFDA (IKFDA) 82
5.3.1 确定学习区域 82
5.3.2 使用KFDA的学习模型 85
5.3.3 计算复杂性分析 86
5.4 实验 87
5.4.1 在AR人脸数据集上的实验 87
5.4.2 在YaleB人脸数据集上的实验 88
5.4.3 在AR+ORL人脸数据集上的实验 89
5.4.4 在MNIST数据集上的实验 90
5.4.5 学习区域参数R与分类结果之间的联系 91
5.5 本章小结 94
第6章 高效KPCA特征抽取方法 95
6.1 引言 95
6.2 核主成分分析(KPCA) 97
6.3 高效的核主成分分析(EKPCA) 98
6.3.1 EKPCA的基本思想 98
6.3.2 确定基本模式 99
6.3.3 复杂度分析 101
6.4 实验结果 102
6.5 本章小结 110
第7章 快速核最小均方误差算法 111
7.1 问题的提出 111
7.2 KMSE模型 112
7.3 快速KMSE(FKMSE)算法 113
7.4 实验 116
7.4.1 实验1 116
7.4.2 实验2 117
7.4.3 实验3 119
7.5 本章小结 120
第8章 核函数参数的自动选择 121
8.1 引言 121
8.2 基于通用熵的核函数参数选择 122
8.2.1 通用熵 123
8.2.2 余弦矩阵和核矩阵之间的关系 124
8.3 实验 124
8.3.1 高斯核函数参数选择 125
8.3.2 多项式核函数参数选择 127
8.4 本章小结 128
第9章 基于样本表示的特征抽取 129
9.1 基于L2范数的表示方法 129
9.1.1 协同表示分类(CRC)方法 129
9.1.2 线性回归分类(LRC)方法 130
9.1.3 两阶段测试样本的稀疏表示(TPTSR)方法 131
9.2 基于L1范数的表示方法 132
9.3 基于L0范数的表示方法 134
9.3.1 引言 134
9.3.2 GASRC 136
9.3.3 实验 138
9.4 本章小结 142
参考文献 143